Les machines éthérées

2010 aura été l’année du Cloud computing, l’année où les gros constructeurs parlèrent du « cloud » à la télévision aux heures de grande audience. Malgré tout, les éléments qui constituent ce que les différents acteurs à présent s’accordent à définir comme cloud computing, sont déjà en définition depuis de nombreuses années. Pour moi, le cloud computing, c’est la création « d’automates » : des machines que l’on ne voit pas et qui fonctionnent tout seul. Il n’y a plus qu’un guichet (la page web ou l’on « s’enregistre ») et puis derrière il y a un service délivré. Ce qui est très pratique pour celui qui conçoit cette « machine autonome », c’est qu’une fois que la machine est correctement réglée, elle peut devenir aussi facilement une machine à fabriquer de l’argent tout seul. On comprend alors l’engouement financier pour cette évolution du computing : fabriquer des machines à fabriquer de l’argent « automatiquement » (c’est bien entendu une vision idéale). La notion d’automate se retrouve dans plusieurs aspects du cloud computing : la dimension « scalable » des systèmes qui s’adaptent à la demande des utilisateurs (on provisionne plus ou moins d’unité CPU ou de mémoire en fonction des pics de demande), l’aspect bloc/boite que l’on retrouve avec des services souvent réduits à une seule et simple fonction, élémentaire, atomique, qui peut être sollicitée par une interface de programmation (API). On n’a donc plus à faire à un logiciel, on a à faire à une machine élémentaire qui fait une action. On aura alors tendance à relier cette machine à d’autres machines par le biais de ces mêmes API, et on obtiendra donc la mise en oeuvre du « mashup » qu’on trouvait avant dans la musique : construire une solution informatique globale dans quelques années sera du mix, et les architectes logiciels les équivalents des DJs.
Finalement donc, on se rend compte que l’implicite « éthéré » de la métaphore du nuage est l’inverse des faits : les ingénieurs informatiques contemporains se comportent en mécano, au même titre que les ingénieurs du 19e siècle lors de la première révolution industrielles. Il est d’ailleurs notable que le cloud computing est ce qui fait rentrer l’informatique dans une nouvelle sphère dont elle était plutôt absent jusqu’ici, à savoir l’industrie lourde (les immenses datacenters et leurs approvisionnements énergétiques)

Si maintenant on se penche sur les mécanismes mis en oeuvre de manière systématique dans l’architecture des différents couches du cloud computing (Infrastructure As A Service, Platform As A Service, Software As A Service), on se rend compte une fois encore que nous sommes revenus à des termes très élémentaires de la machine et de l’ordinateur tel qu’il nous est apparu auprès du grand public dans le début des années 1980 : Les entrées/sorties (I/O) des API, les mécanismes de queues de traitement et les caches associés (Queue and Cache), les approches parrallèles. On constate d’ailleurs que la complexité est l’ennemi du cloud en général : pas de services compliquées, pas de technologies compliquées : de l’élémentaire. On pourra prendre pour exemple l’évolution de deux technologies : le serveur web et la base de données. Pour le serveur Web, APACHE qui était la solution très souvent privilégiée voit maintenant apparaitre pléthore de serveur web élémentaire à qui l’on demande de rendre un service élémentaire : répondre à une requête GET. De même pour les bases de données, les base de données SQL sont de plus en plus délaissées au profit de base qui justement se définissent par opposition en NoSQL (couchDB, mongoDB, redis, Cassandra, etc.). Même XML se voit délaissé au profit de JSON.
C’est comme si finalement, face à la dimension vertigineuse de la grande construction à l’oeuvre dans le cloud, tout le monde se donnait le mot pour alléger au maximum chaque brique de la « grande » construction.

Le cloud opère donc une fois encore comme un dévoilement : Si du côté de l’utilisateur final, on essaie d’abstraire de plus en plus le fournisseur de service et le service lui-même (ça se passe dans les nuages donc c’est quelque part complètement magique), du côté des personnes qui implémentent ces solutions on constate la nécessité de simplifier les approches informatiques, de revenir à une approche de la « machine » très rudimentaire, mais aussi très pragmatique et matérielle !

Le cloud computing est donc l’illustration, une fois encore, du devenir machine de toute chose, à l’image de ce plan fascinant du film Koyaanisqatsi, lorsque les flux lumineux de la ville vus de très haut donnaient l’impression de voir un gigantesque circuit imprimé.

En y regardant de près, tout ce qui se voudrait transparent, « virtuel », se voit toujours marqué d’une profonde et inconditionnelle matérialité.

Voir aussi :
l’article de Bruno Latour sur l’erreur majeure d’interpretation sur la virtualisation du monde
le dévoilement du motif de la partition électronique
‘industrie lourde du cloud computing

Les enjeux industriels

Il y a quelques années, je « décryptais » avec fascination les manifestes de Netochka Nezvanova, qui dans de longues pages ascii (texte vert sur fond noir) exposait la nouvelle révolution numérique, elle/il parlait de la « bit society ». On lisait que la société numérique succédait à une société industrielle, et que les paradigmes s’en trouvaient évidemment profondément changés. Exit l’usine. Rentré donc dans une ère transparente et flottante du monde numérique et du cyberspace, il n’y avait donc plus de cambouis. Tous les jours en utilisant google, j’avais à faire à un interlocuteur extrêmement proche qui ne s’encombrait pas d’un portail compliqué à la yahoo, pour m’offrir le résultat de mes recherches. Je fus d’ailleurs naïvement surpris dans le début des années 2000 de voir que google comptait déjà plusieurs centaines d’employés, alors que la simplicité de la page de garde m’avait donné l’impression d’avoir à faire à une petite société, presque artisanale, répondant simplement à mes requêtes.

Le 18 mai 2008, Christian Fauré mettait en ligne la vidéo de son intervention lors d’un séminaire de l’association Ars Industrialis, et alors seulement ce jour, j’ai compris que j’avais été endormi par Google toutes ces années. J’ai compris que cette société qui commerçait avec moi depuis déjà plusieurs années, n’était pas une entité dans les limbes d’un réseau internet invisible aux contours indéterminés, mais bien une usine. J’ai compris que la révolution numérique n’en était pas moins et toujours basée sur des enjeux industriels forts, d’industrie lourde pourrait-on même dire. Il s’avère que répondre aux milliards de requêtes quotidiennes nécessite une infrastructure lourde, matérialisée par des centres de calcul aux contraintes bien matérielles que sont l’utilisation d’énergie productive (faire fonctionner les serveurs) et la gestion de l’énergie « négative » (gérer les déperditions de chaleur, donc le refroidissement). Selon Christian donc, que google dispose de salles blanches au pôle nord ( autre lieu blanc…) n’est pas tant que cela une lubie : plus les utilisateurs vont solliciter ces centres de calcul, plus la question du refroidissement des machines sera prégnant. Christian rappelle d’ailleurs que la consommation des centres de calcul aux Etats-Unis est de 3 ou 5% (de souvenir) de l’énergie consommée outre atlantique : énorme.

Et oui, ce n’est plus une histoire de bits innocents, d’interfaces graphiques immaculées, ce sont des histoires d’industrie lourde, de titans. La mise au jour de cette dimension de l’informatique est tout à fait intéressante et rappelle la dimension même « d’industrialisation » de nos rapports aux outils et services informatiques aussi simples et invisibles qu’ils n’y paraissent. Cette notion d’industrialisation est aussi au coeur des réflexions permanentes du groupe de réflexion d’ars industrialis, mené évidemment grandement par Bernard Stiegler, dont une fois encore, Christian nous offre régulièrement les compte-rendus vidéo.

Pour cela, pour ce travail répété de mise en lumière des processus industriels à l’oeuvre dans notre commerce avec l’informatique et les réseaux, il faut lire le blog de Christian Faure.

Lumière et encodage

L’image au cinéma est tout d’abord affaire de lumière : l’image cinématographique n’existe qu’à travers une projection de lumière à travers un film photographique. Ensuite, l’un des artisans principaux de la signature d’une image est le directeur de la photographie : il « construit » la lumière qui définira l’image filmée et il supervise le résultat obtenu, en post-production, par l’étalonnage de la pellicule. De « The Element of crime » à « Stalker » en passant par « Blade Runner« , « Delicatessen » ou « In the mood for love« , la construction d’une identité de l’image cinématographique, au delà des aspects de cadrage ou de montage, est une intention forte chez le réalisateur.

Lorsqu’au sein d’un site web, une vidéo a été « encapsulée », on reconnait immédiatement la source : Youtube, Dailymotion ou Vimeo, avant même d’identifier la vidéo par la première image clé. Cela revient à dire ici que l’identité des images est gommée et ce qui ressort n’est plus que l’identité d’une image numérisée, transcodée, avec des choix de profil d’encodage génériques bien définis. Le grain YouTube rend chaque image vidéo très « cheap » et ce qui ressort finalement, c’est plutôt la normalisation d’une plate-forme de diffusion vidéo monopolistique.

La numérisation à travers le profil d’encodage (nombre d’images/secondes, résolution, fréquence des images-clé, codec) offre une quantité innombrable de déclinaison « esthétique » d’une image vidéo. Les codecs DCT donnent des images très différentes des codecs à base d’ondelette. La taille des macroblocs, les filtres d’interpolation, etc. sont autant de transformations sur une image initiale qui modifient considérablement l’appréhension de l’image finale transcodée.

Il est n’est pas ici question d’émettre quelque comparaison entre le monde analogique et le monde statistique du numérique : le signal analogique lui-même n’est, de nos jours, que très rarement « re-transcrit » de bout en bout sans phase intermédiaire numérique ou de transformation analogique opérant une transformation du signal initial. L’enjeu est de rappeler l’environnement de transformation permanente que constitue le numérique, où les opérations de codage/transcodage/décodage ont lieu en permanence, et emportent avec elle de « l’information », déforment les intentions et « ouvrent » aussi sur d’autres formes, des erreurs, des artefacts, des incidents. Les transformations numériques sont constituantes de l’esthétique de ces images numériques.

L’écriture de la partition électronique

L’une des évolutions principales de l’informatique dans les années à venir est la « disparition » de celle-ci :
– D’une part, les applications fonctionnant auparavant sur le poste de travail migrent vers un fonctionnement déporté, sur un serveur distant. On parle d’application ASP (Application Service Provider) ou encore plus récemment de SAS (Software As Service). Le concept effectif et opérant du Web 2.0 repose souvent sur ce principe d’une fonctionnalité logicielle qui s’opérait auparavant sur le desktop et qui maintenant se sollicite par le biais d’une application Web.

– D’autre part, les objets qui nous entourent se dotent petit à petit de capacité sensorielles et computationnelles leur permettant de fonctionner de manière active, autonomes ou en interaction avec des services Web.

Le second courant a depuis quelques années pris un essor important : c’est ce que l’on appelle le « physical computing ». Cette « discipline » est de plus en plus explorée par les designers et artistes dans la mesure où elle permet une interaction avec les utilisateurs ou spectateurs qui ne passe pas nécessairement par la médiation d’un écran d’ordinateur, d’une souris ou d’un clavier. L’interaction n’est plus donc centrée sur l’objet PC renvoyant à la micro-informatique, mais elle se déplace vers tout type d’objets existants ou inventés et également vers l’interaction avec un environnement ou un espace donné.

Cet éloignement du PC est quelque chose de très positif dans la mesure où il permet au processus créatif de se recentrer sur son objectif initial sans être contaminé par le conditionnement des paradigmes de l’interaction informatique au sens propre, c’est à dire encore : un écran de 15 pouces, une souris ou un clavier. Dans le physical computing, la capacité computationnelle est d’ailleurs le plus souvent réduite puisqu’elle réside le plus souvent dans les capacités de microcontrolleurs rudimentaires tel que le ATMEL AVR et le ATMEL ATmega168 (microcontrolleur des cartes Arduino et Wiring). Tout d’un coup, la complexité de l’informatique disparait et l’on revient aux fondamentaux, aux premiers principes électroniques des débuts : la notion d’entrée et de sortie (I/O) pour la réception et diffusion de message, l’information analogique contenue dans un voltage, la binarisation du choix et du résultat à travers l’extinction et l’éclairage d’une LED. Avec l’émergence d’une nouvelle direction technologique qui va probablement rajouter un saut supplémentaire dans la numérisation du monde (numérisation de nos interactions avec les objets fondamentaux), on constate comme toujours que la première étape est un « dévoilement » de ce qui constituait la forme « précédente » de ce monde : des actions atomiques (vrai/faux ouvert/fermé) et des composants atomiques (résistance, voltage, circuit de distribution PCB). Les technologistes appellent cette évolution « l’internet of things« , un environnement ou chaque « périphérique » est interconnecté, plus seulement des ordinateurs (Avant même l’art plastique à proprement dit, le design est probablement le premier à explorer les nouvelles modalités d’interaction avec les objets « communiquants »). La norme IPV6 permettant l’adressage de ces éléments interconnectés est d’ores et déjà en mesure de fournir plus d’adresses qu’il n’y a d’atomes dans l’univers.

Alors que l’algorithme, un langage particulier, est le mode privilégié d’interaction avec le monde informatique actuel, l’exploration du « physical computing » nous amène le plus souvent à apprendre une lecture et une écriture de la « carte imprimée », la fameuse PCB (Printed Circuit Board). D’un mode d’interaction langagier, nous revenons à un mode presque graphique : le principe de la partition, écriture telle que nous l’a proposé la partition musicale notamment. Cette partition électronique est moins temporelle, plus spatiale : elle propose surtout des cheminements de flux (électriques), des labyrinthes électroniques.

Ceci n’est rien de nouveau, ce motif microscopique (quoique re-dévoilé ici par la simplication de la carte électronique de type PCB) nous renvoie à d’autres motifs équivalents de niveau micro ou macroscopiques : La partition ou la mosaique. Ces motifs sont des motifs récurrent de nos interactions avec le monde :

La partition musicale

John Cage

la pixelisation de l’image numérique contemporaine

artefact DVD

la découpe des buildings et champs agricoles vus à travers une fenêtre de Google Maps

google map

ou le hublot d’un avion.

vue d’avion

C’est la représentation récurrente chez Mondrian :

et encore elle est démontrée de manière encore plus explicite dans ce fabuleux film de Godfrey Reggio « Koyaanisqatsi« , dans lequel flux humains et flux électroniques, villes et circuits imprimés sont présentés comme identiques : La ville comme une vaste machine.

Ce motif macro et microscopique de la mosaïque, matrice de toutes les représentations contemporaine est aussi le motif récurrent des explorations numériques de Reynald Drouhin.

Archives métastables

Plus que hotline, emule ou autres, bittorrent offre un paradigme de la diffusion qui est autre qu’un simple partage. Bittorrent met en oeuvre une stratégie d’archivage « métastable » dans le sens où un fichier, une oeuvre, une archive, peut se faire de manière éclatée sur le réseau, sans que cette archive existe (ou presque de manière) complète chez l’un ou l’autre des tenants et aboutissants. L’utilisation meme des termes de racines (seed) et feuilles (leech) rendent mal compte de cette sauvegarde horizontale : tout le monde est sur le même plan d’égalité. Le peer to peer est aussi et surement, au delà d’un formidable paradigme de partage, l’avenir même de la sauvegarde : la chose est nulle part et partout, elle n’a nul emplacement fixe, mais « rode » sur le réseau. Des trackers me permettent de la retrouver, ou plutôt d' »entrer » dans la chaine de partage qui me permettra de re-constituer ce média. Jamais les multinationales ne seront en mesure de tout archiver, elles produisent et effacent, car le bénéfice doit être immédiat.

Comme le dit l’un des concepteurs de Piratebay : « nous ne référençons que des adresses IP et des checksums ».

STEAL THIS FILM
STEAL THIS FILM II

Plan et profondeur

Petit à petit depuis maintenant deux ans, les images vidéo se sont insérées « à plat » dans les pages web. Auparavant, les players vidéo (real, windows media player, quicktime) était mis en avant (par le logo en règle) et faisait apparaitre ensuite du contenu vidéo. On avait vraiment l’impression d’un contenant (le player) et un contenu (la vidéo). Ainsi la vidéo lue était encore un élément rapporté d’une « matière » différente de la page web plane.

Avec les players flash, technologie déjà ancienne d’encapsulation de contenu animé dans une page web, la vidéo apparait immédiatement « à plat », sur un plan équivalent à celui des textes et des images. Cette représentation est bien entendu implicite : on s’imagine inconsciemment dans un espace multidimensionnel ( au moins l’espace « immédiat » des plans de lecture et l’espace « perpendiculaire » des liaisons hypertextuelles calculées), et la vidéo est devenu du plat comme la page web elle-même. La vie qui parcourait la vidéo nous donnait auparavant l’impression d’une dimension cachée qui faisait s’échapper la vidéo de son simple plan 2D. Le player flash a effacé cette dimension. Tout est plat, il n’y a que le triangle au milieu pour matérialiser encore le fait qu’il va se passer quelque chose, que ça va bouger, entrer en mouvement si on clique. Il est d’ailleurs des querelles d’utilisateurs pour savoir si la vidéo doit tout de suite « entrer en mouvement », où s’il faut cliquer pour lancer la lecture : comment signifier qu’il y a à cet endroit donné, dans cet espace cadre QVGA, le moteur de l’attention et de la capture de l’attention.

A l’autre extrémité de l’image vidéo devenu aussi commune qu’un simple mot dans une phrase, l’image Haute-Définition apparait. Au delà de la querelle qui n’atterrira jamais sur la signification qualitative d’un sigle HD, on constate au détour d’un DVD promotionnel diffusé sur ces nouveaux écrans, que l’image HD est différente, qu’elle est même entièrement nouvelle, tout comme ce premier CD audio que j’ai entendu naguère sur une platine CD Luxman, marque HiFi connue elle-même par ailleurs pour avoir un son déjà très particulier : il y avait quelque qui clochait, ça sonnait faux, trop pur. C’est un peu la même chose avec l’image HD : ça en fait trop, on se croirait dans de la 3D. En fait, c’est justement de cela dont il s’agit : en dotant chaque point de l’image d’une qualité de contraste et de netteté étonnante, tout d’un coup, les différents plans de l’image sont entièrement rafraichis et tout semble présent avec la même netteté. Comme si j’était à la fois au premier et au plan secondaire, comme dans un espace en trois dimensions.

Ainsi donc, l’image numérique imprime à notre esprit des notions de profondeurs, des notions de volume. Elle se sculpte et c’est nos yeux qui apprennent à voir plus loin, dans la profondeur de l’image.

La désorientation

http://professordvd.typepad.com/my_weblog/2007/05/raw_shark_texts.html

Le rappel du concept de « désorientation » dans une brillante remarque encore de Professor DVD, faisant écho à un précédent article auquel j’avais fait référence il y a quelque temps. Il est question de l’invention,ou de la découverte, par le biais des nouveaux médias immatériels dont le déroulement se refuse à une inscription précise dans une timeline, d’un nouveau territoire non borné, car exempt de toute référence possible à un futur ou un présent. Ce territoire au multiple dimension qui ne se laisse pas appréhender « de manière traditionnelle » est celui du flux exploré par Gregory Chatonsky, ou de la mosaïque explorée inlassablement par Reynald Drouhin.

Parlant de « désorientation », on pense évidemment aussi à l’ouvrage éponyme de Bernard Stiegler, décrivant les transformations des temporalités et cardinalités liées aux évolutions technologiques.

Postmodernism’s most enduring (and perhaps final) triumph lies in the realm of displaced time. Once time became detached, symbolically, from its material representations (a spinning record, an unspooling film, a rewinding videotape) a wavering uncertainty set in. To cut to the heart of the matter: the current insecurity of the West is a deeper insecurity, metaphysical in nature: we have lost the before and after that characterized our understanding of time. The displacement of linear concepts by the concept of the loop and endless replication opens the door for new ways of thinking. The linear flow has been diverted out of the riverbed: we are into new, uncharted territory.