L’immatériel n’est pas virtuel

stratégies industrielles sur la planète informatique

L’information numérique est devenu un fluide vital dans nos sociétés. Elle est partout, elle circule dans les réseaux, s’affiche sur nos écrans, s’écoute sur les téléphones mobiles... Lire, écouter, regarder des photos ou des films, c’est de plus en plus souvent utiliser le réseau global de l’internet et des terminaux électroniques. Créer, diffuser, échanger, c’est encore et toujours placer ses images, ses textes, ses musiques ou ses vidéos « sur internet » et le faire savoir à ces millions de personnes qui accéléreront la circulation.

On parle souvent de la « dématérialisation » des documents pour désigner ce type de séparation entre le « support » et son contenu. Livres, journaux, CD, DVD, affiches, tableaux, albums photos,... tous les artefacts qui étaient intimement associés à nos pratiques d’accès à l’information cèdent chaque jour du terrain devant les outils électroniques. Les photographies familiales en sont un exemple marquant : avec les appareils photo numériques, se multiplient les prises de vue, que l’on va ensuite envoyer par courrier électronique, déposer sur des albums photo en ligne (Flickr, Picasa, Pikeo,...) et qui seront consultées à distance ou utilisées par des cadres photo numériques posés sur la commode. La chaîne entière est devenue numérique et fluide. Et les pratiques sociales s’en trouvent modifiées : les réseaux d’amis ou les familles élargies peuvent confirmer leur co-présence malgré les distances et les rythmes horaires. Le document numérique est la glu de nouvelles conceptions des relations inter-personnelles.

Il en va de même de l’accès à l’information. On va consulter les sites web des journaux, écouter la musique sur les radios du web ou les sites musicaux financés par la publicité. On télécharge des émissions de radio en « podcast » sur son baladeur. On peut d’ores et déjà regarder les émissions de la télévision dès le lendemain sur son mobile grâce aux accords de « catch-up TV » entre les opérateurs de télécommunication et les médias. Les journaux expérimentent la diffusion sur des « ebook », équivalent du baladeur pour la lecture, dont on imagine déjà les usages élargis quand « l’encre électronique » permettra des supports légers, souples, que l’on peut glisser dans la poche et recharger avec les nouvelles éditions au passage devant un « kiosque électronique » tel que l’expérimente aujourd’hui Orange.

Du côté des entreprises nous assistons au même phénomène de passage au numérique :

bons de commande, factures, suivi de livraison, archivage comptable et légal, documentation des produits,... le cycle du vie du document organisationnel devient en majorité un circuit informatique. La signature électronique des contrats, l’authentification des transactions et leur horodatage sont certifiés sur le réseau. Fini les racks d’archives, les cartons de lettres et les dossiers à élastique ; vive les centres de données.

Stocker le fluide informationnel

Car il faut bien que ces bits d’information se retrouvent quelque part, que les tuyaux passent sous la terre, que les impulsions électromagnétiques assurent la transmission... C’est une autre face de l’industrie de l’information, moins médiatique, mais plus prégnante qui se joue sur le terrain industriel. La bataille pour la maîtrise de la publicité et des web-médias dont l’opération, aujourd’hui suspendue mais néanmoins significative, du rachat de Yahoo ! par Microsoft est un symptôme [1], cache l’émergence d’un autre combat de titans industriels : qui va concentrer la gestion des informations dans ses centres de données, offrir aux particuliers et aux entreprises les outils de stockage et de diffusion pour leurs informations numériques, et qui va fournir de la puissance de calcul pour toutes les opérations de « traitement de l’information » ?

A Dalles, dans l’Orégon, le long de la rivière Columbia, deux immenses hangars de la taille de stades de football se dressent de part et d’autre des quatre immenses tours de refroidissement [2]. C’est le siège d’un centre de données de Google, qui permet l’indexation des millions de pages du web et les réponses dans des délais remarquablement court aux milliers d’utilisateurs simultanés. Une rivière pour le refroidissement, la proximité de production d’électricité peu chère, et la connexion à très haut débit, ce sont les conditions idéales pour implanter une « usine à données ». Des règles proprement industrielles pour une installation servie par 200 employés permanents et ayant créé des centaines d’emplois pour la construction.

Est-ce une aubaine pour les
régions victimes de la désertification des anciennes industries ?

On voudrait le croire, mais comme pour toutes les implantations industrielles, le chantage à l’emploi et l’image positive de l’informatique permet de négocier aides et subventions, qui font porter sur le public la construction de ces usines, sans pour autant donner des emplois de remplacement à l’échelle locale, tant la spécialisation est forte et différente. A Lenoir, dans les Appalaches, Google a investi 600 millions de dollars pour installer ses fermes de serveurs. [3] Mais du côté des opposants, on estime à 260 millions de dollars les aides fournies par les autorités locales, soit environ 1,24 million de dollars par emploi créé, ou plutôt importé [4]. Avec certes une dynamique locale (commerce, hôtel et taxes industrielles), mais dont on peut se demander si elle tiendra longtemps, le nombre des permanents étant globalement réduit, informatique et réseau obligent.

Car la force de travail nécessaire à la gestion et la maintenance des serveurs de données est très spécialisée, mais peut aussi travailler à distance. Pourtant d’autre enjeux sont visés par les municipalités qui accueillent à bras ouvert les centres de données. C’est en tout cas l’expérience vécue par San Antonio au Texas [5]. Après l’annonce en janvier 2007 par
Microsoft de la construction d’un centre de données avec 75 employés et 1500 emplois dans la construction, ce sont quatre nouvelles implantation que la ville a reçu en moins d’un an.

Ce qui représente un usage industriel de l’eau et de l’électricité significatif. L’industrie de l’immatériel est bien évidemment une industrie polluante. La consommation électrique y est un secret commercial. Pour obtenir l’implantation d’un centre de Google à Pryor, en Oklahoma, cet État a voté une loi autorisant les compagnies locales de production d’électricité à taire les consommations des
grands usagers industriels [6]. L’« informatique verte » est une tentative de réponse, qui vise avant tout à économiser sur les coûts de production

 : utilisation de l’énergie éolienne et solaire pour donner vie aux milliers d’ordinateurs et à leurs tours de refroidissement ; chaque processeur est prié d’économiser l’électricité tout en produisant le minimum de chaleur...

L’implantation des
sites industriels pour les centres de données est aussi une question géo-stratégique. Il s’agit de rapprocher les calculateurs des usagers, et dans le même temps de rester en dehors des sphères d’influence des gouvernements. C’est ainsi que Google, qui manie l’art du secret dans ses décisions et négociations, met acteullement en concurrence plusieurs pays asiatiques pour construire un nouveau noeud de sa trame de centres de données dans cette région au si fort taux d’expansion des usages de l’internet [7]. Malaisie, Taïwan, Corée du Sud,... l’intégration mondiale est en route.

Délocalisation numérique

Le numérique ne s’embarrasse pas de la localisation des informations. Nul ne peut dire sur quel disque dur est stockée une photographie de Flickr ou une vidéo de YouTube. Ni même dans quel centre de données ou quel est le processeur qui effectue un calcul pour votre compte. On parle alors de « cloud computing ». Dans ce modèle, le stockage et la puissance de calcul est répartie entre les centaines de milliers d’ordinateurs serveurs dont disposent les géants du web. L’information est redondante, stockée plusieurs fois dans le nuage et les congestions informatiques sont évitées par une répartition des calculs entre les serveurs. En utilisant un nuage de serveurs, chaque informaticien peut disposer d’une puissance de calcul incomparable avec ce qu’il pourrait obtenir sur sa propre machine, ou même dans les centres de calcul des entreprises et institutions. C’est ce qui permet la rapidité de transcodage des vidéos sur YouTube et la délivrance de plusieurs milliards de vidéos par mois [8]. C’’est aussi ce qui autorise la mise en place de nouvelles formes de sous-traitance, à l’image de l’usage des web services de Amazon, le premier opérateur à avoir mis en avant cette logique informatique. Par exemple, le New York Times a pu résoudre sur le nuage d’Amazon, en quelques heures,
une opération qui aurait vraisemblablement été impossible sur ses propres serveurs afin de rendre disponibles sur le web toutes ses archives depuis 1851 en format pdf. [9]

Les grands opérateurs, disposent pour leurs opérations de millions de serveurs puissants et rapides, répartis dans de nombreux centres de données, voire utilisés en sous-traitance chez des prestataires spécialisés. Ils peuvent offrir cette infrastructure à d’autres acteurs qui peuvent alléger leur gestion par l’externalisation de leurs centres informatiques. Une chaîne industrielle comme on en connaît dans les autres domaines. Mais appliquée à un secteur en plein développement et innovation, qui a besoin d’une force de travail adaptée à cette nouvelle conception de l’informatique. Le lien avec les universités et la recherche est alors essentiel pour mettre en place les logiciels qui vont gérer une telle grille d’ordinateurs et de mémoires, pour inventer les méthodes algorithmiques permettant de gagner des millièmes de secondes pour retailler les photos ou délivrer des morceaux de musique. C’est ainsi que IBM et Google se sont alliés pour proposer un nuage de serveurs à un ensemble d’universités étatsuniennes, et permettre ainsi de développer les savoir-faire en matière de programmation parallèle, en utilisant Hadoop, une version libre du langage de gestion MapReduce de Google. Ironiquement, Hadoop est maintenu par une équipe de Yahoo !

Cette alliance entre IBM et Google dans le cloud computing est d’ailleurs le premier pas d’un nouveau cours dans l’informatique [10] : IBM apporte des serveurs spécialisés dans l’informatique répartie, et sa connaissance du marché des entreprises, quand Google dispose des outils grand public et d’une ergonomie de la recherche et des utilisations en pointe... et certainement du plus grand nuage de serveurs de la planète. C’est aussi ce rapprochement
de géants qui explique le risque que prend Hewlett-Packard en rachetant EDS, une société de service et d’ingénierie informatique
pour la somme de 13,9 milliards de dollars. [11] Un risque économique important, notamment compte tenu des coûts de l’intégration des deux forces de travail d’entreprises ayant un long passé derrière elles : 140 000 personnes pour EDS et 172 000 pour HP. Avec le spectre des dégraissages accompagnant en général ces méga-fusions. Si les opérateurs boursiers semblent actuellement bouder le pari de HP, on peut penser que ce géant sent bien que le vent tourne, que son coeur de métier doit changer : l’avenir est aux services et non à la vente de matériel. Gérer pour les entreprises des centres de données, fournir du stockage, des développements de logiciels et des outils en réseau est la mutation qui se déroule sous nos yeux. On parle ainsi de « software as a service », et même de « platform as a service » pour désigner cette redistribution des cartes de l’industrie informatique autour du réseau

et des nuages de serveurs.

Des particuliers aux entreprises

Si le « cloud computing » a d’abord été testé pour les usages des particuliers, le prochain virage porte sur l’externalisation des services informatiques des entreprises. Toujours réticentes à laisser leurs données dans les mains d’un tiers, les entreprises comprennent aussi que la gestion, le stockage et la disponibilité permanente des serveurs et des flux d’information est devenu un critère numéro un, mais aussi un métier qui échappe de plus en plus à des centres serveurs de petite taille.

Pour autant, l’expérience des usagers individuels nous renseigne aussi sur les risques d’une balkanisation des accès. Chaque opérateur de nuage tente de conserver en son sein les usagers, et il n’est guère facile de changer de prestataire pour son album photo ou ses documents et mails. Car pour ces opérateurs, plus encore que les bénéfices que l’on peut tirer à court terme, par la publicité ou les services « premium », c’est la lifetime value de l’utilisateur qui est le graal recherché. Il s’agit d’estimer ce qu’on pourra obtenir d’un client fidèle, et auprès duquel on multipliera les services et les offres dans les divers domaines de sa vie.

Les alliances d’entreprises et les propositions de services « gratuits »
doivent aussi être regardées sous cet angle : en diminuant l’autonomie des usagers, en rendant indispensable le retour régulier vers les services proposés, l’informatique en mode nuage permet aux vecteurs de disposer d’une influence plus grande. Une situation qui pèse aussi sur

les entreprises, et qui inquiète les États, d’autant plus que la majeure partie des acteurs de l’informatique en nuage est d’origine étatsunienne [[ A propos des services gratuits sur le web, commentaire sur une note du CNRS. Hervé Le Crosnier, 30 avril 2008] ].

L’indépendance des individus, des entreprises et même des nations n’est plus seulement une question de territoire, de géographie et d’espace collectif, mais aussi une question liée à la soumission aux nouvelles usines de la production immatérielle. Les vecteurs émergeants sont capables de gérer à la fois les données, les individus, leurs identités et leurs besoins et d’offrir leurs profils aux diverses formes de l’industrie de l’influence, tout en leur fournissant la capacité de calcul dont ils ont besoin pour s’insérer dans la société de l’information. Ce qui met en place une nouvelle notion de « l’appartenance », modifiant profondément les conditions du débat entre citoyens confrontés aux mêmes « communautés de destin » pour les remplacer par des débats entre « clients », individus ou entreprises, membres de « communautés de choix » principalement organisés autour de leur consommation et de leur dépendance informationnelle envers les maîtres des nuages. C’est donc à la fois d’une réflexion sur les conditions de production de l’immatériel et sur les stratégies industrielles que nous sommes conviés si nous voulons changer le monde dans le nouveau cadre du capitalisme cognitif. La contradiction entre les rapports de production et les forces productives a pris de nouveaux habits qu’il convient d’analyser et de subvertir, afin que l’innovation sociale et culturelle soit à la hauteur de l’innovation technique, industrielle et économique de la mutation en cours

Caen, le 15 mai 2008

L’adresse originale de cet article est http://fsm-sciences.org/spip.php?article285

Posté le 12 janvier 2009 par Hervé Le Crosnier

©© a-brest, article sous licence creative commons cc by-sa

Nouveau commentaire
  • Octobre 2009
    14:14

    L’immatériel n’est pas virtuel

    par jeff

    je suis surpris par le lien donné par le commentaire précedent SPAM ? et par le lien en fin d’article qui ne semble rien avoir à voir avec le sujet.

    Autrement, je ne peux qu’être d’accord avec cet article et la matérialité lourde de cette industrie de l’immatériel.

  • Octobre 2009
    11:53

    L’immatériel n’est pas virtuel

    super article, mais je suis pas tout à fait convaincu. Car selon moi, l’immatériel c’est du virtuel.

    Voir en ligne : Youniverse World ltd