Les compteurs “intelligents” : des bombes à retardement ?

Reprise d’un article publié par Internet actu

(magazine en ligne sous licence Creative Commons)

Virus informatiques, usurpations d’identité, hameçonnages, atteintes à la vie privée ou à la réputation, diffamations, vols de données, espionnage industriel ou politique, pédopornographie… le “piratage informatique“, improprement qualifié de “cybercriminalité” (la majeure partie du temps, il s’agit plutôt de délinquance) attise les peurs des gens. Mais une nouvelle menace, aux conséquences bien plus dommageables, a commencé cet été à faire du bruit dans le Landerneau de la sécurité informatique : qu’adviendrait-il, en effet, si des millions, voire des dizaines de millions de foyers, étaient privés d’électricité plusieurs jours, voire plusieurs semaines durant ?

“Du point de vue de l’attaquant -gouvernement hostile, organisation terroriste ou de protection de l’environnement-, le meilleur moyen de s’attaquer à un pays est de lui couper l’électricité. C’est l’équivalent, cyber, d’une attaque nucléaire : quand il n’y a plus d’électricité, tout s’arrête.”

Le scénario n’émane pas d’un roman de science-fiction, mais d’un professeur de Cambridge, Ross Anderson, l’un des experts les plus réputés en terme de sécurité informatique, et de Shailendra Fuloria, l’un de ses étudiants, spécialiste des systèmes SCADA (pour supervision, contrôle et acquisition des données).

Les systèmes de télégestion ne sont pas sûrs !
Créés pour permettre le contrôle à distance et la surveillance de processus industriels, la télégestion de systèmes d’approvisionnement, de transport et les canalisations de produits chimiques, de gaz, de pétrole, d’eau et d’électricité, les systèmes SCADA sont souvent perçus par les spécialistes de la sécurité informatique comme un maillon faible qu’auraient beau jeu d’exploiter des cyberterroristes, pirates informatiques ou hackers militaires.

En 2007, le projet Aurora avait ainsi démontré la possibilité de pirater le système SCADA d’un générateur électrique afin d’entraîner son autodestruction. Or, et comme le souligne l’un des experts interrogés dans ce documentaire de CBS, ces générateurs coûtent très cher, ils ne sont plus fabriqués aux Etats-Unis, et il faudrait des mois pour s’en procurer d’autres ou les réparer, ce qui aurait des conséquences non seulement économiques, mais également politiques :

En 2008, le Club de la Sécurité de l’Information Français (CLUSIF) évoquait, dans une étude sur lesEnjeux de sécurité des infrastructures SCADA(.pdf), plusieurs explosions dans des usines chimiques, le fait que des sites nucléaires, guichets automatiques bancaires, systèmes de signalisation ferroviaire avaient été perturbés par des vers informatiques, entraînant, dans un cas, l’arrêt de 13 usines d’assemblage de véhicules, dans un autre l’arrêt d’une station nucléaire. La présentation évoquait également plusieurs actes de malveillance ayant perturbé des feux de signalisation, systèmes d’approvisionnement en eau, et même la prise de contrôle et ! le déraillement, par un adolescent, de 4 wagons.

Dans une intervention intitulée Electricity for Free ?(.pdf) présentée lors du dernier Black Hat (l’un des symposiums les plus réputés en matière de sécurité informatique), en juillet dernier, Jonathan Pollet, spécialiste de la sécurité SCADA chez Red Tiger Security, a expliqué avoir identifié 38 000 problèmes de sécurité, lors de 100 audits, effectués sur 10 ans.

Alors que la “durée de vie” (c’est-à-dire le temps avant qu’il ne soit infecté ou compromis) d’un ordinateur non protégé est estimée à 4 minutes, pour Jonathan Pollet, “les systèmes SCADA sontbien moins sécurisés que les systèmes informatiques“.

Au cours de ses audits, il a ainsi trouvé, sur des ordinateurs reliés à des systèmes SCADA, toute sorte de programmes qui n’avaient rien à y faire, mais qui pouvaient a contrario servir de vecteur ou de relais d’attaques : logiciels P2P ou de messagerie instantanée, scripts de téléchargement de vidéos pornographiques, et même des chevaux de Troie et autres “malwares“.

“Ce n’est qu’une question de temps : d’ici peu, nous assisterons à bien plus d’attaques ou d’incidents sur des réseaux SCADA du fait de l’absence de mesures de sécurité, ou de systèmes de défense mal configurés. Il faut nommer des responsables sécurité de ces systèmes. C’est une bombe à retardement.”

Découvert en juillet dernier, le vers Stuxnet serait le premier virus expressément créé pour infecter les systèmes SCADA. 60% des systèmes infectés auraient été situés en Iran. Pour Raphaël Marichez, de la société de sécurité HSC, Stuxnet constituerait “un tournant“, ouvrant la voie à “des virus exploitant des vulnérabilités “grand public”, avec la complicité de grandes firmes étrangères, pour cibler un système industriel précis“.

A défaut de connaître son auteur, et donc savoir s’il s’agit bel et bien d’une tentative d’espionnage industriel, voire d’espionnage tout court, on notera que, toujours cet été, un rapportdu ministère de l’énergie américain constatait que les infrastructures énergétiques américaines étaient vulnérables à des attaques informatiques, faute d’effectuer correctement les mesures basiques de sécurité censées les protéger, ou encore parce qu’elles sont reliées à l’internet, utilisent des systèmes d’exploitation grands publics, et des ordinateurs improprement sécurisés ! .

Stuxnet exploitait ainsi une faille Windows, et se propageait via des clefs USB préalablement contaminées (via l’internet, ou sciemment), dès lors qu’elles étaient connectées au PC, même si celui était pourtant à jour en terme de correctifs de sécurité. En 2009, la Marine nationale française avait ainsi dû couper son réseau après avoir été contaminée par un virus, introduit via une clef USB dans son système Windows, pourtant déconnecté du Net

L’invasion des compteurs électr(ON)iques

Ross Anderson et Shailendra Fuloria ne s’intéressent pas tant aux systèmes SCADA, mais à ces compteurs “intelligents“(les guillemets sont de rigueur, lorsque l’on commence à doter d’”intelligence” des boîtiers électroniques), censés permettre d’effectuer des économies d’énergie et dont le développement est activement soutenu, outre-Atlantique, dans le cadre du plan de relance américain (qui y investit 3,4 milliards de dollars), et en Europe par une directive européenne de 2009, qui prévoit d’en équiper 80% des foyers à l’horizon 2020.

On dénombrerait ainsi, à ce jour, quelque 250 projets de compteurs “intelligents“, 49 millions d’ores et déjà installés, et 800 millions en préparation, d’après la carte des expérimentations (triangles) et projets (ronds) de compteurs “intelligents” électriques (en rouge), de gaz (en vert) et d’eau (en bleu) dressée par meterpedia.com.

Or, ces compteurs “intelligents” commencent aussi à défrayer la chronique. Début août, la CNIL s’inquiétait ainsi des risques qu’ils faisaient poser en terme de traçabilité des usagers :

“Les informations de consommation d’énergie transmises par les compteurs sont très détaillées et permettent de savoir beaucoup de choses sur les occupants d’une habitation, comme leur horaire de réveil, le moment où ils prennent une douche ou bien quand ils utilisent certains appareils (four, bouilloire, toaster…)

Les compteurs communicants peuvent également agir directement sur l’installation électrique. Ils permettent notamment de modifier la puissance de l’abonnement, voire même de couper l’alimentation électrique à distance, via une interface web. Ces fonctionnalités devront être parfaitement sécurisées pour éviter toute utilisation frauduleuse.”

Dans une étude(.pdf) sur la sécurisation du Smart Grid (ou “réseau intelligent“, le système auquel se connecteront ces compteurs “intelligents“), la société IO Active identifie ainsi 10 risques en terme d’atteintes à la vie privée, à commencer par la surveillance, en temps réel des appareils électriques, et donc des habitudes comportementales de leurs utilisateurs, mais également les risques d’usurpation d’identité, de surveillance, d’espionnage, de malveillance ou encore de bug informatique, et autres problèmes de sécurité inhérents à tout système informatique en réseau.

Début septembre, plusieurs associations de défense des consommateurs critiquaientde leur côté la précipitation, qualifiée de “passage en force (et de) fuite en avant“, avec laquelle le gouvernement avait décidé de généraliser le déploiement de Linky, le projet français, dont l’expérimentation devait durer jusqu’au 31 mars 2011, mais qui cumuleraient problèmes et erreurs, factures illisibles et parfois astronomiques (jusqu’à 3 voire 4000 euros, au lieu de 25 à 30, selon la Confédération Nationale du logement de Lyon, interrogée par le 7/9 de France Inter ce 10 septembre) :

“Le planning de pose dérape, les compteurs disjonctent un peu trop facilement et la transmission des données ne se fait pas. Comment réaliser un bilan complet au 31 décembre 2010, c’est-à-dire trois mois plus tôt que prévu, avant la pose de l’ensemble des compteurs expérimentaux et sans même les tester pendant la période hivernale ?”

Elles critiquent également le coût du compteur, estimé entre 120 et 240 euros, qui sera facturé aux usagers (à raison d’un ou deux euros par mois, sur 10 ans), et qui aurait été “pensé par et pour le distributeur ERDF et pas du tout au bénéfice du consommateur“, qui devra, en plus, acheter un second boîtier s’il veut pouvoir mesurer, voire contrôler, sa consommation électrique :

“Au final, les avantages du compteur sont avant tout pour le distributeur ERDF et pour les fournisseurs, qui vont ainsi pouvoir proposer des services payants au consommateur pour suivre sa consommation électrique et de nouvelles offres tarifaires.”

En réponse, ERDF, la filiale d’EDF en charge de Linky, rétorque que cela permettra d’identifier plus rapidement les problèmes, d’en régler une bonne partie à distance, et donc plus rapidement, que cela permettra aux clients de faire des économies en modulant le tarif, que 93% des clients s’en déclarent “satisfaits“, et que “toutes les informations clients sont strictement confidentielles et cryptées“.

Mais qui contrôlera le bouton OFF ?

Dans leur article, intitulé “Who controls the off switch ?” (.pdf) (qui contrôle le bouton off ?), Ross Anderson et Shailendra Fuloria s’alarment de la légèreté avec laquelle les fournisseurs d’électricité, avec l’aval des autorités, créent une “nouvelle cyber-vulnérabilité significative” faisant courir le risque de coupures massives d’électricité.

Les compteurs “intelligents” sont en effet dotés de composants matériels et logiciels, et donc potentiellement piratables, ou sujets à des bugs informatiques, d’autant qu’ils sont connectés aux fournisseurs d’électricité. L’objectif est de permettre à ces derniers de surveiller, en temps quasi réel, la consommation électrique, mais également de pouvoir modifier, à distance, l’intensité de l’électricité lors de pics de consommation, ou encore de couper le courant à ceux qui n’honorent pas leurs factures – ce qui, avec les compteurs manuels, réclamait jusque-là le déplacement d’un électricien.

A terme, le tarif sera ainsi modulé, plusieurs fois dans la journée, et les opérateurs proposeront aux abonnés la possibilité de gérer eux-mêmes leur consommation d’électricité, se réservant le droit de leur couper le courant, ou de le diminuer, en cas de pic de consommation.

Au Japon, où la variation des prix est d’ores et déjà envoyée aux consommateurs trois fois par jour, de plus en plus de gens investissent ainsi dans des batteries, qu’ils rechargent la nuit quand le prix de l’électricité est bas, et qu’ils utilisent en journée en lieu et place de leur abonnement à l’électricité. Les deux chercheurs estiment que ce type d’arbitrages ne pourra qu’inciter les clients à tricher, et pirater leurs compteurs “intelligents“…

De son côté, la Grande-Bretagne a décidé de centraliser la totalité des données renvoyées par les compteurs, avant de les renvoyer vers les opérateurs. Les autorités espèrent ainsi pouvoir être plus à même de contrôler, voire modifier, la consommation électrique britannique.

Pour Ross Anderson et Shailendra Fuloria, qui notent que les équipes techniques des vendeurs de compteurs, tout comme les experts de l’académie royale des ingénieurs, ont soigneusement été écartés des réunions de préparation de ce projet, cette centralisation des remontées des informations est un “scénario cauchemardesque“. L’existence même d’un système centralisé de contrôle de l’électricité ouvre en effet la possibilité d’une coupure généralisée de courant, dans tout le pays, en cas de bug ou de piratage informatique… :

“Le black-out s’étend sur des centaines de millions de foyers, certains pendant plusieurs jours, d’autres pendant plusieurs semaines ; des gens meurent d’hypothermie, du fait de la panne des équipements médicaux électriques, ou d’électrocution en tentant de réparer eux-mêmes la panne électrique.

Le modèle économique de l’industrie énergétique est ruiné par la destruction de son “réseau intelligent“, et le remplacement des dizaines de millions de compteurs “intelligents” prendra des années. L’activité économique est perturbée, les responsables des opérateurs d’électricité sont renvoyés, des ministres doivent démissionner.”

Les deux chercheurs soulignent que plusieurs pays se sont dotés d’unités de guerre informatique offensive, et que l’armée américaine a déjà utilisé la coupure d’électricité, en Irak et en Serbie. Ils rappellent également qu’en 1996, l’IRA avait tenté de faire exploser les transformateurs de trois centrales électriques londoniennes, ce qui aurait eu pour effet de couper le courant à des millions de particuliers et d’entreprises pendant des mois. L’attentat avait pu être déjoué parce que la cellule de l’IRA avait été infiltrée par les services anti-terroristes britanniques. Si l’attentat avait eu lieu, il aurait entraîné des pertes estimées au tiers du produit intérieur brut du pays…

Des pirates informatiques, ou des employés mécontents, pourraient également profiter de ces vulnérabilités afin de faire chanter les opérateurs d’énergie, ou encore pour voler de l’électricité.Interrogé par CNet, Karsten Nohl, un autre chercheur connu pour avoir révéler plusieurs failles de sécurité en matière de RFiD et de téléphonie mobile, explique que “d’un point de vue matériel, les téléphones portables sont aujourd’hui bien plus sécurisés que la plupart des compteurs intelligents, (alors) qu’ils devraient bénéficier des meilleurs systèmes de protection disponibles“, ce qui semble ! loin d’être le cas dans celui qu’il a inspecté :

“Nous n’avons trouvé aucune des mesures de sécurité que nous serions en droit d’espérer dans un dispositif de ce type, relié à une telle infrastructure critique.”

Faute de signature électronique, de mesures de chiffrement ou d’authentification, les composants physiques étudiés n’étaient pas protégés, il était donc possible de les modifier, tout comme il était possible de modifier la consommation (pour la baisser de 25 kilowatts à 2,5 kW, par exemple), alors que le logiciel, lui, propriétaire, empêchait toute vérification de la qualité et de l’intégrité du code… ce qui n’a pas empêché Nohl de parvenir à faire planter, ou redémarrer, le “compteur intelligent“. Or, et dans la mesure où ils sont reliés en réseau, en cas de bug ou de piratage, ils pourraient entraîner des coupures en réseau, et le piratage d’un seul compteur pourrait entraîner la paralysie de tout ou p ! artie du réseau.

Une série de vidéos présentées en 2009 par IOActive montre ainsi comment un virus informatique, couplé à une base de donnée d’adresses géolocalisées, pourrait, en 24h, couper l’électricité dans tout un quartier :

Or, la rapidité avec laquelle sont déployés ces “réseaux intelligents“, et les milliards de dollars qui y sont investis, font que les questions de sécurité passeraient souvent au second plan, d’autant qu’aucun standard international n’a encore été adopté, afin de les sécuriser.

Qualifiant la sécurité de cinquième roue du carrosse, Christophe Auffray, sur ZDNet, note également que si les technologies existent, elles ont un coût, qui attise les rivalités et tensions : “la sécurité de ces réseaux communicants représente un marché à fort potentiel pour les industriels, et chacun défend, notamment au niveau des autorités européennes, ses propositions et intérêts.”

Dans un autre article, “On the security economics of electricity metering” (.pdf), publié dans la foulée, Ross Anderson et Shailendra Fuloria émettent cinq recommandations afin d’éviter les conflits d’intérêts entre les opérateurs, d’éviter de voir s’affronter les Etats (qui cherchent à économiser l’électricité) et les entreprises privées (qui cherchent à maximiser leurs profits), d’éviter également que des détenteurs de brevets ne se servent sur la bête, et, in fine, de réguler le “complexe système sociotechnique” qui voit le jour et qui associe, dans un “réseau intelligent“, producteurs, fournisseurs et distributeurs d’ ! ;électricité, régulateurs, vendeurs, sous-traitants, et leurs clients :

  • les données devraient appartenir aux clients qui, seraient tenus de partager avec les opérateurs celles qui leur permettront d’effectuer leurs missions de régulation de la consommation, et de facturation, dans les limites du respect de la vie privée des utilisateurs ;
  • plutôt qu’un système centralisé de collecte des données, il faudrait privilégier un cadre d’échange et d’interopérabilité des données basés
  • les distributeurs devraient être tenus de nettoyer les données ;
  • l’audit de la consommation énergétique d’un client ne devrait pouvoir être effectué que par le distributeur d’électricité -et ledit client ;
  • plutôt que d’espérer pouvoir couper le courant à tels ou tels foyers, et afin d’éviter les risques posés par la centralisation des données, seules les compagnies énergétiques devraient être habilitées à moduler la consommation de leurs clients ;
  • au vu de sa complexité, et des enjeux politiques et économiques associés, le “réseau intelligent” devrait être placé sous la férule d’une autorité indépendante à même de défendre les intérêts des consommateurs et d’assurer l’intégrité et la sécurité du système.

Ces questions sont d’autant plus d’actualité que l’on commence aussi à voir apparaître de véritables mouvements d’opposition à ces compteurs “intelligents“, qui dénoncent tout à trac leur impact environnemental et sanitaire, les effets en terme d’ondes électromagnétiques et de radiofréquence, l’augmentation du prix de l’électricité, le gaspillage d’argent public, la façon non-démocratique avec laquelle ils sont déployés, cette intrusion de technologies de contrôle et de surveillance dans nos logis… En attendant de savoir comment les autorités, ainsi que les opérateurs, répondront à toutes ces questions, le compte à rebours a commenc& ! eacute ;.

Jean-Marc Manach

Lien permanent et réaction en ligne : http://www.internetactu.net/2010/09/14/les-compteurs-intelligents-des-bombes-a-retardement/

. Quelques conseils pour se lancer dans la biotechnologie de garage
Dans Articles, Education et formation, Innovation, RD, Usages, eDémocratie, bidouillabilité, biotechnologies, craftware, do it yourself, fablab, hybride, tangible, par Rémi Sussan, le 15/09/10, Aucun commentaire, 384 lectures, Impression.

Alors cette do it yourself biotechnology, c’est de la science-fiction ou pas ? En fait, c’est un peu entre les deux. Même s’il est difficile aujourd’hui d’imaginer équiper toutes les salles de bains de systèmes d’analyse d’ADN, il existe déjà certains aficionados qui cherchent à créer des outils d’analyse biologiques personnels accessibles à tous. Cet été, deux blogs, Letters et Singularity Hub, ont apporté leur lumières sur le sujet.

Cathal Garvey, dans son blog Letters détaille toutes les difficultés de la constitution d’un laboratoire personnel. Loin de se concentrer sur les domaines les plus “pointus” de la biotechnologie, il s’attarde sur des aspects tout aussi importants, mais moins hi-tech, comme le problème de la stérilisation, phase préparatoire indispensable au travail du biologiste. C’est tout bête, mais il faut travailler dans un milieu parfaitement propre. Le danger n’est pas tant de répandre votre virus Ebola dans le voisinage à la suite d’une mauvaise manip (ça c’est pour plus tard), mais plutôt de contaminer vos précieuses cultures avec les bactéries du monde environnant, ruinant ainsi tout votre travail.

Comment équiper son garage ?
L’outil utilisé dans les labos pour aseptiser le matériel se nomme un autoclave, qui opère une stérilisation par l’immersion dans un bain de vapeur. Il est douteux, explique Garvey, qu’on puisse fabriquer un jour un autoclave à bas prix pour les amateurs. Mais en a-t-on vraiment besoin ? En fait, l’autoclave n’est fondamentalement rien d’autre qu’une… cocotte minute, en beaucoup plus gros, et cet ustensile de cuisine peut très bien suffire à un non-professionnel : l’autoclave ne deviendrait nécessaire, selon Garvey, que lors d’une stérilisation d’une quantité massive de récipients, ou si les outils à nettoyer sont trop gros.

Ensuite, il faut garder l’endroit stérile. On peut utiliser une une“hotte de ventilation laminaire” qui soufflera de l’air frais dans le lab et évitera ainsi l’accumulation d’impuretés dans l’air. Les amateurs de mycologie en fabriquent déjà pour préserver leurs cultures.

Garvey conseille aussi l’usage de lampes à ultraviolet, de filtres à air, et bien sûr de vêtements dédiés.

Autre exemple de “bricolage” proposé par Garvey : en théorie, un bon labo devrait aussi disposer d’un “incubateur”, susceptible de maintenir les microorganismes à une température donnée, ce qui n’existe pas en matériel amateur. Mais, toujours selon Garvey, les bactéries étudiées en dyibio ne seront pas de la catégorie qui nécessite le maintien à une stricte température. On pourra se contenter d’un aquarium pour maintenir une certaine chaleur, du moins pour les créatures qui en ont besoin.

Garvey donne ainsi une multitude de conseils de bon sens, susceptible d’aider le biohacker en herbe à résoudre la plupart des problèmes qui se posent à lui. Mais tôt ou tard, il faut entrer dans le vif du sujet, et aborder la question de l’achat du matériel “de pointe”.

Vers un marché grand public ?
Premier instrument fondamental, un “thermocycleur” pour effectuer la PCR (réaction en chaine par polymérase). Cette technique qui permet d’amplifier l’ADN (autrement dit, produire beaucoup d’ADN du même type à partir d’une petite quantité) demande une espèce de four capable de faire varier les températures de manière très précise. Dans un précédent article, j’ai indiqué que certains n’hésitaient pas à bricoler des thermocycleurs à bas prix. Mais on peut aimer la biologie sans être un as du tournevis et la diybio ne démarrera vraiment que lorsqu’il ! existera des versions d’entrée de gamme de ces outils, qu’on pourra aisément se procurer, ou au moins fabriquer facilement à l’aide de kits.

Ceux-ci arrivent. Plusieurs produits sont en train de voir le jour. Le premier, OpenPcr est basé autour d’un Arduino, et devrait couter dans les 400 $, au lieu de plusieurs milliers. Un autre groupe, Otyp, qui s’adresse plutôt aux écoles, propose aussi sa version dans les mêmes prix.

Lava Amp, développé entre autres par Guido Nunez-Mujica et Joseph Jackson (l’un des leaders du mouvement “open science”) avec la participation notable de Rob Carlson, créateur de la fameuse“courbe de Carlson”, possède la caractéristique de tenir dans une poche ! Selon ses créateurs, l’intérêt de ce produit tient à ce qu’il pourrait aisément être utilisé dans des pays en voie de d&eacu ! te ;veloppement en vue de tester la qualité de la nourriture ou la présence de maladies infectieuses.

Autre élément important, le matériel d’électrophorèse, qui permet de trier les différents brins d’ADN selon leur taille. Ici encore, on a aujourd’hui un produit à prix modique, la “Pearl Box Gel”, capable de remplir ce rôle. Selon Singularity Hub, “L’idée de concevoir une boite à gel d’électrophorèse a tout d’abord été discutée sur le wiki d’OpenWetWare. (…). La Pearl Gel Box a de la valeur en elle-même, mais ce qui est le plus impressionnant, c’est que des amateurs et des scientifiques professionnels se sont réunis dans un forum public, ont dé ! cidé de quels outils il avaient besoin, et qu’ensuite quelqu’un a pris l’initiative de fabriquer ces outils. Un tel processus est exemplaire de la vitesse de réaction qui rend si attractive l’idée d’une communauté scientifique construite autour de l’internet.”

Pour l’auteur de “Letters” : “Voici l’exemple d’un produit de qualité supérieure créé par la communauté, car je n’ai jamais vu d’offre semblable en provenance de l’industrie.”

De quoi le bioFabLab est-il le symptôme ?
Mais le vrai problème nous rappelle Singularity Hub, n’est pas dans le matériel. Elle est dans lewetware (néologisme formé à partir du mot wet (humide) et ware (marchandise) que l’on trouve danshardware (matériel) et software (logiciel) et qui sert à désigner des composants vivants), les composants biologiques qui sont beaucoup plus chers, et plutôt difficiles à trouver.

Manquent tout d’abord les produits chimiques nécessaires aux réactions : ainsi, toujours d’après Singularity Hub, “le kit éducatif d’Otyp coute environ 300$ en plus du matériel – cette somme couvrant uniquement les produits chimiques, les échantillons biologiques et le matériel éducatif. Et les expérimentations menées avec le lab Otyp sont vraiment très basiques : comme ils le disent eux-mêmes, c’est l’équivalent biologique de “hello world” en informatique”.

De son côté, Garvey se plaint de difficultés à se procurer même le solvant le moins dangereux et le plus important : l’éthanol pur. “Et cela parce que (surprise surprise) il y a de nombreux idiots qui se saouleraient immédiatement à mort s’ils pouvaient mettre la main sur de l’éthanol pur. Surtout là où j’habite” (Garvey vit à Cork, en Irlande ; mais la législation ne semble guère plus tolérante en France).

En plus des produits de base, il est nécessaire de se procurer des organismes vivants sur lesquels travailler. Si on peut en trouver aisément dans son environnement quotidien, il est plus dur de travailler avec des organismes plus rares, susceptibles de posséder des caractéristiques nécessaires à certaines recherches avancées.

Une situation qui ne risque pas de changer de sitôt, explique Singularity Hub, car la raison est plus politique que technique : les autorités sont très inquiètes pour la sécurité.

Pourtant, “bien que les biologistes amateurs se révèlent bien plus intéressés et concernés par la sécurité que la plupart des gens ne le reconnaissent, les agences de régulation en demandent toujours plus, et les deux groupes collaborent pour résoudre le problème. Peu importe les bonnes intentions de la communauté, l’idée que des gens puissent se livrer indépendamment à la biotechnologie (même pour s’amuser et à un niveau élémentaire) ne plait guère aux pouvoirs en place”.

Pour Singularity Hub, la solution pourrait donc consister à créer des hackerspaces, des laboratoires de fabrication des lieux où l’on pourrait pratiquer de manière tout à fait officielle la diybio, avec une attention particulière portée au respect des protocoles, à la sécurité, dotés d’assurances, etc. C’est peut être moins romantique que la vision du biohacker fonçant toutes voiles dehors vers les territoires inconnus de la biotechnologie, au mépris des règles et des autorités, le drapeau noir flottant sur l’autoclave, mais cela rassurerait la société, et permettrait aux amateurs d’accéder plus facilement, à un prix raisonnable, a ! ux composants qui leur manquent.

C’est précisément ce qu’entreprend aujourd’hui Biocurious, un “biofablab” situé en Californie, qui cherche encore toutefois les financements pour se développer. Mais bien sûr Biocurious, c’est loin. Pourra-t-on espérer bientôt la naissance de clones de Biocurious en France et en Europe ?

Comme leurs modèles américains, il faudra qu’ils parviennent à lever les nombreuses limitations techniques, financières ou politiques qui s’annoncent sur la diybio. Plutôt que cristalliser les dangers, les biofablabs peuvent certainement contribuer à mieux les prévenir. Ils peuvent peut-être aussi s’insérer dans des processus humanitaires, en permettant par exemple une production de médicaments à bas prix. Et pourquoi pas, comme c’est déjà le cas avec l’informatique et même avec l’astronomie, ne pas imaginer qu’un jour les amateurs puissent contribuer de façon significative aux progrès de la biologie ?

Mais surtout, comme le hacking informatique avant lui, le biohacking abolit la frontière entre recherche, loisir et éducation, cessant de faire de nous les spectateurs passifs des développements technologiques en cours. Le siècle qui commence sera sans doute celui du vivant : biologie synthétique, génomique personnelle, géoingénierie, neurosciences appliquées… autant de mots magiques qui suscitent espoirs ou frayeurs irraisonnées, et sur lequel il est bien difficile d’émettre un avis d’honnête homme lorsque les seules connaissances que nous en avons nous viennent des années de collège (curieusement, la salle de SVT, avec ses “paillasses” et la blouse blanche obligatoire, revient encore aujourd’hui dans mes cauchemars). Comment évaluer la signification et les conséquences des travaux ! d’un Craig Venter, par exemple, si on ne comprend pas vraiment ce qu’il a fait ?

Mais au delà même de la technologie, ce sont les notions issues de la biologie qui envahissent aujourd’hui l’ensemble de notre compréhension du monde : complexité, chaos, émergence, réseaux en petit mondes, sélection, symbiose… Il serait naïf de croire qu’une telle révolution conceptuelle peut s’accomplir de manière purement discursive, loin de toute pratique. Ils nous faut “mettre la main à la pâte”. Dans les années 90, au MIT, Mitchel Resnick avait créé le langage de programmationStarlogo parce qu’il avait remarqué que les gens, même les spécialistes, avaient des difficultés à saisir le comportement des systèmes émergents, d ! écentralisés, propres aux monde du vivant, justement. Il leur fallait “toucher” le problème en le “fabriquant”. Mais c’était encore à l’ère de l’électronique, avant le décodage du génome humain, avant la biologie synthétique… Le biohacking ne propose pas autre chose que d’explorer ces concepts avec les doigts, comme nous avons exploré l’informatique avec des lignes de code.

Rémi Sussan

Posté le 18 septembre 2010

©© a-brest, article sous licence creative common info