nanotechnologies biotechnologies virus robots

Virus artificiels et nanomachines : vers un chaos croissant (2/2)

« Plusieurs pays développent des nanoarmes. Ces dernières pourraient être utilisées pour lancer des attaques à l’aide de bombes nucléaires miniatures et de robots-insectes mortels.

Bien qu’elles relèvent encore aujourd’hui de la science-fiction, selon un expert les avancées des nanotechnologies dans les années à venir en feront une menace plus importante pour l’humanité que les armes nucléaires conventionnelles. Les États-Unis, la Russie et la Chine investiraient des milliards de dollars dans la recherche sur les nanoarmes. D’après Louis Del Monte, physicien et prospectiviste auteur de Nanoweapons: A Growing Threat To Humanity (« Nanoarmes : une menace croissante pour l’humanité ») :

“Les nanorobots sont la préoccupation principale. Ils ont le potentiel pour devenir des armes de destruction massive et pourraient conduire à l’anéantissement de l’espèce humaine[1].” »

– Jeff Daniels, article paru sur le média économique américain CNBC, 2017

Nous avons reproduit plusieurs passages du livre Notre dernier siècle ? (2004) du célèbre astrophysicien britannique Martin Rees. C’est la seconde partie de cette sélection, la première est à consulter ici.

Image : en 2021, des scientifiques chinois sont parvenus, à l’aide d’imprimantes 3D, à créer des structures d’hydrogel à la forme de poisson ou de crabe. Le premier est capable d’avaler des molécules, le second de les tenir dans sa pince afin de les libérer à l’endroit souhaité. Ces nanomachines sont guidées pour le moment à l’aide de champs magnétiques jusqu’à leur cible. Comme d’habitude, la technocratie nous vend la chose comme un Progrès majeur pour la médecine, car cette innovation permettrait de cibler précisément les tumeurs. Évidemment, cette innovation médicale, comme toutes les autres avant elles, n’éradiquera jamais le cancer et servira avant tout à engraisser les entrepreneurs-scientifiques qui les développent. Il est tout aussi évident que les applications militaires des micro-robots sont nombreuses.

Des virus artificiels ?

Toutes les épidémies d’avant l’an 2000 (exceptée, peut-être, celle de la maladie du charbon survenue en Russie en 1979) étaient le fait d’agents pathogènes naturels. Aujourd’hui, les progrès en matière de biotechnologies soulèvent d’autres craintes. Selon une étude menée en juin 2002 par l’académie américaine des sciences, « quelques spécialistes ayant accès à un laboratoire pourraient fabriquer à moindre prix toute une variété d’armes biologiques mortelles susceptibles de menacer sérieusement la population américaine. Ces individus pourraient en outre créer ces agents biologiques à l’aide d’un équipement disponible dans le commerce, c’est-à-dire dont on se sert pour fabriquer des produits chimiques, pharmaceutiques, des aliments ou de la bière, et qui serait donc tout à fait anodin. Le décryptage de la séquence du génome humain et l’élucidation complète de nombreux génomes pathogènes … font que la science peut être utilisée pour créer de nouveaux agents de destruction massive. »

Si ce rapport souligne le « bon côté » des nouvelles technologies – elles permettent d’identifier l’apparition d’un agent pathogène et d’y réagir plus rapidement –, il n’en est pas moins préoccupant. Car il admet, même si l’on soupçonne actuellement plutôt des groupes terroristes, qu’un individu « isolé » comme il en existe partout, sachant procéder à des manipulations génétiques et cultiver des micro-organismes, pourrait à lui seul déclencher une épidémie aux conséquences catastrophiques. En 2002, les autorités américaines ont approuvé une augmentation considérable du budget destiné à la défense contre les attaques biologiques ; la conséquence malheureuse de cette mesure est que le savoir-faire dans ce domaine va devenir accessible au plus grand nombre. Selon George Poste, biologiste britannique et conseiller officiel travaillant à présent aux Etat-Unis, « le programme « Biotechnology 101 » fait de plus en plus partie du cursus universitaire un peu partout dans le monde ; à supposer que [Unabomber] ait été étudiant dans les années 1990, il serait intéressant de se demander si, au lieu de se servir de bombes, il n’aurait pas choisi de déposer négligemment tel objet dans une usine de hamburgers ».

En juin 2002, Eckard Wimmer et ses collègues de l’Université de New York ont annoncé avoir mis au point un virus de la poliomyélite à partir de l’ADN et d’un programme génétique obtenu sur Internet. Ce virus artificiel présente peu de risques dans la mesure où nous sommes presque tous vaccinés contre la polio, mais il ne serait pas bien compliqué d’en fabriquer des variantes infectieuses, voire mortelles. Les experts savaient depuis longtemps que cette synthèse était plausible, et certains ont reproché à Wimmer de s’être livré à une expérience inutile pour attirer l’attention. Mais pour ce chercheur, la découverte que les virus peuvent être fabriqués aussi facilement « fait froid dans le dos ». Les virus comme la variole, dont les génomes sont plus complexes que celui de la polio, sont techniquement plus difficiles à reproduire ; en outre, on ne pourrait recréer celui de la variole qu’en y ajoutant les enzymes de reproduction provenant d’autres virus de cette maladie. Des virus plus simples mais eux aussi mortels – comme le VIH et l’Ebola, par exemple – pourraient néanmoins être créés dès aujourd’hui en réunissant des chromosomes de gènes individuels, comme l’a fait Wimmer.

D’ici quelques années, les projets génétiques de très nombreux virus, y compris ceux d’animaux ou de plantes, seront archivés dans les bases de données des laboratoires et les chercheurs pourront se les procurer sur Internet. Le projet génétique du virus Ebola, par exemple, est déjà disponible, et des milliers de personnes sont en mesure de le fabriquer en utilisant des fibres d’ADN disponibles dans le commerce. Dans les années 1990, des adeptes de la secte Aum Shinrikyo ont essayé de retrouver le virus Ebola à l’état naturel en Afrique – sans succès, car il est heureusement rare, mais ils y parviendraient plus facilement aujourd’hui dans un laboratoire personnel. Les ordinateurs personnels et Internet ont en effet ouvert d’énormes perspectives aux apprentis savants. Ceci est un événement de taille mille fois bienvenu dans un domaine comme l’astronomie, mais les motifs d’inquiétude demeurent, face aux moyens dont dispose actuellement une communauté bien informée de biologistes amateurs.

La création de virus de synthèse est une technologie florissante, qui permet à la médecine de mieux appréhender le système immunitaire humain, mais elle facilite aussi les choses à ceux dont le but est de supprimer cette immunité. Une série de virus de synthèse dépourvus d’antidote et contre lesquels on ne pourrait être immunisé pourrait avoir des conséquences planétaires encore plus dévastatrices que celles du SIDA actuellement en Afrique, où il fait reculer des décennies de progrès économique – un équivalent de la variole sans vaccin, par exemple, ou bien un virus à propagation plus rapide que la variole, ou une variante du SIDA transmissible comme la grippe, ou encore une version du virus Ebola, dont la période d’incubation serait plus longue. (Les conséquences de cette horrible maladie contagieuse sont généralement limitées car elle agit très vite, ses victimes succombant par rongement des chairs sans avoir le temps d’infecter leur entourage, contrairement au SIDA, dont l’incubation lente facilite la transmission.)

Si les nouveaux virus créés ne sont pas accompagnés des vaccins correspondants, nous pourrions devenir aussi vulnérables que les Indiens d’Amérique décimés par les maladies importées par les pionniers européens contre lesquelles ils n’étaient pas immunisés.

Il se peut aussi que les virus artificiels « bousculent l’ordre des choses » et entraînent des changements plus radicaux que ceux de la mutation naturelle. Du fait de celle-ci, il existe déjà des bactéries non réceptives aux antibiotiques – certains services hospitaliers sont infestés de « microbes » qui résistent même à l’antibiotique de dernier recours qu’est la Vancomycine – mais on peut cultiver d’autres souches de ce type. Tout comme on pourrait inventer de nouveaux organismes dont le rôle serait d’attaquer les plantes et même les substances inorganiques.

Et peut-être verrons-nous sous peu l’apparition de nouveaux types de microbes synthétiques génétiquement conçus. Craig Venter, ancien directeur général de Celera, société qui a séquencé le génome humain, a déjà annoncé qu’il comptait créer de nouveaux microbes susceptibles de répondre à nos problèmes d’énergie et de réchauffement de la Terre : certains fragmenteraient l’eau en oxygène et en hydrogène (pour « l’économie à l’hydrogène »), d’autres se nourriraient du dioxyde de carbone de l’atmosphère (et ce faisant, combattraient l’effet de serre) et le convertiraient en produits chimiques organiques tels que ceux à base de pétrole et de gaz existant actuellement. La technique de Venter consiste, entre autres, à fabriquer un chromosome artificiel à partir d’environ cinq cents gènes et à l’insérer dans un microbe existant dont le génome a été détruit par radiation. Si cette technique réussissait, elle permettrait d’envisager la création de nouvelles formes de vies se nourrissant d’autres matériaux présents dans l’environnement. Par exemple, on pourrait créer des champignons qui ingéreraient le plastique de polyuréthane et le détruiraient. Les machines elles-mêmes ne seraient pas à l’abri : des bactéries spécialement conçues pour transformer le pétrole en un matériau cristallin pourraient ainsi provoquer des pannes.

Erreurs expérimentales

Un événement récemment advenu en Australie illustre de façon inquiétante l’accroissement des risques liés aux expériences en laboratoire, davantage dus aux erreurs et aux aléas qu’à la malveillance[2]. Ron Jackson travaillait au centre de recherche de la coopérative de contrôle des animaux à Canberra, un laboratoire d’Etat dont la mission principale est d’améliorer les techniques de dératisation. Avec son collègue lan Ramshaw, il était en quête de nouveaux moyens de réduire les populations de souris, leur idée étant de modifier le virus de la variole de la souris pour en faire un contraceptif infectieux et stériliser ces rongeurs. Au cours de leurs expérimentations, début 2001, ils créèrent par inadvertance une nouvelle souche de variole très virulente et toutes les souris du laboratoire périrent : les chercheurs avaient ajouté un gène à la protéine d’interleukine-4 qui avait accru la production d’anticorps et supprimé le système immunitaire des animaux ; même ceux qui avaient été vaccinés contre la variole étaient donc également morts. A supposer que les deux hommes aient travaillé sur le virus de la variole humaine, auraient-ils pu le modifier lui aussi et le rendre encore plus virulent, rendant ainsi le vaccin inefficace ? Comme le dit Richard Preston, « seul le sens des responsabilités entre biologistes empêche les humains de créer un supervirus ».

Ces expériences en laboratoire, susceptibles de créer involontairement des agents pathogènes plus dangereux que prévu et peut-être plus virulents que tous ceux ayant jamais existé à l’état naturel, constituent le type de dangers auxquels les scientifiques vont être confrontés – et qu’ils devront essayer de minimiser – dans d’autres secteurs de recherche, dont la nanotechnologie (et même la physique fondamentale). La nanotechnologie promet beaucoup à long terme, mais ses inconvénients pourraient s’avérer plus fâcheux que n’importe quelle erreur biologique. On peut imaginer scénario encore improbable – qu’il soit possible de fabriquer des nanomachines capables, si elles étaient livrées à elles-mêmes, de se reproduire de façon exponentielle jusqu’à ce qu’elles « meurent de faim ». Si leur consommation était très sélective, ces machines remplaceraient utilement les usines chimiques, comme le feraient peut-être les « virus de synthèse ». Mais les choses se gâteraient si ces machines étaient conçues pour être plus omnivores qu’une bactérie et même capables d’avaler des matériaux organiques. Grâce à un métabolisme efficace et à l’énergie solaire, elles proliféreraient sans contrôle et n’atteindraient pas la limite malthusienne avant d’avoir ingéré toute forme de vie.

Eric Drexler a appelé cette cascade d’événements « le scénario grey goo ».

« Des “plantes” à “feuilles” guère plus efficaces que nos capteurs solaires actuels pourraient vaincre les plantes réelles et envahir la biosphère d’un feuillage non comestible. Des “bactéries” omnivores résistantes pourraient vaincre les vraies bactéries et se disséminer dans l’air comme du pollen, se reproduire rapidement et, en l’espace de quelques jours, réduire à néant la biosphère. Des “réplicateurs” dangereux pourraient aisément s’avérer trop petits et trop résistants et se reproduire trop rapidement pour être stoppés – en tout cas si nous ne prenons pas les devants. Nous avons déjà bien du mal à maîtriser les virus et les drosophiles. »

Schéma du scénario « grey goo », exression signifiant littéralement « glu grise ». 1) La première nanomachine (assembleur) est créée par conversion de la matière organique en d’autres matériaux. 2) Le second assembleur est programmé pour se répliquer à l’identique. 3) Chaque nouvelle série suit le même programme d’instructions consistant à consommer de la matière organique et se répliquer. 4) La multiplication des nanomachines devient exponentielle et un nombre toujours plus grand est créé. 5) Au final, les nanomachines finiraient par consommer la totalité de la matière organique sur Terre, et il ne resterait alors plus que des nanomachines.

Le peuplement soudain né de ces « réplicateurs biovoraces » pourrait ensuite dévaster un continent en quelques jours. Ce scénario-catastrophe est tout à fait théorique, mais il laisse entendre que le développement technologique de machines auto-reproductrices pourrait éventuellement entraîner un désastre à propagation rapide. Faut-il prendre le danger du « scénario grey goo » au sérieux, même en étendant nos prévisions sur un siècle ? Une propagation galopante de ces réplicateurs ne serait scientifiquement pas impossible mais ceci n’en fait pas un risque sérieux. Une autre technologie futuriste – une fusée spatiale dont le combustible serait de l’anti-matière, et dont la vitesse serait à 90 % celle de la lumière – est, elle aussi, scientifiquement possible, mais nous sommes loin d’en avoir les moyens techniques, et nous le savons. Peut-être ces reproducteurs hyper efficaces se nourrissant de biosphère sont-ils aussi peu réalistes qu’un « vaisseau stellaire », autre exemple conforme aux lois scientifiques et donc théoriquement possible mais loin d’être probable ? Faut-il donc ne voir dans les idées de Drexler et consorts que de la science-fiction destinée à faire peur ? Les virus et les bactéries sont eux-mêmes des nanomachines superbement conçues, et un mangeur omnivore capable de croître n’importe où gagnerait la course à la sélection naturelle. Les critiques de Drexler pourraient donc s’étonner que cette catastrophe d’organismes destructeurs n’ait pas surgi par sélection naturelle il y a longtemps. Pourquoi la biosphère serait-elle uniquement menacée par des créatures nées d’une intelligence humaine dévoyée au lieu de s’être auto-détruite « naturellement » ? Une des réponses à cet argument est que l’être humain peut concevoir des mutations dont la nature est incapable : les généticiens peuvent rendre des singes ou du blé fluorescents par transfert d’un gène de méduse, alors que la sélection naturelle ne peut ainsi sauter les barrières des espèces. De même, la nanotechnologie parvient, en l’espace de quelques décennies, à ce à quoi la nature ne parvient jamais.

Après 2020, les manipulations avancées de virus et de cellules deviendront des lieux communs et les réseaux informatiques intégrés auront pris en main de nombreux aspects de nos vies. Toutes les prévisions pour le milieu du siècle relèvent du domaine des conjectures et des « scénarios ». D’ici là, les nanorobots pourraient être devenus réalité ; de fait, nous serons peut-être si nombreux à tenter de fabriquer des nanoréplicateurs qu’une seule tentative pourrait déclencher une catastrophe. Il est plus facile d’imaginer des menaces extrêmes que des antidotes efficaces.

Ces inquiétudes liées à un avenir apparemment lointain ne doivent pas nous faire oublier les divers aléas dont il est question dans ce chapitre, car ils sont déjà présents et en expansion. Ils devraient nous inspirer au moins autant de « pessimisme » que celui des premiers savants atomistes il y a un siècle face à la menace nucléaire. La gravité d’une menace tient à sa magnitude, multipliée par ses probabilités : c’est ainsi que nous évaluons nos inquiétudes vis-à-vis des ouragans, des impacts d’astéroïdes et des épidémies. Si nous appliquons ce procédé à tous les risques futurs liés aux activités humaines, nous pouvons nous attendre à ce que les aiguilles de l’horloge de la fin des temps se rapprochent encore de minuit.

Martin Rees


  1. https://www.cnbc.com/2017/03/17/mini-nukes-and-inspect-bot-weapons-being-primed-for-future-warfare.html

  2. Ajoutons ici que les accidents de laboratoire sont monnaie courante, autrement dit ce n’est qu’une question de temps avant qu’un virus au potentiel dévastateur sorte d’un laboratoire. Selon la biologiste moléculaire Alina Chan, « les accidents de laboratoire surviennent à une fréquence surprenante. Beaucoup de gens n’en entendent pas parler parce qu’ils ne sont pas rendus publics. » D’après cet article daté de mars 2023 paru dans le journal Le Monde, le directeur du FBI estime par ailleurs « la pandémie de Covid a pour origine la plus probable un potentiel incident dans un laboratoire de Wuhan ».

    Voir ici : https://www.lemonde.fr/les-decodeurs/article/2023/03/02/origines-du-covid-19-pourquoi-il-faut-rester-prudent_6163852_4355770.html

Retour en haut