Blog
Technocène

Long-termisme : l’autre nom du techno-fanatisme

Par
S.C
08
October
2023
Partagez cet article

  Le long-termisme est une idéologie née du rapprochement entre le transhumanisme et l’altruisme efficace (« un concept de pensée qui consiste à réfléchir à faire le bien de façon la plus rationnelle et efficiente possible[1] » d’après une enquête du journal Le Monde). Portée par des gens influents tels que le philosophe Nick Bostrom, l’astrophysicien Martin Rees ou encore les entrepreneurs milliardaires Peter Thiel et Elon Musk, l’idéologie long-termiste commence à infuser dans les institutions internationales. Nous vous proposons cette traduction d’un long article du philosophe Emile P. Torres paru dans le magazine Aeon en 2022[2]. Ce dernier a durant un temps épousé les idées du long-termisme avant de faire sécession.

  Les points à retenir :

  •   Les long-termistes ont pour objectif l’émancipation de leur matrice biologique et rêvent de voir l’humanité « téléchargée » dans des simulations informatiques envoyées dans l’espace
  •   Les long-termistes estiment que la densité démographique stimule le progrès technologique, ils veulent donc que la population humaine continue de croître sur Terre
  •   Pour les long-termistes, l’humanité – ou les robots qui la remplaceront – doit absolument quitter la Terre avant que la chaleur du Soleil la rende inhabitable (ce qui est prévu dans 1 à 3 milliards d’années…)
  •   Les long-termistes estiment que tout doit être fait sur le plan politique pour empêcher une diminution de la puissance technologique de la civilisation industrielle
  •   Le long-termisme sert à justifier la continuation et l’accélération du progrès technologique sans considération aucune pour les désastres écologiques et humains qu’il provoque déjà et qu’il ne manquera pas de provoquer à l’avenir
  •   Pour les partisans du long-termisme, les génocides, les guerres de masse, le colonialisme, la dévastation de la biosphère, les accidents industriels, l’éradication des espèces et le changement climatique ne pèsent rien moralement face à leur impératif moral de la quête de puissance et de gloire
  •  Le philosophe Emile P. Torres (auteur de l’article) estime de son côté que seuls le ralentissement ou l’arrêt du progrès technologique peuvent empêcher un désastre planétaire de se produire dans les décennies à venir.

Image d'illustration : au centre le milliardaire Elon Musk, à gauche Toby Ord (en haut) et Nick Beckstead (en bas), à droite Nick Bostrom (en haut) et William MacAskill (en bas). Ils ont tous un rôle central dans la diffusion des idées délirantes de la philosophie long-termiste.

<hr/>

Contre le long-termisme (par Emile P. Torres)

 Il est de plus en plus admis que la « fin des temps » approche. Les prédictions inquiétantes de catastrophes à venir sont partout. Notre fil d’actualité sur les réseaux sociaux est plein de vidéos montrant des feux de forêt géants, des inondations dévastatrices et des hôpitaux débordés par le nombre de patients atteints du COVID-19. Les militants d’Extinction Rebellion bloquent des routes dans une tentative désespérée de sauver le monde. Une enquête a même révélé que plus de la moitié des personnes interrogées sur l'avenir de l'humanité « évaluaient à 50 % ou plus le risque que notre mode de vie prenne fin au cours des 100 prochaines années[3] ».

 Le « mythe de l’apocalypse », soit la croyance en l'imminence de la fin des temps [qui se présente désormais comme une science avec la collapsologie, NdT], n'est bien sûr pas nouveau. Depuis des millénaires, des gens annoncent que la fin est proche. Et de nombreux spécialistes du Nouveau Testament pensent que Jésus lui-même s'attendait à ce que le monde prenne fin de son vivant. Mais la situation actuelle est fondamentalement différente de celle du passé. Les scénarios « eschatologiques » actuellement débattus ne sont pas fondés sur les révélations de prophètes religieux ou sur des méta-récits séculiers de l'histoire humaine (comme dans le cas du marxisme), mais sur des conclusions scientifiques solides défendues par d'éminents experts dans des domaines tels que la climatologie, l'écologie, l'épidémiologie, etc.

 Nous savons par exemple que le changement climatique constitue une grave menace pour la civilisation. Nous savons que la perte de biodiversité et la sixième extinction de masse pourraient précipiter des changements soudains, irréversibles et catastrophiques dans l'écosystème global. Un conflit thermonucléaire pourrait propager un nuage dissimulant le soleil pendant des années voire des décennies, entraînant l'effondrement de l'agriculture partout dans le monde. Et peu importe que le SRAS-CoV-2 soit sorti d'un laboratoire de Wuhan ou qu'il ait été concocté par la nature (cette dernière hypothèse semble plus probable à l'heure actuelle[4]), la biologie synthétique permettra bientôt à des acteurs malintentionnés [États, groupes ou individus, NdT] de concevoir des agents pathogènes bien plus mortels et contagieux que tout ce que l'évolution darwinienne a pu inventer[5]. Certains philosophes et scientifiques ont également commencé à tirer la sonnette d'alarme au sujet des « menaces émergentes » associées à l’intelligence artificielle, aux nanotechnologies et à la géo-ingénierie[6]. Des menaces tout aussi redoutables.

 Selon un article de Stephen Hawking paru dans le Guardian en 2016, ces considérations ont conduit de nombreux chercheurs à reconnaître que « nous sommes arrivés au moment le plus dangereux du développement de l'humanité ». Lord Martin Rees estime par exemple que la civilisation a une chance sur deux de se maintenir jusqu'en 2100[7]. Noam Chomsky affirme que le risque d'anéantissement est actuellement « sans précédent dans l'histoire d'Homo sapiens[8] ». Et Max Tegmark affirme que « c'est probablement au cours de notre vie [...] que nous allons soit nous autodétruire, soit nous ressaisir ». Conformément à ces sombres déclarations, le Bulletin of the Atomic Scientists a réglé en 2020 son emblématique horloge de l'apocalypse sur 100 secondes avant minuit (minuit signifiant l'apocalypse), soit le chiffre le plus proche depuis la création de l'horloge en 1947[9]. Plus de 11 000 scientifiques du monde entier ont signé en 2020 un article qui affirme « clairement et sans équivoque que la planète Terre est confrontée à une urgence climatique », et que sans « une augmentation considérable des efforts de conservation de notre biosphère [nous risquons] d’endurer des souffrances indicibles en raison de la crise climatique[10] ». Comme l'a résumé la jeune activiste du climat Xiye Bastida dans une interview accordée à Teen Vogue en 2019, l'objectif est de « s'assurer que nous ne sommes pas la dernière génération ». Ce scénario semble désormais tout à fait probable.

 Compte tenu des dangers sans précédent auxquels l'humanité est confrontée aujourd'hui, on pourrait s'attendre à ce que les philosophes fassent couler beaucoup d'encre sur les implications éthiques de notre extinction, ou de scénarios similaires tels que l'effondrement définitif de la civilisation. Dans quelle mesure notre disparition serait-elle moralement mauvaise (ou bonne), et pour quelles raisons ? Serait-il mal d'empêcher les générations futures d'exister ? La valeur des sacrifices, des luttes et des efforts passés dépend-elle du fait que l'humanité continue d'exister aussi longtemps que la Terre – ou plus généralement l'Univers – reste habitable ?

  Malgré cette réalité, le thème de notre extinction n'a retenu l'attention des philosophes que récemment, et il reste encore aujourd'hui en marge des discussions et des débats philosophiques. Dans l'ensemble, les penseurs ont été préoccupés par d'autres questions. Il existe toutefois une exception notable à cette règle. Au cours des deux dernières décennies, un petit groupe de théoriciens principalement basé à Oxford a travaillé à l’élaboration d'une nouvelle vision morale du monde appelée « long-termisme ». Cette idéologie met l'accent sur la manière dont nos actions affectent le futur de l’univers à très long terme – dans des milliers, des millions, des milliards, voire des trillions d'années. Cette vision trouve son origine dans les travaux de Nick Bostrom, fondateur en 2005 d’un institut au nom grandiose, le Future of Humanity Institute (FHI). L’autre père du long-termisme est Nick Beckstead, associé de recherche au FHI et responsable de programme pour la fondation Open Philanthropy[11]. C'est le philosophe Toby Ord, auteur de The Precipice : Existential Risk and the Future of Humanity (2020), qui a le plus pris position publiquement en faveur de cette vision du futur. Le long-termisme est le principal axe de recherche du Global Priorities Institute (GPI), une organisation liée au FHI et dirigée par Hilary Greaves. C’est aussi un sujet d’étude central pour la Forethought Foundation dirigée par William MacAskill, celui-ci occupant également des postes au FHI et au GPI. Pour ajouter à l'enchevêtrement de titres, de noms, d'instituts et d'acronymes, le long-termisme est l'une des principales « causes » du mouvement dit de l'altruisme efficace (AE). Ce mouvement a été lancé par Toby Ord vers 2011 et se targue aujourd'hui d'avoir un montant hallucinant de promesses de dons qui s’élève à 46 milliards de dollars[12].

 Il est difficile d'exagérer l'influence de l’idéologie long-termiste. En 1845, Karl Marx déclarait que le but de la philosophie n'était pas simplement d'interpréter le monde mais de le changer. C'est exactement ce à quoi travaillent les adeptes du long-termisme, et ils obtiennent un succès extraordinaire. Elon Musk, qui cite et approuve les travaux de Bostrom, a fait don de 1,5 million de dollars au FHI par l'intermédiaire de son organisation sœur au nom encore plus grandiose, le Future of Life Institute (FLI). Cette organisation a été cofondée par l'entrepreneur de la Tech multimillionnaire Jaan Tallinn, comme je l’ai remarqué récemment[13]. Ce dernier ne croit pas que le changement climatique représente un « risque existentiel » pour l'humanité en raison de son adhésion à l'idéologie long-termiste.

 Entre-temps, le milliardaire libertarien et partisan de Donald Trump Peter Thiel, qui a déjà prononcé le discours d'ouverture d'une conférence sur l’altruisme efficace, a fait don d'importantes sommes d'argent au Machine Intelligence Research Institute. Sa mission qui consiste à sauver l'humanité des machines superintelligentes est profondément liée aux valeurs long-termistes. D'autres organisations, telles que GPI et la Forethought Foundation, financent des concours de dissertation et des bourses d'études afin d'attirer les jeunes dans la communauté. Et c’est un secret de polichinelle que le Center for Security and Emerging Technologies (CSET) de Washington vise à placer des adeptes du long-termisme à des postes de haut niveau au sein du gouvernement américain afin de façonner la politique nationale. En fait, le CSET a été créé par Jason Matheny, un ancien assistant de recherche de FHI aujourd'hui assistant adjoint du président américain Joe Biden pour les questions de technologie et de sécurité nationale. De son côté, Ord a « conseillé l'Organisation mondiale de la santé, la Banque mondiale, le Forum économique mondial, le National Intelligence Council américain, le bureau du Premier ministre britannique, le Cabinet Office et le Government Office for Science », et il a récemment contribué à un rapport du Secrétaire général des Nations unies qui mentionne spécifiquement le « long-termisme[14] ». Ce qui est surprenant pour un philosophe.

 En dehors des universités les plus élitistes et de la Silicon Valley, le long-termisme est probablement l'une des idéologies les plus influentes et en même temps la moins connue. Je pense que cela doit changer. En tant qu'ancien adepte du long-termisme ayant publié un livre entier pour sa défense[15], j'en suis venu à considérer cette vision du monde comme étant probablement le système de croyances séculaires le plus dangereux qui existe. Mais pour comprendre la nature de la chose, nous devons d'abord la disséquer en examinant ses caractéristiques anatomiques et physiologiques.

 La première chose à noter est que le long-termisme, tel que proposé par Bostrom et Beckstead, ce n’est pas la même chose que « se soucier du long terme » ou « valoriser le bien-être des générations futures ». Les long-termistes vont bien au-delà. Leur idéologie repose sur une analogie simple – bien qu'imparfaite selon moi – entre les individus et l'humanité dans son ensemble. Pour illustrer cette idée, prenons le cas de Frank Ramsey, un universitaire de l'université de Cambridge largement considéré par ses pairs comme l'un des plus grands esprits de sa génération. « Il partageait des similitudes avec Newton », a dit un jour l’écrivain Lytton Strachey. G E Moore parlait des « aptitudes exceptionnelles » de Ramsey. Et John Maynard Keynes a décrit un article de Ramsey comme « l'une des contributions les plus remarquables à l'économie mathématique jamais réalisée ».

 Mais Ramsey a connu un triste sort. Le 19 janvier 1930, il meurt dans un hôpital londonien à la suite d'une intervention chirurgicale. La cause probable du décès proviendrait d’une infection du foie due à une baignade dans la rivière Cam qui serpente à travers la ville de Cambridge. Ramsey avait seulement 26 ans.

 On pourrait argumenter que cette issue est tragique pour deux raisons distinctes. La première est la plus évidente. Elle a écourté la vie de Ramsey, le privant de tout ce qu'il aurait pu expérimenter s'il avait survécu – la joie et le bonheur, l'amour et l'amitié : tout ce qui fait que la vie vaut la peine d'être vécue. En ce sens, la disparition prématurée de Ramsey a été une tragédie. Mais, en second lieu, sa mort a également privé le monde d'une superstar intellectuelle apparemment destinée à apporter des contributions encore plus extraordinaires à la connaissance humaine. « Le nombre de pistes explorées par Ramsey est remarquable », écrit Sir Partha Dasgupta. Mais combien d'autres pistes aurait-il pu défricher ? « Il est angoissant de penser à la perte subie par votre génération », se lamente Strachey, « une grande lumière s'est éteinte ». Ce qui nous amène à nous demander en quoi l'histoire intellectuelle de l'Occident aurait pu être différente si Ramsey avait vécu plus longtemps. De ce point de vue, bien que la tragédie de la mort de Ramsey soit vraiment terrible, la perte de son immense potentiel à changer le monde rend la seconde tragédie encore plus grave. En d'autres termes, la gravité de sa mort découle principalement – voire essentiellement – de son potentiel gaspillé plutôt que de sa souffrance personnelle.

 Les adeptes du long-termisme transposent ces affirmations et conclusions à l'humanité elle-même. C’est un peu comme si l'humanité était un individu doté de son propre « potentiel » qu’elle pourrait choisir de gaspiller ou d’exploiter au cours de sa « vie ». Ainsi, d'une part, une catastrophe qui réduirait la population humaine à zéro serait tragique en raison de toutes les souffrances qu'elle infligerait aux personnes en vie à ce moment-là. Imaginez l'horreur d’une mort par famine sous un climat glacial et un ciel sombre, quelques années ou décennies après une guerre thermonucléaire. C'est la première tragédie, une tragédie qui touche directement les personnes. Mais il y a selon les adeptes du long-termisme une seconde tragédie infiniment plus grave que la première. Notre extinction signifierait par exemple la fin définitive de ce qui aurait pu être une histoire extrêmement longue et prospère au cours des ~10100 prochaines années (à ce moment-là, la « mort par la chaleur » rendra la vie impossible). Ce faisant, l’extinction détruirait de façon irréversible le « vaste et glorieux » potentiel à long terme de l'humanité. Dans le langage presque religieux de Toby Ord – gâcher un « potentiel » si énorme, compte tenu de la taille de l'Univers et du temps restant avant d'atteindre l'équilibre thermodynamique, ferait de la première tragédie quelque chose de tout à fait dérisoire par rapport à la seconde.

 Cela suggère immédiatement un autre parallèle entre les individus et l'humanité : la mort n'est pas le seul moyen de mal exploiter le potentiel d'une personne. Imaginons que Ramsey ne soit pas mort jeune mais qu'au lieu d'étudier, d'écrire et de publier des articles scientifiques, il ait préféré passer ses journées dans le bar local à jouer au billard et à boire. Même résultat, mode d'échec différent. En appliquant cela à l'humanité, les adeptes du long-termisme diraient qu'il existe des modes d'échec qui pourraient laisser notre potentiel inexploité sans que nous nous éteignions, ce sur quoi je reviendrai plus loin.

 Pour résumer ces idées, l'humanité a un « potentiel » qui lui est propre, qui transcende les potentiels de chaque individu. Ne pas réaliser ce potentiel serait une très mauvaise chose – en fait, comme nous le verrons, cela équivaudrait à une catastrophe morale aux proportions littéralement cosmiques. C'est le dogme central du long-termisme : rien n'est plus important, d'un point de vue éthique, que la réalisation de notre potentiel en tant qu'espèce appartenant à la « vie intelligente terrestre ». Ce dogme est si important que les adeptes du long-termisme ont même inventé les termes effrayants de « risque existentiel » pour toute possibilité de destruction de ce potentiel, et de « catastrophe existentielle » pour tout événement qui détruirait effectivement ce potentiel[16].

 Pourquoi cette idéologie est-elle si dangereuse ? Pour répondre rapidement, on peut dire qu’élever la réalisation du potentiel supposé de l'humanité au-dessus de tout le reste a des chance d’accroître fortement le risque que des personnes réelles – celles qui vivent aujourd'hui et dans un avenir proche – subissent des préjudices extrêmes, voire en meurent. Comme je l'ai noté ailleurs, l'idéologie du long-termisme incite ses adeptes à adopter une attitude insouciante à l'égard du changement climatique. Pourquoi ? Parce que même si le changement climatique entraînait la disparition de nations insulaires, déclenchait des migrations massives et tuait des millions de personnes, il ne compromettrait probablement pas notre potentiel à long terme pour les trillions d'années à venir [un trillion = un milliard de milliards, NdT]. Si l'on adopte une vision cosmique de la situation, même une catastrophe climatique qui diminuerait la population humaine de 75 % au cours des deux prochains millénaires se limiterait dans le grand ordre des choses à un petit incident – l'équivalent d'un homme de 90 ans qui se serait fait un bleu à l'âge de deux ans.

 L'argumentation de Bostrom consiste à dire qu' « une catastrophe non existentielle provoquant l'effondrement de la civilisation globale est, du point de vue de l'humanité dans son ensemble, un revers potentiellement récupérable[17]». Selon lui, ce serait probablement un « massacre gigantesque pour l'homme ». Mais tant que l'humanité rebondit pour réaliser son potentiel, il ne s'agira en fin de compte que d'un « petit faux pas pour l'humanité ». Ailleurs, il écrit que les catastrophes naturelles les plus dévastatrices et les pires atrocités de l'histoire deviennent des trivialités presque imperceptibles lorsqu'elles sont replacées dans l’histoire globale. Se référant aux deux guerres mondiales, au SIDA et à l'accident nucléaire de Tchernobyl, il déclare :

« aussi tragiques que soient ces événements pour les personnes directement touchées, dans le grand ordre des choses [...] même les pires de ces catastrophes ne sont que des vaguelettes à la surface de l’océan de la vie ».

 Cette façon de voir le monde, d'évaluer la gravité du SIDA et de l'Holocauste, implique que les catastrophes futures (non existentielles) de la même ampleur et de la même intensité devraient également être classées comme de « simples vaguelettes ». Si elles ne posent pas de risque existentiel direct, nous ne devrions pas nous en préoccuper outre mesure, même si elles sont tragiques pour les individus. Comme l'a écrit Bostrom en 2003, « les priorités numéro un, deux, trois et quatre devraient ... être de réduire le risque existentiel[18]». Il a réitéré plusieurs années après en affirmant que nous ne devions pas « gaspiller » nos ressources limitées dans des « projets philanthropiques à l'efficacité sous-optimale[19]». Pour lui, la réduction de la pauvreté dans le monde et la réduction de la souffrance animale ne menacent pas notre potentiel à long terme. Et notre potentiel à long terme doit avoir la priorité sur tout le reste.

 Toby Ord se fait l'écho de ce point de vue en affirmant que, parmi tous les problèmes auxquels l'humanité est confrontée, notre « première grande tâche ... est d'atteindre un lieu sûr – un lieu où le risque existentiel est faible et reste faible ». Il appelle cela la « sécurité existentielle ». Ce qui compte avant tout, c'est de faire tout ce qui est nécessaire pour « préserver » et « protéger » notre potentiel en « nous débarrassant du danger immédiat » et en concevant de solides « garde-fous qui protégeront l'humanité contre les dangers à long terme, de sorte que l’échec devienne impossible ». Bien que Toby Ord fasse référence au changement climatique, il affirme également – sur la base d'une méthodologie douteuse – que la probabilité d’une catastrophe existentielle résultant de l’instabilité climatique n'est que de ∼1 sur 1 000. Ce qui d’après Ord est inférieur de deux ordres de grandeur à la probabilité que des machines superintelligentes détruisent l'humanité au cours de ce siècle.

 La chose vraiment remarquable ici, c'est que la préoccupation centrale n'est pas l'effet de la catastrophe climatique sur les gens dans le monde réel (rappelez-vous, dans le grand ordre des choses, il s'agirait selon les termes de Bostrom d'un « petit faux pas pour l'humanité »). Tel que Toby Ord le mentionne dans The Precipice, le problème ici c’est que le changement climatique « pose un risque d'effondrement irrécupérable de la civilisation ou même d'extinction complète de l'humanité » (mais un risque qui reste faible selon les long-termistes). Là encore, les préjudices causés aux populations réelles (en particulier celles du Sud) peuvent être importants en termes absolus, mais comparés à notre « immense » et « glorieux » potentiel à long terme dans le cosmos, ces préjudices ne valent pas grand-chose.

 Mais les implications du long-termisme sont encore plus inquiétantes. Si nos quatre premières priorités sont d'éviter une catastrophe existentielle – c'est-à-dire de réaliser « notre potentiel » – que nous manque-t-il pour atteindre cet objectif ? Prenons l'exemple du philosophe Thomas Nagel sur la façon dont la notion de « bien-être maximal » a été utilisée pour « justifier » certaines atrocités (par exemple durant la guerre). Si la fin « justifie » les moyens, affirme-t-il, et si la fin est considérée comme suffisamment importante (la sécurité nationale par exemple), alors cette notion « peut être utilisée pour soulager la conscience des responsables d'un certain nombre de bébés carbonisés ». Imaginez maintenant ce qui pourrait être « justifié » si le « bien-être maximal » n'est plus la sécurité nationale, mais le potentiel cosmique de la vie intelligente d'origine terrestre au cours des trillions d'années à venir. Au cours de la Seconde Guerre mondiale, 40 millions de civils ont péri. Mais comparez ce nombre aux 1054 personnes ou plus (selon les estimations de Bostrom[20]) qui pourraient voir le jour si nous parvenons à éviter une catastrophe existentielle. Que devrions-nous faire pour « protéger » et « préserver » ce potentiel ? Pour s'assurer que ces personnes non encore nées puissent exister ? Quels sont les moyens qui ne peuvent pas être « justifiés » par cette finalité morale d'importance cosmique ?

 Bostrom lui-même a soutenu que nous devrions sérieusement envisager la mise en place d'un système de surveillance global et invasif. Ce système contrôlerait chaque personne sur la planète en temps réel afin d'amplifier les « capacités de la police préventive » (par exemple pour prévenir les attaques terroristes capables de dévaster la civilisation). Ailleurs, il a écrit que les États devraient recourir à la violence/guerre préventive pour éviter les catastrophes existentielles. Bostrom a également soutenu que sauver des milliards de personnes réelles revient moralement à une diminution tout à fait ridicule du risque existentiel. Selon lui, même s'il y a « seulement 1 % de chances » que 1054 personnes existent dans le futur, « la valeur attendue de la réduction du risque existentiel d'un simple milliardième de milliardième de point de pourcentage vaut 100 milliards de fois plus qu'un milliard de vies humaines ». Un tel fanatisme – un qualificatif revendiqué par certains long-termistes[21] – a conduit un nombre croissant de critiques à s'inquiéter de ce qui pourrait se produire si les dirigeants politiques du monde réel prenaient Bostrom au sérieux. Pour citer le statisticien et mathématicien Olle Häggström, qui – de manière perplexe – a tendance à parler favorablement du long-termisme :

« Je suis extrêmement inquiet à l'idée que [les calculs ci-dessus] puissent être reconnus par les hommes politiques et les décideurs comme un programme politique à prendre au pied de la lettre. Cela rappelle trop le vieil adage « on ne fait pas d’omelette sans casser des œufs » généralement utilisé pour expliquer qu'un petit génocide est une bonne chose s'il s’inscrit dans la création d’une utopie future. Imaginons une situation où le chef de la CIA explique au président américain qu'il dispose de preuves tangibles que, quelque part en Allemagne, un fou travaille sur une arme de destruction massive, qu’il a l'intention de l'utiliser pour anéantir l'humanité, et que ce fou a une chance sur un million d'y parvenir. Ils n'ont pas d'autres informations sur l'identité de ce fou ni sur le lieu où il se trouve. Si le président suit à la lettre la recommandation de Bostrom, et s'il comprend comment faire le calcul, il pourrait conclure que cela vaut la peine de mener une attaque nucléaire à grande échelle sur l'Allemagne pour tuer toute la population du pays. »

 Voici donc quelques raisons qui expliquent pourquoi je trouve le long-termisme profondément dangereux. Mais cette vision du monde pose d'autres problèmes fondamentaux que personne, à ma connaissance, n'a encore signalés par écrit. Il y a par exemple de bonnes raisons de penser que les présupposés du long-termisme sont à l’origine des dangers encourus par l’humanité. En d'autres termes, le long-termisme serait incompatible avec l’accomplissement de la « sécurité existentielle ». Cela signifie que le seul moyen de réduire réellement la probabilité d'extinction ou d'effondrement à l'avenir serait d'abandonner complètement l'idéologie du long-termisme.

 Pour comprendre cet argument, il faut d'abord analyser ce que les adeptes du long-termisme entendent par notre « potentiel à long terme », une expression que j'ai utilisée jusqu'à présent sans la définir. Nous pouvons analyser ce concept en trois composantes principales : le transhumanisme, l'expansionnisme spatial et une vision morale étroitement associée à ce que les philosophes appellent « utilitarisme total ».

 Le premier se réfère à l'idée que nous devrions utiliser des technologies avancées pour remodeler nos corps et nos cerveaux afin de créer une race « supérieure » de posthumains radicalement améliorés (les adeptes du long-termisme placent cette race supérieure dans la catégorie « humanité », ce qui peut prêter à confusion[22]). Bostrom est peut-être le transhumaniste le plus en vue aujourd'hui, mais les adeptes du long-termisme évitent d’employer le terme « transhumanisme », probablement en raison de ses associations négatives. Susan Levin souligne par exemple que le transhumanisme contemporain est la continuation du mouvement eugéniste anglo-américain et des transhumanistes tels que Julian Savulescu[23]. Ce dernier a co-écrit le livre Human Enhancement (2009) avec Bostrom où ils plaident explicitement pour la consommation de produits chimiques « stimulant la moralité » telle que l'ocytocine afin d'éviter une catastrophe existentielle (qu'ils appellent « préjudice ultime »). Comme l'écrit Savulescu avec un collègue, « il est tellement urgent d'améliorer l'humanité sur le plan moral [...] que nous devrions chercher tous les moyens possibles pour y parvenir ». De telles affirmations sont controversées et assez dérangeantes pour beaucoup de personnes. C'est pourquoi les adeptes du long-termisme prennent leurs distances par rapport à ces idées tout en défendant néanmoins leur idéologie.

 Le transhumanisme prétend qu'il existe diverses « façons d'être posthumain » qui sont bien meilleures que notre mode d'être humain actuel. Nous pourrions par exemple nous modifier génétiquement pour contrôler parfaitement nos émotions, ou accéder à Internet par le biais d'implants neuronaux, ou peut-être même transférer nos esprits dans des ordinateurs pour atteindre l'« immortalité numérique ». Toby Ord explore d’autres possibilités dans The Precipice. Imaginez à quel point il serait impressionnant de percevoir le monde par écholocation, comme les chauves-souris et les dauphins, ou par magnétoréception, comme les renards roux et les pigeons voyageurs. Selon Toby Ord, de telles expériences encore inconnues existent dans des esprits beaucoup moins sophistiqués que le nôtre. Il se demande alors : « quelles autres expériences possiblement d'une immense valeur deviendraient accessibles à des esprits bien plus grands ? » L'exploration la plus fantastique de ces possibilités par Bostrom provient de son évocatrice « Letter from Utopia[24]» (2008), qui dépeint un monde techno-utopique peuplé de posthumains superintelligents inondés de tant de « plaisir » que, comme l'écrit le posthumain fictif auteur de la lettre, « nous en saupoudrons notre thé ».

 Quel lien avec le long-termisme ? Selon Bostrom et Ord, échouer à devenir posthumain nous empêcherait de réaliser notre vaste et glorieux potentiel, ce qui serait existentiellement catastrophique. Bostrom estimait en 2012 qu’« un échec définitif à transformer la nature biologique humaine peut constituer en soi une catastrophe existentielle ». De même, Ord affirme que « préserver à jamais l'humanité telle qu'elle existe aujourd'hui pourrait également dilapider notre héritage, en renonçant à la plus grande partie de notre potentiel ».

 La deuxième composante de notre potentiel – l'expansionnisme spatial – renvoie à l'idée que nous devons coloniser autant que possible notre futur cône de lumière, c'est-à-dire la région de l'espace-temps qui nous est théoriquement accessible. Selon les adeptes du long-termisme, notre futur cône de lumière contient une énorme quantité de ressources exploitables, qu'ils appellent notre « dotation cosmique » en néguentropie (ou entropie inverse). La Voie lactée à elle seule, écrit Ord, fait « 150 000 années-lumière de diamètre et comprend plus de 100 milliards d'étoiles, la plupart dotées de leurs propres planètes ». Pour réaliser le potentiel à long terme de l'humanité, poursuit-il, « il suffit que [nous] voyagions un jour vers une étoile proche et que nous y prenions suffisamment pied pour créer une nouvelle société florissante à partir de laquelle nous pourrions nous aventurer plus loin ». En se propageant « seulement six années-lumière à la fois », nos descendants posthumains pourraient rendre « presque toutes les étoiles de notre galaxie ... accessibles » puisque « chaque système stellaire, y compris le nôtre, n'aurait besoin de coloniser que les quelques étoiles les plus proches [pour] que la galaxie entière [finisse] par se remplir de vie ». Le processus pourrait devenir exponentiel, donnant lieu à des sociétés de plus en plus « florissantes » à chaque seconde qui passe, lorsque nos descendants sauteraient d'une étoile à l'autre.

 Mais pourquoi voudrions-nous cela ? Qu'y a-t-il de si important à inonder l'univers de nouvelles civilisations post-humaines ? Cela nous amène à la troisième composante : l'utilitarisme total, que j'appellerai « utilitarisme » en abrégé. Bien que certains adeptes du long-termisme insistent sur le fait qu'ils ne sont pas utilitaristes, il convient de noter d'emblée qu'il s'agit essentiellement d’une entourloupe. Les long-termistes cherchent à détourner les critiques de leur idéologie et plus généralement de l'altruisme efficace (AE), mais en réalité leur philosophie n’est rien d’autre que de l'utilitarisme reconditionné sous une autre forme[25]. Le fait est que le mouvement AE est profondément utilitariste, du moins dans la pratique. Avant de choisir un nom, les premiers membres du mouvement (Ord y compris) ont sérieusement envisagé de l'appeler la « communauté de l'utilitarisme efficace ».

 Ceci étant dit, l'utilitarisme est une théorie éthique qui spécifie que notre seule obligation morale consiste à maximiser la quantité totale de « valeur intrinsèque » dans le monde. Celle-ci est calculée à partir d'un point de vue désincarné, impartial et cosmique appelé « le point de vue de l'Univers ». De ce point de vue, la manière dont la valeur – que les hédonistes utilitaristes assimilent au plaisir – est répartie entre les individus dans l'espace et le temps n'a pas d'importance. Tout ce qui compte, c'est la somme totale nette. Imaginons par exemple qu'il y ait 1 000 milliards de personnes dont la vie a une valeur de « 1 », c'est-à-dire qu'elle vaut à peine la peine d'être vécue. Cela donne une valeur totale de 1 000 milliards. Considérons maintenant un univers alternatif dans lequel 1 milliard de personnes ont chacune une vie de valeur « 999 », ce qui signifie que leur vie est extrêmement bonne. Cela donne une valeur totale de 999 milliards. Puisque 999 milliards est un nombre inférieur à 1 000 milliards, le premier monde rempli de vies qui ne valent guère la peine d'être vécues serait moralement meilleur que le second monde. Par conséquent, si un utilitariste était contraint de choisir entre ces deux univers, il opterait pour le premier. (C'est ce qu'on appelle la « conclusion répugnante » que des adeptes du long-termisme tels que Ord, MacAskill et Greaves ont récemment dédaigné[26]. Pour eux, le premier monde pourrait vraiment être meilleur !).

 Le raisonnement sous-jacent repose sur l'idée que les gens – vous et moi – ne sont rien d'autre que des moyens au service d'une fin. Nous n'avons pas d'importance en nous-mêmes, nous n'avons pas de valeur intrinsèque. Au contraire, les personnes sont considérées comme des « conteneurs » de valeur. Cela veut dire que nous n'avons d'importance que dans la mesure où nous « contenons » de la valeur, où nous contribuons à la quantité nette globale de valeur dans l'univers entre le Big Bang et la mort thermique. Puisque l'utilitarisme nous dit de maximiser la valeur, il s'ensuit que plus il y a de personnes (conteneurs de valeur) qui existent avec des quantités nettes positives de valeur (plaisir), mieux l'Univers se portera, moralement parlant. En un mot : les gens existent dans le but de maximiser la valeur ; la valeur n’existe pas dans le but de bénéficier aux gens.

 C'est pourquoi les adeptes du long-termisme sont obsédés par le calcul du nombre de personnes qui pourraient exister dans le futur. Si nous colonisons l'espace et créons de vastes simulations informatiques autour des étoiles, un nombre insondable de personnes pourront vivre une vie positive dans des environnements de réalité virtuelle. J'ai déjà mentionné l'estimation de Bostrom à 1054 personnes dans le futur, un chiffre qui comprend beaucoup de ces « personnes numériques ». Mais dans son best-seller Superintelligence (2014), il avance un chiffre encore plus élevé de 1058 personnes, dont la quasi-totalité « vivrait des vies riches et heureuses en interagissant les unes avec les autres dans des environnements virtuels ». Greaves et MacAskill s'enthousiasment également pour cette perspective, estimant que quelque 1045 êtres conscients dans des simulations informatiques pourraient exister dans la seule Voie lactée.

 C'est en cela que consiste notre potentiel « vaste et glorieux » : un nombre massif de posthumains numériques technologiquement améliorés à l'intérieur d'immenses simulations informatiques réparties dans notre futur cône de lumière. C'est dans ce but que, dans le scénario de Häggström, un politicien long-termiste anéantirait l'Allemagne. C'est en vue de réaliser cet objectif que nous ne devons pas « gaspiller » nos ressources pour résoudre des problèmes tels que la pauvreté dans le monde. C'est pour cet objectif que nous devrions envisager la mise en œuvre d'un système de surveillance mondial, la guerre préventive et nous concentrer davantage sur les machines superintelligentes que sur la protection des populations du Sud contre les effets dévastateurs du changement climatique (principalement causé par le Nord). En fait, Beckstead a même soutenu que, pour atteindre cet objectif, nous devrions donner la priorité à la vie des habitants des pays riches plutôt qu'à celle des habitants des pays pauvres. Car influencer l'avenir à long terme est d'une « importance capitale », et les premiers sont plus susceptibles d'influencer le futur lointain que les seconds. Pour citer un passage de la thèse de doctorat de Beckstead parue en 2013, dont Ord chante les louanges en la qualifiant d’une des contributions les plus importantes à la littérature long-termiste :

« Sauver des vies dans les pays pauvres peut avoir des effets d'entraînement nettement moins importants que sauver et améliorer des vies dans les pays riches. Pourquoi ? Les pays riches sont beaucoup plus innovants et leurs travailleurs sont beaucoup plus productifs sur le plan économique. [Par conséquent], il me semble désormais plus plausible que sauver une vie dans un pays riche soit nettement plus important que sauver une vie dans un pays pauvre, toutes choses égales par ailleurs. »

 Ce n'est que la partie émergée de l'iceberg. Considérons les implications de cette conception de « notre potentiel » pour le développement technologique et la création de nouveaux risques. Étant donné que la réalisation de notre potentiel est l'objectif moral ultime de l'humanité ; étant donné que nos descendants ne peuvent pas devenir posthumains, coloniser l'espace et créer ~1058 personnes dans des simulations informatiques sans des technologies beaucoup plus avancées que celles qui existent aujourd'hui, ne pas développer davantage de technologies constituerait en soi une catastrophe existentielle – un mode d'échec (comparable à Ramsey négligeant ses talents en passant ses journées à jouer au billard et à boire), une trajectoire que Bostrom appelle le « plafonnement ». En effet, Bostrom place cette idée au centre de sa définition canonique du « risque existentiel ». Le risque existentiel désigne tout événement futur qui empêcherait l'humanité d'atteindre et/ou de maintenir un état de « maturité technologique », c'est-à-dire « l'obtention de capacités permettant un niveau de productivité économique et de contrôle sur la nature proche du maximum réalisable. La maturité technologique est la clé de voûte ici, car le contrôle de la nature et l'augmentation de la productivité économique jusqu'aux limites physiques absolues sont ostensiblement nécessaires pour créer la quantité maximale de « valeur » dans notre futur cône de lumière.

 Mais réfléchissez un instant. Comment l'humanité[27] s'est-elle embourbée dans la crise climatique et écologique actuelle ? Derrière l'extraction et la combustion des carburants fossiles, la décimation des écosystèmes et l'extermination des espèces, il y a l'idée que la nature doit être contrôlée, subjuguée, exploitée, vaincue, pillée, transformée, reconfigurée et manipulée. Comme l'écrit le théoricien de la technologie Langdon Winner dans Autonomous Technology (1977), depuis l'époque de Francis Bacon, notre vision de la technologie est « inextricablement liée à une conception unique de la manière dont le pouvoir est utilisé – le style de la maîtrise absolue, le contrôle despotique et à sens unique du maître sur l'esclave ». Il ajoute :

« On émet rarement des réserves sur le rôle légitime de l'homme dans la conquête, la victoire et l'assujettissement de tout ce qui est naturel. C'est sa puissance et sa gloire. Ce qui, dans d'autres contextes, passerait pour des intentions plutôt grossières et méprisables, est ici la plus honorable des vertus. La nature est la proie universelle, l'homme peut la manipuler à sa guise[28]. »

 C'est précisément ce que nous trouvons dans le récit de Bostrom sur les risques existentiels et la futurologie normative qui y est associée : la nature, l'Univers tout entier, notre « dotation cosmique » est là pour être pillée, pour être manipulée, transformée et convertie en « structures de valeur, telles que des êtres sensibles vivant des vies valables » dans de vastes simulations informatiques[29]. Pourtant, cette vision baconienne et capitaliste est l'une des causes les plus fondamentales de la crise environnementale sans précédent qui menace aujourd'hui de détruire de vastes régions de la biosphère, les communautés indigènes du monde entier et peut-être même la civilisation technologique occidentale elle-même. Bien que d'autres adeptes du long-termisme ne soient pas aussi explicites que Bostrom, leur conception du monde naturel ressemble à la conception utilitariste des humains : ce sont des moyens en vue d’atteindre une fin abstraite et impersonnelle, rien de plus. MacAskill et un de ses collègues écrivent par exemple que le mouvement de l’altruisme efficace – donc le long-termisme – est « provisoirement welfariste[30] en ce sens que son objectif provisoire de faire le bien concerne uniquement la promotion du bien-être et non, par exemple, la protection de la biodiversité ou la conservation de la beauté naturelle pour elles-mêmes, dans leur propre intérêt[31] ».

 Tout aussi inquiétante est l'exigence long-termiste selon laquelle nous devons créer des technologies toujours plus puissantes. Il s’agit d’une négation du fait bien connu que ces mêmes technologies sont à l’origine des graves menaces pesant sur l’avenir de l’espèce humaine. Selon Ord, « sans effort sérieux pour protéger l'humanité, il y a de fortes raisons de croire que le risque sera plus élevé au cours de ce siècle, et qu'il augmentera chaque siècle où le progrès technologique se poursuivra ». De même, en 2012, Bostrom reconnaît que

« la majeure partie des risques existentiels dans un avenir prévisible est constituée de risques existentiels anthropogéniques, c'est-à-dire découlant de l'activité humaine. En particulier, la plupart des risques existentiels les plus importants semblent résulter des innovations technologiques potentiellement développées dans le futur. Celles-ci pourraient accroître radicalement notre capacité à manipuler le monde extérieur ou notre propre biologie. À mesure que nos pouvoirs s'étendent, l'ampleur de leurs conséquences potentielles – voulues ou non, positives ou négatives – s'accroît. »

 Selon ce point de vue, il n'y a qu'une seule voie à suivre : le développement technologique, même s'il s'agit de la voie la plus dangereuse pour le futur. Mais quel est le sens d’un tel raisonnement ? Si nous voulons maximiser nos chances de survie, nous devrions nous opposer au développement de nouvelles technologies dangereuses à double usage. Si plus de technologie équivaut à plus de risque – comme l'histoire le montre clairement et comme les projections technologiques le confirment – alors peut-être que la seule façon d'atteindre un état de « sécurité existentielle » est de ralentir ou d'arrêter complètement le développement technologique.

 Mais les partisans du long-termisme apporte une autre réponse à ce problème : la « thèse de la neutralité des valeurs ». Selon cette thèse, la technologie est un objet moralement neutre, c'est-à-dire « un simple outil ». Le slogan de la NRA[32] illustre parfaitement cette idée : « Guns don't kill people, people kill people » (les armes ne tuent pas les gens, ce sont les gens qui tuent). Les conséquences de la technologie, qu'elles soient bonnes ou mauvaises, bénéfiques ou néfastes, sont entièrement déterminées par les utilisateurs et non par les artefacts. Bostrom affirmait en 2002 que « nous ne devrions pas blâmer la civilisation ou la technologie d'imposer de grands risques existentiels ». Selon lui, « en raison de la façon dont nous avons défini les risques existentiels, un arrêt du développement de la civilisation technologique signifierait que nous sommes victimes d'un désastre existentiel ».

 Ord affirme également que « le problème n'est pas tant un excès de technologie qu'un manque de sagesse », avant de citer le livre Pale Blue Dot (1994) de Carl Sagan : « De nombreux dangers auxquels nous sommes confrontés proviennent en effet de la science et de la technologie, mais plus fondamentalement du fait que nous avons acquis de la puissance sans acquérir une sagesse équivalente ». En d'autres termes, c'est notre faute si nous ne sommes pas plus intelligents, plus sages et plus éthiques. Cet ensemble de déficiences, les adeptes du long-termisme pensent pouvoir les rectifier en réorganisant, grâce à la technologie, nos systèmes cognitifs et nos dispositions morales. Dans leur philosophie tordue, tout se réduit à un problème d'ingénierie et, par conséquent, tous les problèmes découlent d'une insuffisance plutôt que d'un excès de technologie.

 Nous commençons maintenant à comprendre comment le long-termisme pourrait s'autodétruire. Son « fanatisme » quant à l’objectif de réalisation de notre potentiel à long terme pourrait conduire les gens à négliger le changement climatique (un risque non existentiel) et à donner la priorité aux riches sur les pauvres. Il pourrait peut-être même « justifier » les massacres préventifs et d’autres atrocités au nom du « plus grand bien cosmique ». Mais ce n’est pas tout. Il contient également les tendances mêmes – le baconianisme, le capitalisme et la neutralité des valeurs – qui ont conduit l'humanité au bord de l’autodestruction. Le long-termisme nous dit de maximiser la productivité économique, notre contrôle sur la nature, notre présence dans l'univers, le nombre de personnes (simulées technologiquement) qui existeront dans le futur, la quantité totale de « valeur » impersonnelle, etc. Mais pour maximiser, nous devons développer des technologies de plus en plus puissantes – et dangereuses. Ne pas le faire serait en soi une catastrophe existentielle. Il ne faut pas s'inquiéter, car la technologie n'est pas responsable de l'aggravation de notre situation, et le fait que la plupart des risques découlent directement de la technologie n'est pas une raison pour cesser d'en créer davantage. Le problème vient plutôt de nous, ce qui signifie simplement que nous devons créer encore plus de technologie pour nous transformer en posthumains améliorés sur le plan cognitif et moral.

 Cela nous mène tout droit à la catastrophe. La création d'une nouvelle race de posthumains « sages et responsables » est invraisemblable ; et si les technologies avancées continuent d'être développées au rythme actuel, la venue d’une catastrophe d'échelle mondiale n’est plus qu’une question de temps. Oui, nous aurons besoin de technologies avancées si nous voulons fuir la Terre avant qu'elle ne soit stérilisée par le soleil dans un milliard d'années environ[33]. Mais un fait crucial échappe aux adeptes du long-termisme. La technologie est bien plus susceptible de provoquer notre extinction avant cet événement lointain que de nous en préserver. Si, comme moi, vous attachez de l'importance à la survie et à l'épanouissement de l'humanité, vous devez vous préoccuper du long terme, mais rejeter l'idéologie du long-termisme. Elle est dangereuse et trompeuse ; elle pourrait aussi accroître et renforcer les dangers qui menacent aujourd'hui chaque individu sur Terre.

Emile P. Torres

Partagez cet article

Ne ratez rien de l'actu anti-tech.

Souscrivez à notre newsletter pour avoir les dernières actualités.

Accéder au formulaire

Footnote [1] — Voir cet article du journal Le Monde paru début 2023 : https://www.lemonde.fr/idees/article/2023/03/17/gagner-plus-pour-donner-plus-l-altruisme-efficace-philanthropie-de-l-extreme_6165839_3232.html

Footnote [2] — https://aeon.co/essays/why-longtermism-is-the-worlds-most-dangerous-secular-credo

Footnote [3] — https://ro.uow.edu.au/cgi/viewcontent.cgi?article=1742&context=buspapers

Footnote [4] — En réalité, on ne connaît toujours pas l’origine du virus, en cause notamment « le manque de transparence de l’Institut de virologie de Wuhan, en Chine, d’où est partie la pandémie ». Voir cet article du journal Les Echos paru cet été : https://www.lesechos.fr/monde/enjeux-internationaux/origine-du-covid-les-etats-unis-suspendent-les-subventions-de-linstitut-de-virologie-de-wuhan-1963241

Footnote [5] — https://docs.wixstatic.com/ugd/d9aaad_4d3e08f426904b8c8be516230722087a.pdf

Footnote [6] — https://docs.wixstatic.com/ugd/d9aaad_b2e7f0f56bec40a195e551dd3e8c878e.pdf

Footnote [7] — En réalité, dans son livre Notre dernier siècle ?, Martin Rees estime que c’est l’espèce humaine et non la civilisation qui pourrait disparaître. La civilisation – présence d’un État, d’infrastructures, de fortes inégalités de pouvoir, de villes – est une forme d’organisation des sociétés très minoritaire si on considère la diversité passée et présente des groupes humains (NdT).

Footnote [8] — https://global.ilmanifesto.it/chomsky-republicans-are-a-danger-to-the-human-species/

Footnote [9] — https://thebulletin.org/doomsday-clock/2020-doomsday-clock-statement/

Footnote [10] — https://hal.science/hal-02397151/document

Footnote [11] — Fondation dont le principal bailleur de fonds n’est autre que Dustin Moskovitz, l’un des cofondateurs de Facebook.

Footnote [12] — https://80000hours.org/2021/07/effective-altruism-growing/

Footnote [13] — https://www.currentaffairs.org/2021/07/the-dangerous-ideas-of-longtermism-and-existential-risk

Footnote [14] — https://forum.effectivealtruism.org/posts/Fwu2SLKeM5h5v95ww/major-un-report-discusses-existential-risk-and-future%23Context

Footnote [15] — Phil Torres, Morality, Foresight, and Human Flourishing: An Introduction to Existential Risks, 2017.

Footnote [16] — https://nickbostrom.com/existential/risks

Footnote [17] — https://citeseerx.ist.psu.edu/viewdoc/download?doi=10.1.1.304.7392&rep=rep1&type=pdf

Footnote [18] — https://nickbostrom.com/astronomical/waste

Footnote [19] — https://existential-risk.com/concept

Footnote [20] — https://existential-risk.com/faq.pdf 

Footnote [21] — https://globalprioritiesinstitute.org/wp-content/uploads/Hayden-Wilkinson_In-defence-of-fanaticism.pdf

Footnote [22] — Certains laudateurs du transhumanisme assument clairement leur position eugéniste en présentant les humains qui refuseront de s’augmenter – ou qui n’y auront pas accès – de « chimpanzés du futur ». Voir Hélène Tordjman, La croissance verte contre la nature.

Footnote [23] — https://blog.oup.com/2021/01/playing-to-lose-transhumanism-autonomy-and-liberal-democracy-long-read/

Footnote [24] — https://nickbostrom.com/utopia

Footnote [25] — https://blog.apaonline.org/2021/03/29/is-effective-altruism-inherently-utilitarian/

Footnote [26] — https://www.cambridge.org/core/journals/utilitas/article/what-should-we-agree-on-about-the-repugnant-conclusion/EB52C686BAFEF490CE37043A0A3DD075

Footnote [27] — Il faut rappeler ici que ce n’est pas « l’humanité » mais un certain type de société – la civilisation techno-industrielle enfantée par l’Occident – qui est à l’origine de la crise climatique et écologique. Cette civilisation a éradiqué la plupart des autres cultures humaines qui existaient encore il y a quelques siècles pour accomplir son œuvre mortifère (NdT).

Footnote [28] — https://mitpress.mit.edu/books/autonomous-technology

Footnote [29] — voir l'essai de Bostrom Astronomical Waste, 2003

Footnote [30] — Selon Wikipédia (après traduction) : « En éthique, le welfarisme est une théorie selon laquelle le bien-être, ce qui est bon pour quelqu'un ou ce qui fait qu'une vie vaut la peine d'être vécue, est la seule chose qui a une valeur intrinsèque. Dans son sens le plus général, il peut être défini comme une théorie descriptive de ce qui a de la valeur, mais certains philosophes comprennent également le welfarisme comme une théorie morale, selon laquelle ce que l’on devrait faire est finalement déterminé par des considérations de bien-être. La bonne action, politique ou règle est celle qui mène au bien-être maximal. En ce sens, le welfarisme est souvent considéré comme une forme de conséquentialisme et peut prendre la forme d’un utilitarisme. » (NdT)

Footnote [31] — https://philarchive.org/archive/PUMEAv3

Footnote [32] — National Rifle Association, l’un des principaux lobbys pour la promotion des armes à feu aux États-Unis (NdT).

Footnote [33] — On a un peu de mal à comprendre ce que vient faire cette phrase dans la conclusion. (NdT)

Rejoignez la résistance.

ATR accueille et forme constamment de nouvelles recrues déterminées à combattre le système technologique.