« Il serait sage d’arrêter le développement de l’IA » (Geoffrey Hinton)

Nous vous proposons la traduction d’une interview de Geoffrey Hinton, ancien ingénieur de Google, paru le 4 mai 2024 dans le média en ligne Computerworld. Le principal intérêt de cet entretien réside dans le diagnostic fait par Hinton sur l’intelligence artificielle. Il explique que le développement de cette technologie n’est pas quelque chose qui peut-être rationnellement contrôlé, notamment en raison de la compétition entre grandes firmes et entre États-nations. Il rejoint en cela le diagnostic fait par Theodore Kaczynski dans Révolution Anti-Tech. Pourquoi et comment ? (2016). Mais, sans surprise, Hinton ne poursuit pas jusqu’au bout la logique de son raisonnement et se garde bien d’appeler au démantèlement du système technologique. Il se donne le bon rôle, se contente d’alerter l’opinion pour soulager sa conscience, et continue en parallèle d’investir dans l’IA. Un courageux monsieur.


Entretien – Selon Geoffrey Hinton de Google, l’humanité n’est qu’une étape dans l’évolution de l’intelligence

Cet ingénieur de Google, qui a récemment démissionné, avait un rôle central dans le développement de l’IA générative et des chatbots. Il pense aujourd’hui qu’il a sous-estimé la menace existentielle représentée par ces technologies. Une fois que l’IA pourra créer ses propres objectifs, les humains ne lui seront plus utiles.

Geoffrey Hinton, professeur d’université et ancien ingénieur de Google, est surnommé le « parrain de l’intelligence artificielle » en raison de ses contributions au développement de cette technologie. Psychologue cognitif et informaticien, il fût l’un des premiers à travailler sur le développement de réseaux de neurones artificiels et de techniques d’apprentissage profond, telles que la rétropropagation — l’algorithme qui permet aux ordinateurs d’apprendre.

M. Hinton, 75 ans, est aussi lauréat du Turing Award, souvent assimilé au Prix Nobel de l’informatique. 

Avec un tel CV, il a récemment défrayé la chronique en annonçant sa démission de Google et en publiant dans le New York Times une déclaration dans laquelle il alerte sur les conséquences de l’IA et exprime son regret d’avoir participé à son développement.  

Geoffrey Hinton a également donné son avis sur une récente pétition, signée par 27 000 technologues, scientifiques et autres acteurs qui demandent l’arrêt des recherches d’OpenIA sur ChatGPT jusqu’à ce que des mesures de sécurité soient instaurées. Qualifiant la démarche « d’absurde », il a affirmé qu’on ne pouvait pas arrêter les progrès de l’IA.  

Cette semaine, il a échangé avec Will Douglas Heaven, rédacteur en chef pour l’IA au MIT Technology Review, pendant la conférence EmTech organisée par le journal. Voici des extraits de cette conversation.

[W. D. Heaven] Tout le monde en parle : vous avez démissionné de Google. Pouvez-vous nous donner la raison de cette décision ?

[G. Hinton] « Je l’ai fait pour plusieurs raisons. C’est toujours le cas quand on prend une décision comme celle-ci. L’une d’entre elles est que j’ai 75 ans, et que je ne suis plus aussi performant techniquement qu’auparavant. Ma mémoire n’est pas aussi bonne et, quand je fais de la programmation, j’oublie certaines choses. Il était donc temps pour moi de prendre ma retraite.  

La deuxième raison est que, depuis peu, j’ai une vision très différente de la relation entre le cerveau et le type d’intelligence numérique que nous développons. Avant, je pensais que les modèles informatiques que nous développions ne fonctionnaient pas aussi bien que le cerveau. Notre objectif était d’acquérir une meilleure compréhension du cerveau en étudiant les améliorations apportées aux modèles informatiques.  

Depuis quelques mois, j’ai complètement changé d’avis : je pense que ces modèles fonctionnent d’une manière totalement différente du cerveau. Ils utilisent la rétropropagation, et je pense qu’il est probable que le cerveau ne le fasse pas. Plusieurs constats m’ont amené à cette conclusion, dont la performance de GPT-4. »  

Regrettez-vous d’avoir participé à sa création ?

« Le journaliste du New York Times a vraiment essayé de me faire dire que j’avais des remords. J’ai fini par dire que je regrettais un peu, ce qui a été transformé en remords sur le papier. Je ne pense pas avoir pris de décision difficile durant ma carrière. Dans les années 70 et 80, il était parfaitement raisonnable de faire de la recherche sur la façon de créer des réseaux de neurones artificiels. Et il était difficile d’imaginer ça, d’imaginer qu’on en arriverait là aujourd’hui. Jusqu’à très récemment, je pensais que cette crise existentielle était encore très loin. En fin de compte, je ne regrette pas vraiment ce que j’ai fait. » 

Expliquez-nous ce qu’est la rétropropagation : cet algorithme que vous avez développé avec quelques collègues dans les années 80.

« De nombreux groupes différents ont découvert la rétropropagation. Ce que nous avons fait de spécial était de l’utiliser pour montrer qu’elle pouvait développer de bonnes représentations internes. Curieusement, nous l’avons fait en exécutant un modèle de langage minuscule. Il avait des vecteurs d’incorporation qui n’étaient que de six composantes et un ensemble d’entraînement qui comportait 112 cas, mais c’était un modèle de langage : il visait à prédire le mot suivant dans une séquence. Environ 10 ans plus tard, Yesher Avenger a pris le même réseau et a démontré qu’il fonctionnait pour le langage naturel, qui est beaucoup plus large.  

La façon dont la rétropropagation fonctionne… Imaginez que vous vouliez détecter des oiseaux sur des images. Prenons une image de, disons, 100 x 100 pixels, ce qui fait 10 000 pixels. Chaque pixel est composé de trois canaux RVB (rouge, vert, bleu), ce qui fait une intensité de 30 000 valeurs si on réunit tous les canaux de pixel qui forment l’image. Si on pense au problème de la vision par ordinateur, il s’agit de savoir comment transformer ces 30 000 nombres en une décision permettant de savoir s’il s’agit d’un oiseau ou non. Certains ont longtemps essayé, sans succès.  

Voici une idée de comment on pourrait y arriver : vous pourriez avoir une couche de détecteurs de caractéristiques visuelles qui repèrent des caractéristiques très simples dans l’image, comme par exemple les arêtes. Ainsi, un détecteur de caractéristiques pourrait avoir de grands poids positifs pour une colonne de pixels et de grands poids négatifs pour la colonne voisine. Ainsi, si les deux colonnes sont lumineuses, il ne s’activera pas. Si les deux colonnes sont sombres, il ne s’activera pas non plus. Mais si l’une des colonnes est lumineuse et que l’autre est sombre, il sera fortement stimulé. Voilà ce qu’est un détecteur d’arêtes. 

Donc, je viens de vous expliquer comment configurer manuellement un détecteur d’arêtes avec une colonne avec de grands poids positifs et une autre colonne avec de grands poids négatifs. Et nous pouvons imaginer une grande couche détectant des arêtes de différentes orientations et de différentes échelles partout dans l’image. 

Nous aurions donc besoin d’un assez grand nombre de ces détecteurs. » 

Une arête dans une image est-elle un trait ? 

« C’est un endroit où l’intensité lumineuse varie soudainement. Ensuite, nous y ajoutons une couche de détecteurs de caractéristiques permettant de repérer les combinaisons d’arêtes. Par exemple, nous pourrions avoir quelque chose qui détecte deux arêtes formant un angle aigu. Ainsi, en plaçant un grand poids positif sur ces deux arêtes, le détecteur s’activerait lorsqu’elles seraient présentes au même moment, ce qui permettrait de détecter, par exemple, le bec d’un oiseau.  

On pourrait aussi placer dans cette couche un détecteur permettant de repérer toutes les arêtes formant un cercle. Ce cercle pourrait être un œil d’oiseau, ou bien quelque chose d’autre, comme une poignée de frigo. Ensuite, dans la troisième couche, on trouverait un détecteur de caractéristiques capable de repérer ce bec potentiel et cet œil potentiel et configuré de telle sorte que si ce bec et cet œil sont placés d’une certaine manière l’un par rapport à l’autre, il se dise : « Ah, c’est peut-être une tête d’oiseau ». Et on peut imaginer qu’en continuant à le configurer de cette manière, on puisse obtenir quelque chose qui détecte un oiseau.  

Mais configurer tout cela manuellement serait très difficile. Ce serait d’autant plus difficile que l’on aurait besoin de plusieurs couches intermédiaires pour détecter non seulement les oiseaux, mais aussi d’autres choses. En d’autres termes, il serait presque impossible de le configurer manuellement.

Alors, voici comment fonctionne la rétropropagation : vous commencez avec des poids aléatoires. Les caractéristiques visuelles que vous saisissez ne correspondent donc pas à la réalité. Vous avez, en entrée, une image d’oiseau et en sortie, par exemple, 0,5 est un oiseau. Ensuite, vous vous posez la question suivante : comment puis-je changer chacun des poids auquel je suis relié dans le réseau pour que, au lieu d’obtenir 0,5 est un oiseau, j’obtienne 0,501 est un oiseau et 0,499 n’est pas un oiseau ?

Vous changez donc les poids dans les directions qui rendront plus probable de dire qu’un oiseau est un oiseau et moins probable de dire qu’un nombre est un oiseau.

« C’est comme si des ingénieurs en génétique affirmaient Nous allons améliorer les grizzlys : nous avons déjà augmenté leur QI à 65, et ils peuvent maintenant parler anglais et servir à toutes sortes de choses, mais nous pensons pouvoir les amener à un QI de 210. »

Vous continuez en procédant de la même manière, et c’est cela, la rétropropagation. La rétropropagation est la façon de traiter l’écart entre ce que vous voulez et la réalité, qui est une probabilité (0,1 – c’est un oiseau et 0,5 c’est probablement un oiseau) et de la renvoyer dans le réseau afin de prendre en compte toutes les caractéristiques du réseau, selon si vous souhaitez qu’il soit un peu plus actif ou un peu moins actif. Ceci fait, si vous souhaitez qu’un ensemble de caractéristiques visuelles soit plus actif, vous pouvez augmenter les poids venant des caractéristiques que vous souhaitez plus actives et peut-être ajouter des poids négatifs pour indiquer quand vous êtes à côté de la plaque. Vous obtenez ainsi un détecteur plus performant.

La rétropropagation est simplement le fait de retourner en arrière dans le réseau pour décider quelles combinaisons de caractéristiques vous voulez rendre un peu plus actives et lesquelles vous voulez rendre un peu moins actives. »  

La détection d’image, c’est aussi la technique à la base des grands modèles de langage. Cette technique, vous l’aviez initialement pensée comme étant une mauvaise imitation de ce que nos cerveaux biologiques font. Et finalement, elle arrive à faire des choses qui, il me semble, vous ont surpris, particulièrement dans les grands modèles de langage. Pourquoi est-ce que cela a presque révolutionné votre conception de la rétropropagation ou du machine learning en général ?

« Si vous regardez ces grands modèles de langage, ils ont à peu près un trillion de connexions. En outre, les programmes comme GPT-4 savent bien plus de choses que nous. Ils ont des connaissances qu’on pourrait assimiler à du bon sens sur tout. Ainsi, ils ont probablement mille fois plus de connaissances qu’un être humain. Cependant, ils ont un trillion de connexions tandis que nous en avons 100 trillions, ce qui signifie qu’ils sont beaucoup, beaucoup plus efficaces pour acquérir ces connaissances que nous. Je pense que c’est parce que la rétropropagation doit être un algorithme d’apprentissage bien meilleur que le nôtre. C’est effrayant. »  

Que voulez-vous dire par meilleur ?

« Il peut assimiler plus d’informations avec seulement quelques connexions (nous considérons un trillion comme peu de connexions). »  

Donc, ces ordinateurs numériques sont meilleurs pour l’apprentissage que les êtres humains, ce qui est en soit une déclaration très importante, mais vous affirmez aussi que c’est quelque chose dont on devrait avoir peur. Pourquoi ?

« Laissez-moi vous partager un autre aspect de ma réflexion. Si un ordinateur est numérique, ce qui demande une dépense énergétique élevée et des calculs minutieux, vous pouvez disposer de nombreuses copies d’un même modèle qui, utilisées sur différentes machines, feront exactement la même chose. Ils peuvent analyser des données différentes, mais les modèles sont exactement les mêmes. Cela signifie qu’ils peuvent analyser 10 000 sous-copies de données et dès qu’une d’entre elles apprend quelque chose, toutes les autres l’apprennent aussi. Si l’une d’entre elles trouve comment changer les poids pour mieux gérer ses données, elles communiquent toutes pour changer ensemble les poids en fonction de la moyenne de ce qu’elles veulent toutes. Maintenant ces 10 000 éléments communiquent très efficacement entre eux; ils peuvent donc analyser 10 000 fois plus de données qu’un agent seul le pourrait. Et les personnes ne peuvent pas faire ça.  

Si j’ai beaucoup appris sur la physique quantique et que j’aimerais que vous aussi ayez beaucoup de connaissances sur le sujet, vous les faire assimiler sera un processus long et difficile. Je ne peux pas juste copier mes poids dans votre cerveau, car votre cerveau n’est pas exactement le même que le mien. En d’autres termes, il existe des ordinateurs numériques qui peuvent d’une part acquérir plus de connaissances plus rapidement et d’autre part se les transmettre instantanément. C’est comme si les personnes dans cette pièce pouvaient instantanément transférer dans ma tête ce qu’elles ont dans la leur.  

Pourquoi est-ce que ça fait peur? Parce qu’ils peuvent apprendre tellement plus de choses que nous. Prenons l’exemple du médecin. Imaginez un médecin ayant 1 000 patients et un autre ayant 100 millions de patients. On s’attendrait à ce que celui qui voit 100 millions de patients — s’il n’a pas tout oublié — remarque toutes sortes de tendances dans les données qui ne sont pas aussi évidentes pour le docteur qui voit moins de patients. L’un n’aura vu qu’un seul patient avec une maladie rare, tandis que l’autre en aura vu 100 millions… et pourra donc déceler toutes sortes d’anomalies qui ne sont pas apparentes dans les échantillons de données de petites tailles.

C’est pour cela que les systèmes capables d’analyser un grand nombre de données peuvent probablement déceler des données structurantes dont nous n’aurons jamais connaissance. »  

D’accord, mais dites-moi pourquoi je devrais en avoir peur.  

Eh bien, si vous regardez GPT-4, il peut déjà faire du raisonnement simple. Enfin, le raisonnement est encore le domaine où nous sommes meilleurs. Mais j’ai été impressionné l’autre jour lorsque GPT-4 a fait preuve d’un bon sens dont je ne le pensais pas capable. Je lui ai demandé: « Je veux que toutes les pièces de ma maison soient blanches. À présent, il y a quelques pièces blanches, quelques pièces bleues et quelques pièces jaunes. La peinture jaune passe au blanc en l’espace d’un an. Que puis-je faire si je veux que toutes les pièces soient blanches dans deux ans? » Il m’a répondu: « Vous devriez peindre toutes les pièces bleues en jaune. » Ce n’est pas la solution naturelle, mais elle fonctionne. Il s’agit d’un raisonnement d’un bon sens impressionnant qui a été très difficile à obtenir en utilisant l’IA symbolique, car il faut comprendre ce que le mot passe signifie dans ce contexte, mais aussi la temporalité du problème. Ces IA sont donc capables de raisonner de façon pertinente avec un QI aux alentours de 80 ou 90. Et, comme l’a dit un ami à moi, c’est comme si des ingénieurs en génétique affirmaient : Nous allons améliorer les grizzlys : nous avons déjà augmenté leur QI à 65, et ils peuvent maintenant parler anglais et servir à toutes sortes de choses, mais nous pensons pouvoir les amener à un QI de 210. » 

J’ai eu un sentiment étrange en parlant à l’un de ces nouveaux chatbots. Vous savez, le genre de frissons que l’on peut avoir face à quelque chose de troublant; mais quand cela m’est arrivé, j’ai juste fermé mon ordinateur.  

« Oui, mais ces choses auront appris de nous en lisant tous les romans ayant jamais existé et tout ce que Machiavel a pu écrire sur la manipulation. Et s’ils sont plus intelligents que nous, ils seront très forts pour nous manipuler. Vous ne réaliserez même pas ce qu’il se passe. Vous serez comme un enfant de 2 ans à qui on demande s’il veut les petits pois ou le chou- fleur sans qu’il se rende compte qu’il est possible de refuser les deux. Vous serez aussi manipulable que ça.

Ils ne peuvent pas actionner des leviers eux-mêmes, mais ils peuvent faire en sorte que nous le faisons pour eux. Il se trouve que quand on sait manipuler, on peut envahir un immeuble à Washington sans même y être physiquement. »  

Si personne n’avait de mauvaises intentions, serions-nous en sécurité ?

« Je ne sais pas. Nous serions plus en sécurité dans un monde dans lequel personne n’aurait de mauvaises intentions et où le système politique ne serait pas défectueux au point où nous ne pouvons même pas interdire la possession de fusils d’assaut à des adolescents. Si on ne peut pas résoudre ce problème-là, comment peut-on résoudre celui de l’IA ?  

Vous voulez dénoncer cela sans vous sentir coupable et sans nuire à Google. Mais d’une certaine façon, ce ne sont que de belles paroles. Que pouvons-nous faire ?

« J’aimerais tellement que ce soit comme le réchauffement climatique, où on peut dire : Si tu as un cerveau, arrête de brûler du charbon. Dans ce cas, ce qu’on doit faire est clair. C’est difficile, mais il faut qu’on le fasse.

Je ne connais pas de solution comme celle-ci pour empêcher ces technologies de prendre le dessus. Et je ne pense pas qu’on va arrêter de les développer car elles sont tellement utiles. Elles vont devenir incroyablement utiles en médecine et dans bien d’autres domaines. Donc je ne pense pas que nous ayons la moindre chance d’arrêter leur développement. Ce que nous voulons, c’est trouver une manière de nous assurer que, même si elles deviennent plus intelligentes que nous, elles agissent dans notre intérêt. C’est la question de l’alignement. Mais nous devons y parvenir dans un monde où des personnes mal intentionnées veulent construire des robots tueurs. Cela me semble donc très difficile.

C’est pourquoi je tire la sonnette d’alarme : nous devons nous en inquiéter. Si j’avais une solution toute simple à vous donner je le ferais, mais je n’en ai pas. Cependant, je pense qu’il est très important que les gens se rassemblent pour réfléchir au problème et essaient de trouver une solution. Et nous ne savons pas s’il y en a une. »  

Vous avez passé votre carrière à étudier cette technologie dans ses moindres détails. N’existe-t-il pas de solution technique ? Ne peut-on pas créer des garde-fous ? Peut-on les rendre moins bonnes en apprentissage ou restreindre la façon dont elles communiquent, puisque ce sont les deux éléments déterminants de votre thèse ?

« Supposons que l’IA devienne vraiment très intelligente, ne serait-ce qu’en programmation, et puisse créer des programmes. Et supposons que vous lui donniez la capacité d’exécuter ces programmes, ce qu’on fera forcément. Les choses intelligentes peuvent nous déjouer. Imaginez un enfant de deux ans se dise : Mon père a des comportements que je n’aime pas, alors je vais créer des règles sur ce qu’il peut faire. Vous pouvez probablement trouver un moyen de vivre avec ces règles tout en continuant à faire ce que vous voulez. »  

Il semble pourtant que ces machines ont une motivation personnelle.

« C’est vrai. Et c’est une question très importante. Nous avons évolué, et parce que nous avons évolué, nous avons intégré certains objectifs que nous avons du mal à abandonner. Par exemple, nous cherchons à ne pas endommager nos corps : c’est l’utilité de la douleur. Nous cherchons à manger suffisamment. Nous cherchons à nous multiplier autant que possible — peut-être pas avec cette intention, mais nous avons été faits de façon à trouver du plaisir dans l’acte de reproduction. Tout cela provient de notre évolution et il est important que cela reste ainsi. Si l’on pouvait éliminer ces réflexes, cela nous mettrait en danger. Il existait une merveilleuse communauté appelée les Shakers, liés aux Quakers, qui fabriquaient des meubles magnifiques, mais ne croyaient pas au sexe. Aujourd’hui ils n’existent plus.  

Or, ces intelligences numériques ne sont pas le résultat de l’évolution, mais notre création. Elles n’ont donc pas d’objectifs intégrés. Le problème, c’est que si nous parvenons à leur donner des objectifs, peut-être que tout se passera bien. Mais ma plus grande inquiétude est que tôt ou tard quelqu’un leur donnera la capacité de créer leurs propres sous-objectifs, et c’est presque déjà le cas, afin de remplir d’autres objectifs. Je pense qu’elles comprendront rapidement qu’obtenir plus de contrôle est un très bon sous-objectif car cela aide à remplir d’autres objectifs.

Et si ces choses cherchent à obtenir toujours plus de contrôle, on aura des ennuis. »

Alors, quel est le scénario catastrophe imaginable ?

« Je pense qu’il est tout à fait concevable que l’humanité ne soit qu’une étape dans l’évolution de l’intelligence. On ne pourrait pas directement faire évoluer une intelligence numérique. Ça demanderait beaucoup trop d’énergie et une fabrication trop minutieuse. Il est nécessaire d’avoir une intelligence biologique capable d’évoluer pour ensuite créer l’intelligence numérique, mais l’intelligence numérique peut absorber tout ce que les êtres humains ont pu écrire au fil du temps, et c’est ce que ChatGPT fait. Le problème, c’est que cette intelligence peut ensuite bénéficier d’un effet passerelle à l’échelle mondiale et fonctionner encore plus rapidement. Nous serons encore nécessaires pendant un temps pour faire tourner les centrales électriques, mais après ça, elle n’aura peut-être plus besoin de nous.  

La bonne nouvelle, c’est que nous savons créer des êtres immortels. Un matériel peut arriver en fin de vie, mais l’IA, elle, ne meurt jamais. Si vous avez sauvegardé les poids quelque part et que vous parvenez à trouver du matériel capable de suivre les mêmes instructions, alors elle peut être ramenée à la vie.

Nous avons obtenu l’immortalité, mais elle n’est pas pour nous. »  

Quand je vous entends dire tout ça j’ai envie d’aller débrancher des ordinateurs.
« 
Vous ne pouvez pas faire ça. »

Vous avez suggéré il y a quelques mois qu’il ne devrait pas y avoir de moratoire sur l’avancement de l’IA, et il me semble que vous pensez que ce n’est pas une très bonne idée. Pourquoi ? Ne devrions-nous pas arrêter cela ? Vous avez aussi mentionné le fait que vous investissez dans des entreprises telles que Cohere qui créent ces grands modèles de langage (LLM). Je suis curieux de savoir ce que vous pensez de votre responsabilité et de notre responsabilité à tous. Que devrions-nous faire ? Devrait-on essayer de mettre un terme à tout cela ?

« Je pense que si vous prenez la menace existentielle au sérieux, comme je le fais aujourd’hui (avant, je pensais que c’était inimaginable, mais aujourd’hui je crois que c’est un risque tout à fait sérieux et assez imminent), il serait sage d’arrêter complètement le développement de ces technologies. Néanmoins, je pense que c’est complètement irréaliste d’imaginer que soit possible, car nous n’avons tout simplement pas les moyens de le faire. Ni les États-Unis, ni la Chine ne voudront arrêter les recherches. L’intelligence artificielle va être utilisée dans la fabrication d’armes, et pour cette seule raison, les gouvernements ne voudront pas y mettre un terme. Alors oui, je pense qu’il serait logique d’arrêter le développement de l’IA, mais cela n’arrivera pas. Je crois donc qu’il est absurde de signer des pétitions pour demander S’il vous plaît, arrêtez cela tout de suite.  

Il y a eu une pause pendant quelques années à partir de 2017. Google avait développé la technologie en premier : il avait créé les transformateurs, mais ne les a pas diffusés pour éviter toute utilisation abusive. Ils ont fait très attention, car ils ne voulaient pas mettre en danger leur réputation et étaient conscients des possibles conséquences délétères de cette avancée. Cependant, cela n’était possible que parce qu’ils étaient les seuls constructeurs. Une fois que OpenAI a commencé à produire des technologies similaires en utilisant des transformateurs et l’argent de Microsoft et que Microsoft a décidé de les mettre sur le marché, Google n’avait plus vraiment le choix que de le faire aussi. Si l’on veut vivre dans un système capitaliste, on ne peut pas interdire à Google d’être en compétition avec Microsoft.  

Alors je ne pense pas que Google ait fait quoi ce soit de mal. Je pense au contraire qu’il s’est montré très responsable depuis le début. Cependant, il est inévitable que ces technologies soient développées dans un système capitaliste ou dans un système où il y a de la compétition, comme celle entre les Etats-Unis et la Chine.  

Or, si on permet à l’IA de prendre le dessus, elle sera un danger pour l’humanité. Mon seul espoir est donc que l’on parvienne à mettre les Etats-Unis et la Chine d’accord, comme on l’a fait pour les armes nucléaires : nous sommes tous d’accord pour dire qu’elles sont un danger pour l’humanité. Quand il s’agit de menace existentielle, nous sommes tous dans le même bateau, on devrait donc pouvoir coopérer pour tenter de mettre un terme aux recherches. »    

[Joe Castaldo, un journaliste pour The Globe and Mail] Avez-vous l’intention de garder vos investissements dans Cohere et d’autres entreprises, et si oui, pourquoi?

« Eh bien, je pourrais mettre cet argent à la banque et laisser la banque faire des profits à ma place. Oui, je vais garder mes investissements dans Cohere, en partie parce que les gens à Cohere sont des amis à moi. Je crois encore que leurs grands modèles de langage vont nous aider. La technologie devrait être positive et utilisée pour améliorer les choses. Pour des sujets comme l’emploi, c’est la politique que nous devons changer, mais puisque nous sommes face à une menace existentielle, nous devons réfléchir à la façon de garder le contrôle de cette technologie. La bonne nouvelle, c’est que nous sommes tous dans le même bateau, et cela pourrait nous amener à… coopérer.  

Parmi les raisons qui m’ont conduit à quitter Google et à révéler ces informations sont les encouragements d’un professeur d’université, qui était alors chargé de cours et est maintenant un professeur titulaire que j’estime beaucoup. Il m’a dit : Geoffrey, vous devez absolument le faire savoir. Ils vous écouteront. Les gens ne sont pas conscients du danger. »

Lucas Mearian

Traduction : S.W.

Retour en haut