Intelligence artificielle : l’un de ses pionniers quitte Google pour alerter sur ses dangers
À 75 ans, Geoffrey Hinton est considéré comme "le parrain de l'IA"
Geoffrey Hinton a annoncé son départ de Google, pour qui il travaillait sur l’intelligence artificielle depuis une dizaine d’années. Le chercheur, primé en 2018 pour ses recherches, alerte sur les dangers de l’intelligence artificielle générative, comme celle utilisée par ChatGPT.
Dans le milieu de l’intelligence artificielle, il est surnommé "le parrain". Geoffrey Hinton a annoncé, la semaine dernière, son départ de Google, a annoncé lundi le New York Times, qui a rencontré ce chercheur britannique âgé de 75 ans, qui s’est spécialisé dans l’intelligence artificielle depuis le début de ses travaux en 1972, et considéré comme l’un des pionniers de cette technologie. Geoffrey Hinton est notamment connu pour avoir gagné le prix Turing (sorte de prix Nobel de l'informatique) avec le Français Yann Le Cun, qui dirige actuellement le laboratoire d’Intelligence Artificielle de Meta.
Geoffrey Hinton affirme qu'il a quitté Google, où il travaillait depuis plus de dix ans, pour parler librement des dangers de l’AI. Il ne s’était, jusqu’à présent, joint ni à la lettre de plus de 1 000 personnes qui ont demandé un moratoire sur la recherche en intelligence artificielle pendant six mois, ni à celle des dirigeants de l’Association pour l’Avancée de l’Intelligence artificielle (dont fait partie Eric Hotvitz, le directeur scientifique de Microsoft) qui a aussi mis en garde contre les dérives du secteur.
"C'est effrayant"
Mais après avoir donné sa démission et échangé avec le PDG de la maison mère de Google, Sundar Pichai, le chercheur s’autorise à alerter sur ce qui, selon lui, constitue un danger. Selon Geoffrey Hinton, jusqu’à l’année dernière, si les progrès de ce que l’on appelle les "réseaux de neurones" en intelligence artificielle, des systèmes mathématiques conçus pour apprendre à s’améliorer grâce à l’analyse de données, étaient puissants, ils restaient inférieurs au langage humain.
À réécouter : Les deux visages de l'intelligence artificielle
Ce n’est, selon lui, plus vrai : avec l’augmentation du nombre de données qui entraînent les intelligences artificielles, "peut-être que ce qu’il se passe dans ces systèmes est en réalité bien mieux que ce qu’il se passe dans un cerveau humain". Et cela va trop vite selon lui : "Regardez comment était le paysage de l’IA il y a cinq ans, et ce qu'il est devenu. Prenez cette différence, et imaginez maintenant ce qui pourra être différent dans cinq ans. C'est effrayant", déclare-t-il au quotidien américain.
Une compétition inarrêtable ?
Il dit ainsi de Google, son ancien employeur, qu’il gérait bien la question, prenant soin de ne pas publier de logiciel sans être sûr qu’il soit sans risque. Mais l’arrivée de ChatGPT dans Bing, le moteur de recherche de Microsoft, a rebattu les cartes : "Les géants de la tech sont enfermés dans une compétition qui semble difficile à arrêter".
À lire aussi : "L’IA amplifie l’intelligence humaine comme la machine amplifie la force", juge l’un de ses pères, Yann le Cun
Si Geoffrey Hinton sait de quoi il parle, c’est parce que ce principe de "réseau de neurones", c’est lui qui l’a imaginé. En 1972, il a théorisé cette idée ; et en 2012, après avoir refusé des financements du Pentagone dans les années 80, il a réussi à mettre au point, avec deux de ses étudiants, un vrai réseau neuronal. Google a racheté son entreprise pour 44 millions de dollars. C’est aujourd’hui ce système qui est à la base des développements de l’intelligence artificielle, y compris pour ChatGPT et sa maison mère OpenAI… dont l’un des chercheurs en chef est Ilya Sutskever, l’un des deux étudiants avec qui Hinton a crée son réseau neuronal en 2012.
Un danger pour l'humanité ? Sans régulation mondiale, dit le chercheur primé pour ses inventions en 2018, cette course ne s’arrêtera pas. Or, "contrairement à l’arme nucléaire, il n’y a aucun moyen de savoir si des entreprises ou des pays travaillent sur cette technologie en secret", déplore-t-il. Et le risque pèse d'abord sur l'information, avec le risque de fausses informations ou de fausses images largement diffusées, mais aussi sur les emplois ("Aujourd'hui, cela permet d'éviter les corvées, demain, ce sera sûrement beaucoup plus"), et plus globalement... l'humanité : Geoffrey Hinton affirme qu'avec la quantité astronomique de données qui est fournie aux intelligences artificielles, celles-ci peuvent adopter des comportements inattendus, qui auraient échappé à un humain. Or cela pose problème "à partir du moment où des individus ont autorisé des IA non seulement à créer du code informatique, mais aussi à l'exécuter toutes seules". À réécouter : L'intelligence artificielle ChatGPT signe-t-elle la mort de Google ? "Cette idée que tous ces trucs deviennent plus intelligents que les gens, je pensais qu’elle était à 30 à 50 ans de nous. Evidemment, je ne pense plus cela", affirme Geoffrey Hinton, qui dit aujourd’hui regretter une partie de son travail passé – "je me console avec l’excuse habituelle, si je ne l’avais pas fait, quelqu’un d’autre l’aurait fait", a-t-il déclaré au New-York Times. "Il est impossible d'imaginer comment empêcher des acteurs malveillants de l'utiliser pour faire de mauvaises choses", regrette-t-il.