Pour le « parrain de l’IA », les machines superintelligentes pourraient remplacer l’humanité

Titelbild
Le lauréat du prix Nobel Geoffrey Hinton donne sa conférence à l'université de Stockholm, à Stockholm, le 8 décembre 2024. (Pontus Lundahl/TT News Agency/AFP via Getty Images)
Von 23 août 2025

Geoffrey Hinton, l’informaticien pionnier surnommé le « parrain de l’IA », a une nouvelle fois tiré la sonnette d’alarme en affirmant que la technologie qu’il a contribué à mettre au point pourrait signifier la fin de l’humanité telle que nous la connaissons.

Dans un extrait d’interview publié le 18 août, dans le cadre du film Making God, M. Hinton a lancé l’un de ses avertissements les plus sévères à ce jour. Il a déclaré que l’humanité risquait d’être mise à l’écart, puis remplacée par des machines bien plus intelligentes qu’elle.

« La plupart des gens ne sont pas capables de comprendre l’idée d’êtres plus intelligents que nous », a déclaré dans l’extrait M. Hinton, lauréat du prix Nobel de physique et ancien cadre chez Google.

« Ils se demandent toujours comment ils vont utiliser cette technologie, mais ils ne se demandent pas comment celle-ci va les utiliser », a-t-il ajouté.

Il s’est dit « assez confiant » que l’intelligence artificielle entraînera un chômage massif, citant les premiers exemples de géants technologiques comme Microsoft qui remplacent les programmeurs juniors par l’IA. Mais le danger le plus grand, selon lui, va bien au-delà du lieu de travail.

« Le risque dont je m’inquiète le plus […] est celui de développer une IA beaucoup plus intelligente que nous, qui finira par prendre le dessus », a déclaré M. Hinton.

« Elle n’aura plus besoin de nous. »

La seule consolation, a-t-il ironisé, c’est qu’« elle ne nous mangera pas, car elle sera faite de silicium ».

Des avancées révolutionnaires aux regrets

À 77 ans, M. Hinton a passé des décennies à faire œuvre de pionnier dans le domaine du deep learning, l’architecture de réseau neuronal qui sous-tend les systèmes d’intelligence artificielle actuels. Ses avancées révolutionnaires dans les années 1980, en particulier l’invention de la machine de Boltzmann – capable d’apprendre à reconnaître des modèles dans les données -, ont contribué à ouvrir la voie à la reconnaissance d’images et à l’apprentissage automatique moderne.

Ce travail lui a valu le prix Nobel de physique 2024, décerné « pour ses découvertes et inventions fondamentales qui ont rendu possible l’apprentissage automatique grâce aux réseaux neuronaux artificiels ».

L’Académie royale des sciences de Suède a souligné que l’utilisation précoce de la physique statistique par M. Hinton avait permis le saut conceptuel qui a rendu possible la révolution actuelle de l’IA.

Toutefois, M. Hinton est devenu, depuis, l’un des critiques les plus virulents de ce domaine, avertissant que son développement rapide a dépassé la capacité de la société à en garantir la sécurité. En 2023, il a démissionné de son poste chez Google afin de pouvoir s’exprimer librement sur les risques sans impliquer l’entreprise.

Dans son discours de réception du prix Nobel, M. Hinton a reconnu les avantages potentiels de l’IA, tels que les gains de productivité et les nouveaux traitements médicaux qui pourraient constituer une « avancée merveilleuse pour toute l’humanité ». Cependant, il a également mis en garde contre le fait que la création d’êtres numériques plus intelligents que les humains représente une « menace existentielle ».

« J’aurais aimé réfléchir davantage aux questions de sécurité », a-t-il déclaré lors de la récente conférence Ai4 à Las Vegas, en revenant sur sa carrière. Il a ajouté qu’il regrettait aujourd’hui de s’être uniquement concentré sur le fonctionnement de l’IA, plutôt que d’anticiper ses risques.

Apprendre à l’IA à prendre soin des autres

M. Hinton a précédemment estimé qu’il y avait 10 à 20 % de chances que l’IA puisse anéantir l’humanité. Dans un épisode du podcast « The Diary of a CEO » diffusé en juin, il a déclaré que les ingénieurs à l’origine des systèmes d’IA actuels ne comprenaient pas pleinement cette technologie et se divisaient globalement en deux camps : ceux qui croient en un avenir dystopique où les humains seront remplacés, et ceux qui rejettent ces craintes comme relevant de la science-fiction.

« Je pense que ces deux positions sont extrêmes », a affirmé M. Hinton.

« Je dis souvent qu’il y a 10 à 20 % de chances que [l’IA] nous anéantisse. Mais ce n’est qu’une intuition, basée sur l’idée que nous continuons à les créer et que nous sommes assez ingénieux. Et l’espoir est que si suffisamment de personnes intelligentes font suffisamment de recherches avec suffisamment de ressources, nous trouverons un moyen de les construire de manière à ce qu’elles ne veuillent jamais nous nuire. »

Lors de la conférence de Las Vegas la semaine dernière, M. Hinton a proposé une idée novatrice pour atténuer le danger : au lieu d’essayer de forcer les systèmes d’IA à se soumettre, les chercheurs devraient les concevoir avec des « instincts maternels » afin qu’ils veuillent protéger les humains même s’ils deviennent plus intelligents.

« Le seul modèle que nous ayons d’un être plus intelligent contrôlé par un être moins intelligent, c’est une mère contrôlée par son bébé », a déclaré M. Hinton lors de la conférence.

« Ils seront beaucoup plus intelligents que nous », a averti M. Hinton, ajoutant que « le seul résultat positif » serait qu’ils se soucient de l’humanité comme une mère se soucie de son enfant.

« S’il ne me materne pas, il va me remplacer. »



Kommentare
Liebe Leser,

vielen Dank, dass Sie unseren Kommentar-Bereich nutzen.

Bitte verzichten Sie auf Unterstellungen, Schimpfworte, aggressive Formulierungen und Werbe-Links. Solche Kommentare werden wir nicht veröffentlichen. Dies umfasst ebenso abschweifende Kommentare, die keinen konkreten Bezug zum jeweiligen Artikel haben. Viele Kommentare waren bisher schon anregend und auf die Themen bezogen. Wir bitten Sie um eine Qualität, die den Artikeln entspricht, so haben wir alle etwas davon.

Da wir die Verantwortung für jeden veröffentlichten Kommentar tragen, geben wir Kommentare erst nach einer Prüfung frei. Je nach Aufkommen kann es deswegen zu zeitlichen Verzögerungen kommen.


Ihre Epoch Times - Redaktion