Dans un entretien avec Tucker Carlson, Elon Musk prévient que l’IA pourrait provoquer une « destruction de civilisation »

Titelbild
Elon Musk prend la parole lors de la 2020 Satellite Conference and Exhibition à Washington le 9 mars 2020. (Win McNamee/Getty Images)
Von 16 avril 2023

Le magnat de la technologie Elon Musk sonne l’alarme sur les risques de l’intelligence artificielle (IA), en particulier sur son potentiel de « détruire la civilisation ».

Dans un extrait de l’entretien qu’il a accordé le 14 avril à Tucker Carlson, sur Fox News, Elon Musk souligne que les ramifications de cette technologie pourraient être désastreuses pour l’humanité.

« L’IA est plus dangereuse que, par exemple, la mauvaise conception d’un avion, une mauvaise maintenance de la production ou une voiture mal conçue, dans le sens où elle a le potentiel – aussi faible que cette probabilité puisse-t-elle être, mais [cette probabilité] n’est pas triviale – elle a le potentiel de détruire la civilisation ».

Le PDG de Tesla, Space X et Twitter est bien placé pour le savoir, puisqu’il a cofondé OpenAI, le laboratoire à but non lucratif qui a créé ChatGPT en 2015.

Des « risques profonds »

ChatGPT est un chatbot interactif dont le prototype a été lancé en novembre en grande pompe et qui a capté l’attention de plus de 100 millions d’utilisateurs. Mais tous les retours n’ont pas été positifs.

Le malaise croissant que suscite l’IA et ses implications a commencé à faire réfléchir de nombreuses personnes, dont M. Musk.

Le mois dernier, le milliardaire (qui n’est plus associé à l’OpenAI) s’est aligné sur des dizaines d’autres experts et dirigeants de l’industrie pour demander à tous les laboratoires d’IA d’interrompre le développement de systèmes plus puissants que GPT-4, propriété d’OpenAI, et a appelé à un moratoire d’au moins six mois dans une lettre datée du 22 mars, qui a depuis recueilli plus de 25.000 signatures.

Estimant que l’IA peut présenter des « risques profonds pour la société et l’humanité », les experts de l’IA expliquent que  » les systèmes d’IA puissants ne devraient être développés que lorsque nous sommes convaincus que leurs effets seront positifs et que leurs risques seront gérables. Cette confiance doit être solide et augmenter en même temps qu’augmente l’ampleur des effets potentiels d’un système ».

Visant plus particulièrement OpenAI, les signataires ont rappelé que l’organisation elle-même avait récemment reconnu que, « à un moment donné », il pourrait être nécessaire d’imposer des limites au taux de croissance de ces systèmes.

« Nous sommes d’accord », écrivent-ils. « Et ce moment, c’est maintenant. »

Toutefois, lors d’une discussion au Massachusetts Institute of Technology le 13 avril, le PDG d’OpenAI, Sam Altman, a estimé que la lettre manquait de « nuances techniques » quant à l’endroit et à la manière dont les travaux devraient être interrompus.

Tout en soulignant qu’il était d’accord sur le fait que la sécurité devait être une priorité, il a précisé que son laboratoire n’était pas en train de travailler sur GPT-5.

« Et nous ne le ferons pas avant un certain temps », a ajouté M. Altman. « Donc, dans ce sens, c’était un peu idiot » précise-t-il, en référence à la lettre.

L’entretien d’Elon Musk lors de l’émission « Tucker Carlson Tonight » devrait être diffusé en deux parties, les 17 et 18 avril aux Etats-Unis, à 20 heures. Parmi les autres sujets qu’il abordera, il parlera de son rachat de Twitter et de ses projets pour la plateforme de réseaux sociaux.



Kommentare
Liebe Leser,

vielen Dank, dass Sie unseren Kommentar-Bereich nutzen.

Bitte verzichten Sie auf Unterstellungen, Schimpfworte, aggressive Formulierungen und Werbe-Links. Solche Kommentare werden wir nicht veröffentlichen. Dies umfasst ebenso abschweifende Kommentare, die keinen konkreten Bezug zum jeweiligen Artikel haben. Viele Kommentare waren bisher schon anregend und auf die Themen bezogen. Wir bitten Sie um eine Qualität, die den Artikeln entspricht, so haben wir alle etwas davon.

Da wir die Verantwortung für jeden veröffentlichten Kommentar tragen, geben wir Kommentare erst nach einer Prüfung frei. Je nach Aufkommen kann es deswegen zu zeitlichen Verzögerungen kommen.


Ihre Epoch Times - Redaktion