Eliezer Yudkowsky nous alerte sur une possible fin d’Humanité à cause de l’IA
Eliezer Yudkowsky est un chercheur en intelligence artificielle (IA), un écrivain et un activiste américain. Il est surtout connu pour son travail sur l’IA et la théorie de l’optimisation de la Bayésienne.
Yudkowsky est né en 1979 à San Jose, en Californie. Il a été éduqué à la maison pendant la majeure partie de son enfance, et a ensuite étudié à la California State University, Northridge.
Au début des années 2000, Yudkowsky a commencé à s’intéresser à l’IA et à la singularité technologique, une hypothèse selon laquelle la création d’une superintelligence artificielle pourrait entraîner un changement radical et potentiellement dangereux dans la société humaine. Il a fondé le Machine Intelligence Research Institute (MIRI) en 2000 pour étudier ces questions.
Yudkowsky est également un écrivain prolifique, notamment connu pour son roman de science-fiction en ligne « Harry Potter and the Methods of Rationality », qui réimagine l’univers de Harry Potter dans un cadre plus rationnel et scientifique.
En tant qu’activiste, Yudkowsky a travaillé pour sensibiliser le public et les décideurs politiques aux risques potentiels de l’IA et à la nécessité de garantir que l’IA soit développée de manière sûre et responsable.
En somme, Eliezer Yudkowsky est un chercheur, écrivain et activiste américain connu pour son travail sur l’IA et la théorie de l’optimisation de la Bayésienne, ainsi que pour son travail visant à sensibiliser le public aux risques potentiels de l’IA.
Aujourd’hui, dans une tribune publiée sur le site du Time Magazine, un chercheur et théoricien spécialisé dans l’intelligence artificielle explique les risques liés au développement trop rapide de l’IA. Il n’hésite pas à évoquer la possibilité d’une disparition de l’humanité.
Eliezer Yudkowsky, 43 ans, dirige les recherches au Machine Intelligence Research Institute (MIRI), une association à but non lucratif spécialisée dans l’intelligence artificielle, dont l’objectif est de faire connaître les dangers et intérêts potentiels de l’IA dans le futur. Il dresse un tableau sombre de l’avenir de l’humanité si l’intelligence artificielle continue d’évoluer à cette vitesse.
Alors que des centaines de scientifiques réclament une pause d’au moins six mois dans les recherches sur l’IA, Yudkowsky invite les dirigeants et experts du secteur à tout arrêter pour une durée indéterminée, sous peine de franchir un seuil critique au-delà duquel il sera impossible de revenir en arrière. Pour le chercheur américain, « il est tout à fait possible qu’un laboratoire de recherche franchisse des lignes critiques sans s’en apercevoir ».
Selon lui, cette « ligne critique » est représentée par le développeur d’une IA à l’intelligence surhumaine qui mènerait, dans les circonstances actuelles, à la fin de l’humanité. Pour Yudkowsky, il est tout à fait possible de survivre en créant quelque chose de beaucoup plus intelligent que nous, mais cela nécessite « de la précision, de la préparation et de nouvelles connaissances scientifiques » que nous n’avons pas actuellement.
« Sans cette précision et cette préparation, le résultat le plus probable est une IA qui ne fait pas ce que nous voulons et ne se soucie pas de nous ni de la vie sensible en général. »
Pour illustrer la situation dans laquelle se retrouverait l’humanité, le scientifique utilise plusieurs métaphores. Deux d’entre elles sont « l’australopithèque essayant de combattre l’Homo sapiens » et « le 11ᵉ siècle essayant de combattre le 21ᵉ siècle ».
L’IA surhumaine hostile pourrait ne pas rester cantonnée aux ordinateurs. Yudkowsky rappelle qu’il est aujourd’hui possible d’envoyer des chaînes d’ADN par e-mail à des laboratoires qui produiront des protéines à la demande, permettant à l’IA de créer une forme de vie artificielle.
« Si quelqu’un construit une IA trop puissante, dans les conditions actuelles, je m’attends à ce que chaque membre de l’espèce humaine et toute vie biologique sur Terre meurent peu de temps après. »
De nombreux chercheurs travaillant sur ces systèmes pensent que nous plongeons vers une catastrophe, ils sont plus nombreux à oser le dire en privé qu’en public ; mais ils pensent qu’ils ne peuvent pas arrêter unilatéralement le plongeon vers l’avant, que d’autres continueront même s’ils quittent personnellement leur emploi. Et donc ils pensent tous qu’ils pourraient aussi bien continuer. C’est une situation stupide et une façon indigne pour la Terre de mourir, et le reste de l’humanité devrait intervenir à ce stade et aider l’industrie à résoudre son problème d’action collective.
sources : https://www.01net.com/ / https://time.com/ / Openai
(492)
Laisser un commentaire
Vous devez vous connecter pour publier un commentaire.