Le monde à l’orée d’une super intelligence artificielle pour 2027
Nous n’avons peut-être pas encore atteint l’intelligence artificielle générale (AGI), mais, comme l’affirme l’un des principaux experts dans ce domaine, elle pourrait arriver plus tôt que prévu.
Lors de son discours de clôture du Beneficial AGI Summit de cette année au Panama, l’informaticien et passionné Ben Goertzel a déclaré que, même s’il est très probable que l’on ne construise pas d’IA de niveau humain ou surhumain avant 2029 ou 2030, il y a une chance que cela se produise dès 2027.
Ensuite, selon le fondateur de SingularityNET, l’AGI pourrait évoluer rapidement vers une superintelligence artificielle (ASI), qu’il définit comme une IA dotée de toutes les connaissances combinées de la civilisation humaine.
« Personne n’a encore créé d’intelligence générale artificielle de niveau humain ; personne ne sait vraiment quand nous y parviendrons », a déclaré M. Goertzel à l’auditoire de la conférence. « Je veux dire qu’il y a des inconnues connues et probablement des inconnues inconnues.
« D’un autre côté, il me semble tout à fait plausible que nous puissions parvenir à une IAG de niveau humain d’ici, disons, les trois à huit prochaines années », a-t-il ajouté.
Pour être honnête, M. Goertzel est loin d’être le seul à tenter de prédire quand l’AGI verra le jour.
À l’automne dernier, par exemple, Shane Legg, cofondateur de Google DeepMind, a réitéré sa prédiction vieille de plus de dix ans selon laquelle il y a une chance sur deux que les humains inventent l’AGI d’ici à 2028. Dans un tweet datant de mai dernier, le « parrain de l’IA » et ex-Googler Geoffrey Hinton a déclaré qu’il prédisait maintenant, « sans grande confiance », que l’AGI ne verrait le jour que dans cinq à vingt ans.
Plus connu en tant que créateur du robot humanoïde Sophia, Goertzel a longtemps théorisé sur la date de ce que l’on appelle la « singularité », c’est-à-dire le moment où l’IA atteindra une intelligence de niveau humain et la dépassera par la suite.
Jusqu’à ces dernières années, l’AGI, telle que Goertzel et ses collègues la décrivent, semblait être une chimère, mais avec les progrès réalisés par OpenAI en matière de grands modèles de langage (LLM) depuis qu’elle a lancé ChatGPT à la fin de l’année 2022, cette possibilité semble de plus en plus proche – bien qu’il s’empresse de souligner que les LLM en eux-mêmes ne sont pas ce qui mènera à l’AGI.
« Je pense qu’une fois que vous aurez atteint le niveau humain de l’AGI, dans quelques années, vous pourrez obtenir une AGI radicalement surhumaine, à moins que l’AGI ne menace de freiner son propre développement par conservatisme », a ajouté le pionnier de l’IA. « Je pense qu’une fois qu’une AGI sera capable d’introspecter son propre esprit, elle pourra faire de l’ingénierie et de la science à un niveau humain ou surhumain.
« Elle devrait être capable de créer une AGI plus intelligente, puis une AGI encore plus intelligente, et enfin une explosion d’intelligence », a-t-il ajouté, faisant sans doute référence à la singularité.
Naturellement, il y a beaucoup de réserves à ce que Goertzel prône, selon les normes humaines, même une IA surhumaine n’aurait pas d' »esprit » comme nous en avons. Il y a aussi l’hypothèse selon laquelle l’évolution de la technologie se poursuivrait de manière linéaire, comme si elle était isolée du reste de la société humaine et des dommages que nous infligeons à la planète.
Quoi qu’il en soit, il s’agit d’une théorie convaincante et, compte tenu de la rapidité avec laquelle l’IA a progressé au cours des seules dernières années, ses commentaires ne devraient pas être entièrement discrédités.
Adaptation Terra Projects
Source : https://futurism.com/
(223)
Laisser un commentaire
Vous devez vous connecter pour publier un commentaire.