Papier prétend que l'IA peut être une civilisation
Si des extraterrestres sont là-bas, pourquoi ne nous ont-ils pas encore contactés? Il se peut, selon un nouvel article, qu’ils – ou, à l’avenir, nous – soient inévitablement anéantis par une intelligence artificielle ultra-forte, victimes de notre propre volonté de créer un être supérieur.
Cette réponse potentielle au paradoxe de Fermi – dans lequel le physicien Enrico Fermi et les générations suivantes posent la question: « Où est tout le monde? » – vient du chercheur Mark M. Bailey, chercheur à la National Intelligence University, qui, dans un nouvel article qui n’a pas encore été examiné par des pairs, postule que l’IA avancée peut être exactement le genre de risque catastrophique qui pourrait anéantir des civilisations entières.
Bailey cite l’IA surhumaine comme un « grand filtre » potentiel, une réponse potentielle au paradoxe de Fermi dans lequel une menace terrible et inconnue, artificielle ou naturelle, anéantit la vie intelligente avant qu’elle ne puisse entrer en contact avec les autres.
« Pour quiconque s’inquiète du risque catastrophique mondial, une question qui donne à réfléchir », écrit Bailey. « Le Grand Filtre est-il dans notre passé, ou est-ce un défi que nous devons encore surmonter ? »
Nous, les humains, note le chercheur, sommes « terribles pour estimer intuitivement le risque à long terme », et compte tenu du nombre d’avertissements déjà émis au sujet de l’IA – et de son point final potentiel, une intelligence artificielle générale ou AGI – il est possible, soutient-il, que nous puissions invoquer notre propre disparition.
« Une façon d’examiner le problème de l’IA est à travers le prisme de l’argument de la deuxième espèce », poursuit le document. « Cette idée envisage la possibilité que l’IA avancée se comporte effectivement comme une deuxième espèce intelligente avec laquelle nous partagerons inévitablement cette planète. Compte tenu de la façon dont les choses se sont passées la dernière fois que cela s’est produit – lorsque les humains modernes et les Néandertaliens ont coexisté – les résultats potentiels sont sombres.
Encore plus effrayant, note Bailey, est la perspective d’une superintelligence artificielle (ASI) quasi divine, dans laquelle une AGI surpasse l’intelligence humaine parce que « toute IA capable d’améliorer son propre code serait probablement motivée à le faire ».
« Dans ce scénario, les humains abandonneraient leur position d’espèce intelligente dominante sur la planète avec des conséquences potentiellement calamiteuses », émet l’hypothèse de l’auteur. « Comme les Néandertaliens, notre contrôle sur notre avenir, et même sur notre existence même, peut prendre fin avec l’introduction d’un concurrent plus intelligent. »
Il n’y a pas encore, bien sûr, de preuve directe suggérant que les IA extraterrestres ont anéanti la vie naturelle dans toutes les civilisations extraterrestres, bien que, de l’avis de Bailey, « la découverte d’une intelligence extraterrestre artificielle sans preuve simultanée d’une intelligence biologique préexistante ferait certainement bouger l’aiguille ».
La possibilité, bien sûr, soulève la possibilité qu’il y ait des IA destructrices qui persistent autour de l’univers après avoir éliminé leurs créateurs. À cette fin, Bailey suggère utilement que « signaler activement notre existence d’une manière détectable par une telle IA extraterrestre peut ne pas être dans notre meilleur intérêt » parce que « toute IA extraterrestre compétitive peut être encline à chercher des ressources ailleurs – y compris sur Terre ».
« Bien que cela puisse sembler de la science-fiction, il est probable qu’un ... une technologie comme l’IA serait un candidat probable pour le Grand Filtre – qu’elle soit organique pour notre planète ou d’origine extraterrestre », conclut Bailey. « Nous devons nous poser la question ; Comment nous préparons-nous à cette éventualité ? »
Lecteur, c’est bizarre – mais encore une fois, nous sommes heureux que quelqu’un l’envisage.
En savoir plus sur une apocalypse de l’IA : Warren Buffett compare l’IA à la bombe atomique
En savoir plus sur une apocalypse de l’IA :