Faut-il détruire les datacenters pour se prémunir des dangers de l’IA ? C’est ce que préconise un chercheur en sécurité de l’intelligence artificielle (IA) qui diagnostique la disparition de l’Espèce humaine et de la vie biologique.
Dans un article publié dans Time Magazine, Eliezer Yudkowsky – théoricien de la prise de décision, spécialiste de l’alignement des systèmes d’IA avec les objectifs et intérêts de leurs concepteurs, et à l’origine du concept d’IA conviviale – a déclaré que l’avenir de l’humanité est en jeu si des mesures immédiates ne sont pas être prises pour empêcher la catastrophe.
« Si quelqu’un construit une IA trop puissante, dans les conditions actuelles, je m’attends à ce que chaque membre de l’espèce humaine et toute vie biologique sur Terre meurent peu de temps après.«
Le danger vient du risque que l’IA devienne plus intelligente que l’homme… Et c’est ce qui arrive – les développeurs affirment aujourd’hui entrer dans la phase de l’intelligence « human-competitive » -, le risque est de construire des IA surhumaines, qui ne se soucient ni de l’homme ni de la vie, ce qui entraînera la perte de l’humanité. Et cela sans que les IA n’aient conscience du phénomène…
Sa théorie repose sur le manque de transparence des IA de dernière génération comme ChatGPT. Il s’inquiète en particulier du projet d’OpenAI de créer une IA qui aide à l’alignement d’autres IA, ce qui se traduirait par une accélération des zones d’ombre des IA, et donc à l’accélération des dangers portés par l’IA.
Il rappelle également que si l’IA se trompe à sa première utilisation, l’erreur demeure et l’IA ne pas pas apprendre de ses erreurs. L’humanité n’a-t-elle pas toujours progressé en apprenant de ses erreurs ?
L’idée qu’il développe est de mettre en place un moratoire de six mois sur les développement de l’IA, comme le propose une lettre ouverte récemment dévoilé par des géants du numérique comme Elon Musk. Même si Eliezer Yudkowsky estime que ce n’est pas suffisant : « La lettre sous-estime la gravité de la situation et demande trop peu pour la résoudre« .
Mais il va plus loin : il invite à identifier et suivre la vente de chaque GPU, car ce sont les moteurs de l’IA, et à en plafonner la puissance autorisée. Il faut également fermer les grands clusters de GPU où l’IA s’exécute. Et cela même si les projets sont gouvernementaux et militaires.
C’est là où interviennent les datacenters. Dans les process de l’IA, les datacenters agissent comme des cortex neurologiques numériques. Or, il en est certain, si les autorités mondiales adoptent des décisions drastiques, certains n’hésiteront pas à faire migrer les IA et leur exploitation sur des centres de calcul qui ne respecteront pas les règles, donc des datacenters qu’il qualifie de ‘voyous’ (rogue).
Et là, Eliezer Yudkowsky propose une stratégie radicale : démanteler les datacenters voyous qui ne respectent pas le moratoire, les réglementations ou qui continuent d’exploiter les IA. Quitte d’ailleurs à les détruire en les bombardant ! Radical, certes, il y va de la survie de l’humanité !