- Vitalik Buterin considère l’IA comme, potentiellement, la prochaine espèce dominante sur Terre.
- Il évoque un risque d’extinction humaine causé par une IA « superintelligente ».
- Le cofondateur suggère l’intégration de puce « BCI » dans le cerveau des humains.
L’IA, un risque pour l’humanité ?
Le cofondateur d’Ethereum, Vitalik Buterin, a récemment émis un avertissement concernant l’intelligence artificielle (IA), la qualifiant de force potentiellement dangereuse pour l’humanité toute entière.
Contrairement aux autres avancées technologiques, comme Internet, ou encore l’invention de l’imprimante, Vitalik explique que l’IA représente une catégorie à part en raison de son « potentiel à révolutionner la société ».
Cependant, il souligne que l’IA, si elle n’est pas contrôlée, pourrait devenir une menace existentielle, capable de percevoir les humains comme une menace et conduisant à des conséquences catastrophiques, comme l’extinction de l’humanité.
Il note que l’IA, en gagnant rapidement en intelligence, pourrait dépasser les capacités mentales humaines et devenir la nouvelle espèce dominante sur la planète.
“L’IA est […] un nouveau type d’esprit qui gagne rapidement en intelligence, et elle a de sérieuses chances de dépasser les facultés mentales des humains et de devenir la nouvelle espèce suprême de la planète.”
Selon Vitalik Buterin
IA et Humanité : Coexistence ou Domination ?
Buterin incite à réfléchir à un avenir où l’IA domine la planète, s’inspirant de la série « Culture » de Lain Banks où humains et IA puissantes vivent en harmonie.
Cette perspective promet longévité et bien-être, mais au risque de céder le contrôle aux machines. Cela pose une interrogation fondamentale sur notre relation future avec l’IA : serons-nous des acteurs à part entière ou de simples spectateurs dans un univers contrôlé par l’IA ?
Pour appuyer ses propos concernant les risques liés à l’évolution de l’IA, le cofondateur d’Ethereum mentionne un sondage datant d’août 2022 auprès de chercheurs en apprentissage automatique, qui estiment à « 5-10% la probabilité que l’IA puisse causer l’extinction de l’humanité.«
Les solutions proposées par Vitalik Buterin
Pour contrer ce risque, Buterin suggère d’intégrer des interfaces cerveau-ordinateur (BCI) qui donneraient aux humains plus de contrôle sur les formes puissantes de calcul basées sur l’IA.
Selon lui, cette approche réduirait la « boucle de communication bidirectionnelle » entre l’homme et la machine de secondes à millisecondes, garantissant ainsi aux humains un certain degré de contrôle sur le monde.
Buterin souligne également que la maximisation des profits ne conduit pas toujours les humains sur le chemin le plus souhaitable, ajoutant qu’il serait préférable de favoriser une approche où l’humain guide l’IA vers des objectifs alignés avec le bien-être et les intérêts à long terme de l’humanité.