L'explosion de l'intelligence est-elle proche ? Une analyse détaillée

Jacky West / June 14, 2024

Essayez Roboto gratuitement et transformez votre façon de créer du contenu !

L'explosion de l'intelligence est-elle proche ? Une analyse détaillée
Tout le monde parle maintenant de l'IA, mais peu de gens ont la moindre idée de ce qui les attend. C'est une citation de Leopold Ashenbrener, récemment licencié d'OpenAI. Il croit que la superintelligence artificielle est imminente et a écrit un essai de 165 pages pour expliquer pourquoi. J'ai passé le week-end dernier à lire cet essai et je vais vous expliquer ce qu'il dit et pourquoi je pense qu'il se trompe.

Contexte sur Leopold Ashenbrener

Leopold Ashenbrener, un jeune homme d'origine allemande dans la vingtaine, a brièvement travaillé au Oxford Center for Global Priorities avant de s'installer à San Francisco, où il a récemment fondé une entreprise d'investissement axée sur l'intelligence artificielle générale (AGI). Dans son nouvel essai, Ashenbrener affirme que les systèmes d'IA actuels se développent incroyablement vite et qu'ils surpasseront bientôt les humains dans presque tous les domaines. Selon lui, les deux principaux facteurs qui contribuent à cette croissance sont l'augmentation des clusters de calcul et les améliorations des algorithmes, aucun de ces facteurs n'étant encore saturé.

Prédictions et Exagérations

Ashenbrener prédit que nous aurons une AGI d'ici 2027, soulignant que l'un des principaux contributeurs à cette avancée sera ce qu'il appelle "la levée des limitations". Par exemple, il suggère que les IA actuelles manquent de mémoire ou ne peuvent pas utiliser elles-mêmes les outils de calcul, mais que ces limitations seront bientôt surmontées.
Il appelle cette levée des limitations "unhobbling", ce qui implique que les IA deviendront capables d'exploiter pleinement leur potentiel sans les contraintes actuelles, telles que le manque de mémoire ou l'incapacité à utiliser des outils logiciels sophistiqués. Selon lui, ces améliorations techniques conduiront à une accélération exponentielle de la performance de l'IA, amenant ainsi l'AGI à un niveau supérieur.

Les Facteurs Limitants : Énergie et Données

Cependant, Ashenbrener sous-estime deux facteurs limitants majeurs : l'énergie et les données. Former des modèles plus grands nécessite une énorme quantité d'énergie. Par exemple, selon Ashenbrener, d'ici 2028, les modèles les plus avancés fonctionneront avec une puissance de 10 GW, et d'ici 2030, avec 100 GW, ce qui coûterait des centaines de milliards, voire des trillions de dollars. Pour comparaison, une centrale électrique typique fournit environ 1 GW. Il faudrait donc construire de nombreuses centrales supplémentaires, ce qui semble irréaliste dans un laps de temps aussi court.

La Problématique de l'Énergie

Le défi énergétique que pose le développement de l'IA à grande échelle est immense. En 2028, selon Ashenbrener, les modèles avancés nécessiteront une puissance de 10 GW, et d'ici 2030, cette demande pourrait atteindre 100 GW, soit l'équivalent de la production de 100 centrales nucléaires. Pour mettre cela en perspective, la centrale nucléaire de Flamanville en France a une capacité de 1,3 GW, ce qui signifie qu'il faudrait construire près de 77 centrales de ce type pour répondre à la demande énergétique prévue par Ashenbrener.
L'argument d'Ashenbrener repose également sur l'utilisation de sources d'énergie renouvelables et de technologies émergentes comme la fusion nucléaire pour alimenter ces superordinateurs. Cependant, ces technologies ne sont pas encore suffisamment avancées pour être déployées à grande échelle. Par exemple, la fusion nucléaire, bien que prometteuse, n'a pas encore atteint le stade où elle peut produire de l'énergie de manière continue et rentable.

Le Défi des Données

En outre, même si nous disposons de toute l'énergie nécessaire, il faut également de vastes quantités de données pour entraîner ces modèles. Ashenbrener propose de déployer des robots pour collecter ces données, mais cela nécessiterait une transformation complète de l'économie mondiale, ce qui est peu probable en quelques années.
La collecte de données à une échelle massive nécessiterait également une infrastructure logistique sophistiquée. Les robots collecteurs de données devraient être capables de naviguer et d'interagir avec le monde physique de manière autonome, ce qui pose des défis techniques considérables. De plus, la gestion et le stockage de ces données massives nécessiteraient des centres de données encore plus vastes et plus puissants que ceux que nous avons actuellement.

Les Risques de Sécurité de l'AGI

Ashenbrener consacre la seconde moitié de son essai aux risques de sécurité associés à l'AGI. Son analyse se concentre principalement sur la rivalité entre les États-Unis et la Chine, négligeant largement le reste du monde. Cependant, il souligne à juste titre que la plupart des gouvernements sous-estiment l'impact potentiel de l'AGI et qu'ils tenteront rapidement de contrôler cette technologie une fois qu'ils en comprendront les implications.
Selon lui, une fois que l'AGI sera atteinte, les gouvernements et les entreprises technologiques entreront dans une course effrénée pour contrôler cette technologie. Cela pourrait entraîner une militarisation de l'IA, avec des implications profondes pour la sécurité mondiale. Il est donc crucial de mettre en place des régulations et des cadres éthiques pour guider le développement de l'AGI et prévenir son utilisation abusive.

Prédictions Passées et le Réalisme de l'AGI

Il est important de noter que les prédictions concernant l'IA ont souvent été exagérées. Par exemple, en 1960, Herbert Simon prédisait que les machines seraient capables, dans les 20 ans, de faire tout travail qu'un homme peut faire. De même, dans les années 1970, Marvin Minsky prévoyait que l'intelligence artificielle au niveau humain était à quelques années seulement. Ces prédictions se sont révélées fausses.
L'histoire des prédictions sur l'IA montre une tendance à surestimer la vitesse à laquelle les avancées technologiques peuvent se produire. Les chercheurs et les experts du domaine de l'IA sont souvent pris dans l'excitation de leurs découvertes et peuvent perdre de vue les obstacles pratiques et logistiques qui doivent être surmontés.

Réflexions Finales

Bien que l'AGI puisse débloquer d'énormes progrès en science et technologie en éliminant les erreurs humaines et en lisant et en comprenant toute la littérature scientifique publiée, la réalité est que l'explosion de l'intelligence n'est pas aussi proche qu'Ashenbrener le pense. Les défis énergétiques et de données, ainsi que la transformation nécessaire de l'économie mondiale, rendent ses prédictions peu réalistes à court terme.
Cependant, il est indéniable que l'IA continuera à jouer un rôle de plus en plus important dans nos vies. Les avancées actuelles dans les modèles de langage, comme GPT-4, montrent que l'IA peut déjà accomplir des tâches complexes et fournir des analyses sophistiquées. Ces modèles sont utilisés dans des domaines aussi divers que la médecine, le droit, et même l'art, démontrant leur polyvalence et leur potentiel.

Conclusion

L'intelligence artificielle est omniprésente et continue de transformer nos vies, mais il est crucial de garder un œil critique sur les prédictions exagérées et de comprendre les véritables capacités et limitations actuelles de cette technologie. Pour approfondir vos connaissances sur le fonctionnement des réseaux neuronaux et des grands modèles de langage, explorez des ressources éducatives fiables et à jour.
En juin 2024, les débats sur l'impact de l'IA continuent de faire rage, alimentés par des annonces et des développements constants dans le domaine. Les récentes annonces d'Apple concernant l'intégration de fonctionnalités d'IA dans leurs produits grand public montrent l'importance croissante de cette technologie dans notre vie quotidienne. Cependant, il est essentiel de garder à l'esprit que malgré les avancées impressionnantes, nous sommes encore loin de la superintelligence prédite par certains experts.