L’intelligence artificielle fait énormément parler d’elle depuis plusieurs mois. Notamment avec l’arrivée de ChatGPT. Ou encore avec la venue de Bard pour Google. Il n’existe presque pas une journée où de nombreux articles relatent les dernières avancées de cette technologie.
Si certains essayent de comprendre ce qu’il se passe sous le capot de la machine, d’autres essaient de mieux comprendre ce qui se passe dans les esprits des inventeurs ou des développeurs de l’intelligence artificielle. Dans ce cadre, certains expliquent que les inventeurs de l’intelligence artificielle, ou ceux qui la développent, peuvent avoir dans certains cas des accents transhumanistes ou long-termistes.
Rappelons que le transhumanisme prône l’usage des sciences et des techniques afin d’améliorer la condition humaine par l’augmentation des capacités physiques et mentales et de supprimer le vieillissement et la mort. Les transhumanistes croient que les progrès scientifiques et technologiques permettront de transcender les limites biologiques actuelles et de créer une nouvelle forme d’être humain, le post-humain.
Le long-termisme quant à lui est une théorie morale qui donne la priorité à l’amélioration du bien-être de l’humanité à long terme sur l’amélioration du bien-être de l’humanité présente. Ils croient que les progrès scientifiques et technologiques permettront de créer un avenir meilleur pour l’humanité. L’investissement dans les technologies doit assurer que l’humanité existe et prospère à long terme.
Dans cet ordre d’idée, par exemple, Sam Altman, le PDG d’OpenAI, célèbre pour la conception de ChatGPT, laisse penser qu’il serait proche de ce qui est appelé le «techno-optimisme». Par exemple, il avait écrit un billet intitulé « La loi de MooreLoi énoncée par Gordon E. Moore qui stipule que la puissance de calcul informatique double tout les deux ans. La loi de Moore est une observation formulée par Gordon Moore, cofondateur d’Intel, en 1965. À l’origine, Moore a prédit que le nombre de transistors sur une puce de circuit intégré doublerait tous les ans, mais il a révisé cette prévision en 1975 pour une période de deux ans. Cette loi a joué un rôle crucial dans l’évolution de l’industrie technologique, fixant le rythme d’innovation des semi-conducteurs et permettant une progression rapide de la puissance de calcul, tout en réduisant les coûts. Pendant plusieurs décennies, les fabricants ont pu suivre ce rythme, entraînant des progrès exponentiels dans les performances des ordinateurs, les télécommunications et d’autres technologies. Les années 1970 et 1980 ont vu l’essor des microprocesseurs, confirmant la pertinence de la loi de Moore dans le développement de l’informatique. Avec l’avènement de la technologie de fabrication en nanomètres dans les années 1990 et 2000, la densité des transistors a continué à augmenter, atteignant des niveaux qui semblaient inimaginables auparavant. Cependant, depuis les années 2010, les progrès ont ralenti à mesure que les limites physiques et les défis techniques liés à la miniaturisation des transistors deviennent de plus en plus complexes. Les problèmes tels que la dissipation thermique, les interférences quantiques et les coûts élevés de production ont conduit certains experts à penser que la loi de Moore atteindrait bientôt ses limites pratiques. Néanmoins, même avec ces défis, la loi de Moore continue de servir de ligne directrice pour l’industrie, orientant les recherches vers de nouvelles approches comme les transistors en 3D, les matériaux alternatifs au silicium, et les technologies émergentes comme les ordinateurs quantiques. La loi de Moore ne se limite pas seulement aux puces électroniques ; elle a également influencé d’autres domaines, notamment le développement de logiciels, les innovations en intelligence artificielle, et la création d’algorithmes optimisés pour tirer parti de la puissance de calcul accrue. Bien que le rythme du doublement des transistors ait ralenti, l’esprit de la loi de Moore persiste, symbolisant l’engagement de l’industrie à repousser sans cesse les frontières technologiques pour répondre aux besoins croissants de puissance et de performance des systèmes modernes. Ainsi, même si sa pertinence évolue, la loi de Moore reste une pierre angulaire pour anticiper les futures avancées dans le monde de la technologie. More pour toute chose» en 2021 qui expliquait que « le progrès technologique que nous ferons dans les cent prochaines années dépassera largement tout ce que nous avons fait depuis que nous avons maîtrisé le feu et inventé la roue ». Certains de ces tweets datant de février 2022, quelques mois avant les sorties de ChatGPT et de DALL-E2, disent: « nous pouvons bâtir une intelligence artificielle générale. Nous pouvons coloniser l’espace. Nous pouvons faire marcher la fusion nucléaire et massifier l’énergie solaire. Nous pouvons guérir toutes les maladies.»
Notons que pour certains auteurs, ces discours de la tech, conquérants, voire prométhéens et messianiques, viendraient de personnes développant l’intelligence artificielle issues de secteur distant du web, comme les biotechnologies ou l’énergie. Elon Musk par exemple s’occupe de l’automobile avec Tesla ou encore de l’espace avec SpaceX.
Un mouvement dystopique et apocalyptique
Mais la particularité de ce mouvement lié à l’intelligence artificielle est qu’il n’est pas entièrement tourné vers l’apologie de la technologie. Il est également dystopique et apocalyptique.
Indiquons qu’en littérature, une dystopie est un récit de fiction dépeignant une société imaginaire organisée de telle façon qu’il soit impossible de lui échapper, et dont les dirigeants peuvent exercer une autorité totale, sur des citoyens qui ne peuvent plus exercer leur libre arbitre. Les dystopies sont souvent utilisées pour dénoncer les défauts de la société actuelle et pour mettre en garde contre les dangers d’un certain type de progrès. Elles explorent des thèmes tels que la surveillance, la répression, la pollution, la guerre, la pauvreté et l’extinction.
Aussi, certains, comme Sam Altman lui-même, ne font pas que l’apologie de l’intelligence artificielle. Le PDG d’OpenAI et Demis Hassabis, directeur de Google DeepMind, ont par exemple signé une pétition le 13 mai comparant les « risques d’extinction posés par l’IA » à ceux « des pandémies ou de la guerre nucléaire ». Elon Musk cofondateur d’OpenAI et de DeepMind, qu’il a lâchés depuis, évoquait l’intelligence artificielle comme une menace « potentiellement plus grande que les bombes nucléaires ». Cela n’aide pas forcément à comprendre ce qui se cache dans les esprits de ces personnes-là.
La résistance se met en place
Dans le même temps, certains combattent cela, comme Emile P. Torres. Doctorant en philosophie à l’université Leibniz de Hanovre. Il appelle ce mouvement «Tescreal». Ce sont les initiales de « transhumanisme » et de trois variantes : l’« extropianisme », une philosophie qui vise à l’amélioration du potentiel humain grâce au progrès scientifique, le « singularitarisme », centré sur la « singularité », ce moment où intelligence artificielle est supposée dépasser l’intelligence humaine, et le « cosmisme », lié à la déclaration de conquête de l’espace. Emile P. Torres y associe le « long-termisme » et le mouvement dont ce dernier est issu, l’« altruisme effectif ». Pour lui, les «tescrealists» se fondent uniquement sur les problèmes d’ingénierie. Ils minimisent les causes politiques, sociales et économiques.
Des reproches sont aussi faits par exemple sur le côté eugéniste de l’intelligence artificielle générale. Certains craignent qu’apparaisse un mouvement d’« eugénisme hipster ». « L’IA surhumaine va arriver, l’amélioration génétique va arriver, les interfaces cerveau-machine vont arriver », prédisait M. Altman. Rappelons que l’eugénisme désigne l’ensemble des recherches biologiques, génétiques et des pratiques morales et sociales qui ont pour but de déterminer les conditions les plus favorables à la procréation de sujets sains et, par là même, d’améliorer la race humaine.