Dans un article publié par le Wall Street Journal, l'auteur propose une analyse critique approfondie du fonctionnement des systèmes modernes d'intelligence artificielle, en particulier les grands modèles de langage derrière les programmes de conversation intelligents comme ChatGPT. L'article présente l'expérience personnelle d'un ingénieur logiciel dans la salle de rédaction du journal, révélant comment l'IA "réfléchit" et ce qui se passe derrière les interfaces brillantes avec lesquelles les utilisateurs interagissent quotidiennement sans comprendre les mécanismes internes.

Entre admiration et critique

L'article raconte comment l'IA est devenue un outil étonnant pour accélérer le travail et analyser d'énormes quantités de données, mais soulève en même temps des inquiétudes croissantes en raison de l'opacité entourant son fonctionnement. Les entreprises qui produisent ces technologies ne permettent pas aux utilisateurs d'accéder aux détails des données ayant servi à entraîner leurs modèles, ni de comprendre comment les décisions sont prises ou les réponses générées.

L'auteur compare la relation avec l'IA à une machine à laver : on peut l'utiliser sans comprendre comment elle fonctionne. Mais la différence ici est que ce que nous remettons à l'IA n'est pas du linge sale, mais nos idées et notre production créative et intellectuelle.

Course vers "l'intelligence artificielle générale"

L'article critique ce qu'il appelle la "course des grandes entreprises vers l'intelligence artificielle générale", un modèle capable d'exécuter la plupart des tâches humaines plus efficacement que l'humain. Il souligne que la définition de ce terme par certains leaders de l'industrie — comme le PDG d'OpenAI, Sam Altman — met davantage l'accent sur la valeur économique que sur l'essence même de "l'intelligence".

L'article estime qu'une telle définition réduit l'IA à un simple outil d'augmentation des profits plutôt qu'à un moyen de comprendre la nature de la pensée humaine. L'intelligence est-elle simplement la capacité à réaliser des gains financiers ? L'article pose cette question pour ramener le débat à sa signification humaine profonde.

Dans "l'esprit" de la machine

L'article explique de manière simple comment fonctionnent les grands modèles de langage en interne, précisant qu'ils ne "réfléchissent" pas comme les humains, mais traitent le langage par les mathématiques et les statistiques.

Les mots sont convertis en codes numériques appelés "vecteurs", organisés dans un espace multidimensionnel où le modèle peut mesurer les relations entre eux. Grâce à cette représentation numérique, l'IA apprend à prédire le mot suivant dans une phrase, ce qui lui permet de produire des textes cohérents et naturels.

Pour simplifier l'idée, l'article donne un exemple tiré de la poésie anglaise, montrant comment le modèle peut percevoir les liens entre des mots comme "sweet" et "sour", et comment le sens change si les directions dans cet espace numérique varient.

Expérience avec un petit modèle

L'article revient sur une expérience antérieure de l'auteur en 2017 lorsqu'il a créé un modèle linguistique simple pour imiter le style de l'écrivain américain Herman Melville dans sa célèbre histoire Bartleby the Scrivener.

Le modèle a commencé par écrire des phrases incompréhensibles, puis a progressivement évolué jusqu'à presque répéter la phrase célèbre de l'histoire "I would prefer not to", mais a écrit à la place "I would prefer to yes".

L'article voit dans cette erreur une profonde signification humaine ; même dans ses moments d'échec, l'IA reflète une étrange imitation de la nature humaine — cette capacité à faire des erreurs qui nous distingue des machines.

Appel à la transparence et à la compréhension

L'article se termine par un appel clair à plus de transparence et d'ouverture dans le domaine de l'IA. Il suggère que les entreprises consacrent une petite partie de leurs énormes investissements en calcul pour expliquer le fonctionnement de leurs modèles, rendent les données d'entraînement publiques et fournissent des environnements interactifs où les utilisateurs peuvent modifier les paramètres et voir les résultats par eux-mêmes.

L'article estime qu'ouvrir "l'esprit numérique" au public ne contribue pas seulement à renforcer la confiance, mais offre aussi aux gens la possibilité de comprendre cette technologie qui influence de plus en plus leur créativité, leurs décisions et même leur conscience. Selon l'article, l'IA n'est pas simplement un produit commercial, mais une expérience cognitive qui touche à l'essence même de ce que signifie être humain à l'ère technologique.