Crédit photo : Emiliano Vittoriosi sur Unsplash
Alors que l’impact de l’intelligence artificielle (IA) dans le monde du travail ou en matière de désinformation fait couler beaucoup d’encre, des dirigeants du secteur, dont Elon Musk, appellent à décélérer. Une intelligence artificielle ultra-médiatisée a tenu un rôle majeur dans l’ouverture de ces débats : ChatGPT. Mais a-t-elle vraiment créé une rupture ?
Il n’y a pas de réelle nouveauté technique dans ChatGPT. Son ancêtre, Eliza, date de 1966. La technique de codage, aussi sophistiquée soit-elle, s’inscrit dans une continuité des conceptions de langage de programmation. Par ailleurs, dans une approche sociologique, rappelons que nous sommes une humanité numérique, une société artefactuelle (puisque nous évoluons à travers le progrès technique), dans laquelle toute innovation s’inscrit dans une continuité.
Peut-on alors réellement parler d’innovation de rupture pour ChatGPT ?
Et s’il fallait finalement se saisir de ce raz de marée médiatique pour comprendre la fulgurance de son déploiement, et plus encore, pour comprendre où nous en sommes, nous, utilisateurs, dans nos représentations, entre fantasmes et réalités, de l’intelligence artificielle ?
Ces logiciels d’intelligence conversationnelle nous ramènent à deux grandes tendances liées à la technicisation de la société. Tout d’abord celle de la servicisation, c’est-à-dire une normalisation de l’assistance personnalisée au quotidien. Cette tendance est arrivée avec le passage d’une économie basée sur des logiques de masse, vers une autre basée sur des logiques individuelles.
Le second grand levier est la plateformisation : créés au sein d’empires numériques (entre autres GAFAM), ces logiciels sont pensés pour être infusés dans tout l’écosystème. C’est le cas par exemple de ChatGPT, amené à investir Bing, Outlook, et autres services de Microsoft.
Et pour cause, le disgracieux « GPT » dans sa version francophone, renvoie au « general purpose technologies », soit technologies à usage général. Il est donc de par sa nature, un outil conçu pour être facilement transposé et utilisé dans différents domaines. Différent d’un moteur de recherche, il répond à des questions complexes et cherche à comprendre l’intention.
Comment expliquer l’appropriation si rapide de ChatGPT par les utilisateurs ?
L’impact médiatique relève du fait de ses utilisateurs. Comme souligné par l’anthropologue Lionel Obadia, il est difficile de parler d’invention. Néanmoins, la diffusion et l’appropriation remarquablement rapide font de ChatGPT une innovation marquante. Elle peut être utilisée par n’importe qui, initié ou non, gratuitement en ligne, et entraîne de ce fait autant de nouveaux usages, de contournements, que de business potentiels.
Trois forces expliquent la rapide intégration et appropriation sociale du logiciel.
Premièrement, ChatGPT est très accessible : ce qui lui permet un passage à l’échelle, autrement dit un déploiement, très rapide. L’accessibilité de l’outil et son appropriation généralisée massifient l’usage, mais également l’intérêt pour ce qui paraît « nouveau », voire « divertissant ».
Ensuite, ChatGPT nous ressemble. Le processus de machine learning en fait un outil d’auto-enrichissement continu, comme les humains. Le dialogue lui permet par exemple d’améliorer ses réponses avec un langage naturel. Ainsi, plus il est utilisé, plus il est performant. Autrement dit, nous nous « éduquons » mutuellement.
Enfin, ChatGPT est un champ des possibles : il laisse entrevoir de nouveaux scénarios. Nous sommes, en tant qu’utilisateurs, la condition pour la réussite du déploiement de ces innovations numériques. Chose faite pour ChatGPT qui compte à présent plus de 100 millions d’utilisateurs. Nous commençons à prendre conscience de « l’après » et de l’émergence d’autres innovations issues du modèle de ce logiciel.
La philosophe Marie Robert raconte son expérience lorsque le média Brut lui propose de corriger une copie rédigée par le logiciel :
« C’est avec un certain frisson que j’ai pris mon stylo rouge pour tenter de comprendre le raisonnement élaboré par une machine. Malgré une absence de citations, un manque cruel de nuances et une structure bien trop rigide, ma première remarque fut que ce n’était « pas si mal » […] C’est donc avec un mélange de fascination et d’effroi que j’ai terminé l’exercice, me demandant sincèrement ce que nous allions faire pour le monde à venir, pour ces générations qui n’auront pas à connaître l’effort. »
Des métiers de la cognition voués à disparaître ?
Ce qui diffère vraiment avec les précédentes évolutions liées à l’innovation, c’est que ChatGPT touche les métiers de la cognition, plutôt épargnés jusqu’alors. Il est d’ailleurs intéressant de rappeler que l’un des logiciels les plus (technologiquement) complexes, l’Autopilot de Tesla, a été pour 85 % fabriqué par l’intelligence artificielle. La dynamique d’hybridation entre métiers et intelligence artificielle est de plus en plus forte. Cependant, il serait fantasmé de parler de « grand remplacement ».
L’autonomie de l’intelligence conversationnelle n’est pas totale. Par exemple, ChatGPT développé par Open AI a été construit à partir de 175 milliards de paramètres, il s’appuie sur un jeu de données gigantesque. Gigantesque certes, mais sélectionné, donc faillible.
Récemment, des échanges et lectures sur l’art du codage m’ont permis d’éclairer plus encore les limites du mythe d’une autonomie de l’intelligence artificielle. Cela notamment à travers la dimension de labellisation dans les réseaux de neurones. Dans ce processus, il s’agit d’étiqueter des données, c’est-à-dire d’associer un label (une valeur prédéfinie) à un contenu (image, texte, forme, etc.). L’objectif est d’apporter un modèle d’apprentissage aux machines. Cette pratique rappelle la nécessité de paramétrage et de supervision dans l’interprétation des données, une réalité à (re)découvrir dans la mini-série documentaire Les travailleurs du clic de Antonio Casilli. Open AI a d’ailleurs différents contrats avec des travailleurs au Kenya pour ce travail de modération.
Nous voyons donc les limites d’un fantasme autour d’une intelligence artificielle parfaitement autonome.
Bien que l’intelligence artificielle ne comprenne pas ce qu’elle dit, ces implications humaines dans la supervision de l’apprentissage des machines nous montrent que les données qui nourrissent cette intelligence, elles, ne sont pas neutres. Elles reproduisent et amplifient les biais de ceux qui la supervisent, chariant un lot potentiel de stéréotypes, de désinformation, de contenus aspirés aux sources invisibles, de censure, ou encore de complotisme (Meta en a fait l’expérience avec Blender bot 3).
La question centrale est donc : qui paramètre ? Le professeur de droit Lawrence Lessig le souligne dans son clairvoyant « Code is law » : la personne qui paramètre est la personne qui a la possibilité d’orienter un système de pensée. Un outil comme ChatGPT est principalement conçu par et pour une cible nord-américaine. Son déploiement rapide, renforcé par sa dimension ludique, conduit à la normalisation de son utilisation. Une normalisation non pas sans effet, puisqu’elle vient renforcer l’impression d’un objet politiquement neutre chez les utilisateurs.
Or, c’est loin d’être le cas, pour les raisons évoquées précédemment, mais aussi parce que l’IA est avant tout un enjeu de domination tant entre empires du numérique, que dans la sphère géopolitique.
Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.