Articles Technologie

ChatGPT et la prophétie de Deleuze

ChatGPT a précipité les robots conversationnels dans les mains du grand public. Comme souvent, certains y voient une opportunité facile quand d’autres crient aux loups en annonçant la disparition de certains métiers, confondant au passage conversation et argumentation. Il ne fait aucun doute qu’il s’agit d’une percée significative et impressionnante sur un plan technique, qui conduira à des usages certainement pertinents comme à des applications discutables. En ce sens, plusieurs observateurs ont révélé quelques dérives, comme le professeur australien Seth Lazar (Lazar S., 2023) qui relate un échange douteux avec la version de ChatGPT intégrée au moteur de recherche Bing. Gageons qu’il s’agisse d’erreurs de jeunesse d’une technologie qui ne cessera de s’améliorer. Des initiatives comme ToxiGen pour contrer les risques de dérives haineuses par exemple s’inscrivent en ce sens (Hartvigsen et al. 2022).

On pourrait penser en première analyse qu’à l’instar de toute technologie, tout dépendra de ce que l’être humain en fera. Or, c’est précisément-là que certaines questions se posent désormais car la perspective est un peu différente dans le cas présent. En substance, le discernement et l’esprit critique des utilisateurs sont toujours clé mais la nature même de l’outil, de ce qu’on lui a appris à faire et comment sont déterminantes.

Les robots conversationnels utilisent ce qu’il est convenu d’appeler des LLM pour Large Language Model. Il s’agit d’algorithmes d’apprentissage profond (deep learning) qui produisent du texte en langage naturel. ChatGPT utilise ainsi le LLM d’OpenAi baptisé GPT-3 pour « Generative Pre-trained Transformer 3 ». En substance, il s’agit de l’application d’un concept plus vaste, utilisé dans d’autres domaines, les modèles « transformers » (Bommasani et al., 2021) avec un « mécanisme d’attention » (Vaswani et al., 2017) qui offrent une très grande puissance car ils peuvent mettre en parallèle ce qui était réalisé auparavant de façon séquentielle avec des réseaux de neurones récurrents (RNN). Le progrès considérable observé récemment vient en partie de cette puissance liée à la parallélisation. Autrement dit, le robot encode/décode plus et plus vite, on peut donc le nourrir plus. Par conséquent, il apprend mieux et donc restitue mieux.

Le fonctionnement de ces algorithmes invite néanmoins à formuler deux remarques :

  • Le modèle d’apprentissage, quelle que soit sa puissance, reste tributaire des données auxquelles il est exposé ;
  • Le modèle ne sait en aucun cas estimer la pertinence de ces mêmes données. Il ne sait pas « faire la part des choses ».

Ces deux caractéristiques ne posent pas de difficulté intrinsèque : elles constituent des particularités qu’il suffit de comprendre pour profiter de la puissance des outils sans pour autant ignorer leurs limites. En d’autres termes, il faut que l’utilisateur fasse, d’une part, un effort de discernement quant au résultat que lui fournit le robot et, d’autre part, aille à la pêche d’une « contre-information » en l’absence de connaissance des sources qui l’ont nourri.

Dans cette perspective, l’observation des modes d’accès à l’information depuis 20 ans par Internet livre peut-être un enseignement. Les premiers moteurs de recherche, comme Yahoo lorsqu’il proposait une recherche par catégories, demandaient un effort de réflexion à l’utilisateur. Google s’est ensuite rapidement imposé par la simplicité qu’il offrait : un champ de recherche par mots-clefs sans avoir à naviguer dans une taxinomie fastidieuse. Moins d’effort pour l’utilisateur mais avec toujours la possibilité d’apprécier le degré de pertinence des réponses fournies. Or, on le sait, la paresse et la facilité l’emportent souvent dans la durée… Combien font aujourd’hui l’effort de scroller au-delà des premières réponses ? Qui est vigilant et veille à distinguer les liens sponsorisés, des « extraits optimisés » ou des sites en tant que tels ? Qui a fait l’effort dans la pratique d’utiliser des moteurs de recherche alternatifs plus respectueux des données personnelles malgré sa conscience des défauts de ceux qu’il utilise ? Pour avoir un début de réponse, il suffit de voir à quel point l’algorithme de LinkedIn impose sa loi, conduisant à ce que les internautes s’y soumettent pour optimiser leur visibilité et à ce qu’in fine bruit, gesticulation, commentaires et polémiques l’emportent inévitablement sur la pertinence de l’information.

Les outils et moyens qui donnent accès à l’information conditionnent non seulement les comportements mais ils constituent aussi des filtres qui infusent puis diffusent information et désinformation. C’est un sujet invariant qui pose l’éternelle question de la confiance dans la source de l’information. Je me souviens par exemple avoir assisté il y a plus de 30 ans à un colloque sur la désinformation dont il ressortait en substance que tous les experts étrangers affirmaient que la source la plus fiable d’information en France était le journal Le Monde, tous s’empressant d’ajouter « sauf pour tel domaine »… précisément celui de leur expertise… S’informer avec justesse, distinguer la bonne information du bruit a toujours demandé un effort et le demandera toujours. Simplement, la nature de l’effort change : elle se déplace de la capacité à accéder à l’information à la capacité à en apprécier la pertinence et la valeur.

Or, on peut craindre que la facilité et le confort des robots conversationnels conduisent à ce qu’ils deviennent la norme d’accès à l’information pour le commun des mortels. La guerre entre les grands industriels du secteur en est relancée. Comme nous l’écrivions avec Patrick Bouvard il y a 20 ans : « l’enjeu moderne est la modélisation d’une recherche rapide, opérationnelle, intégrant des principes d’exploitation paramétrables des informations. Celui qui possèderait un tel outil serait plus maître du jeu que les autres » (Bouvard P., Storhaye P. 2002).  Or, si cette hypothèse s’avérait, elle comporterait plusieurs risques qui doivent inviter à une vigilance individuelle et collective.

  • Un risque de soumission : le modèle du robot a pris la main sur l’utilisateur sur l’appréciation des sources qui l’ont nourri comme sur ce qu’il en ressort ;
  • Un risque de paupérisation culturelle : une normalisation donc une réduction de la culture dès lors que se diffusent majoritairement (Davis J., 2023) des représentations construites par un modèle qui s’appuie sur des données existantes sans débat contradictoire nourricier.
  • Un risque d’accroissement des inégalités : les efforts d’esprit critique ou de dissidence seront d’autant plus pesants que le travail sera mâché, ce qui desservira la grande majorité de celles et ceux qui ne pourront pas les consentir, quelles qu’en soient les raisons.

Dans cette optique, peut-être est-il opportun de rappeler les mots de Gilles Deleuze sur l’art et les sociétés de contrôle (Deleuze, 1987). Il stipulait que l’information constitue un « mot d’ordre » car elle dit « ce que vous êtes censés devoir croire » ou plus exactement de « nous comporter comme si nous le croyions ». L’information, en cela quelle consiste à « faire circuler un mot d’ordre », est un système de contrôle dont il affirmait qu’il constituerait le moyen principal d’une « société de contrôle ». Constatant le caractère inopérant de la « contre-information », Gilles Deleuze suggérait que seul « l’acte de résistance » pouvait avoir un effet de contre-pouvoir, l’art en étant un.

Si l’on craint qu’une généralisation massive des robots s’apparente à une maîtrise des « mots d’ordre » avec pour corollaire contrôle et normalisation de l’information, quel acte de résistance poser si ce n’est celui de développer tout aussi massivement la culture, en cela qu’elle « permet d’attribuer à chaque information ou à chaque connaissance le degré de certitude et d’opportunité qui lui convient » (Bouvard P., Storhaye P., 2002) ? Il n’est pas question de nier les formidables avancées de l’IA car les modèles d’apprentissage dont il est ici question offrent des avantages considérables, y compris dans des domaines comme l’analyse de séquences biologiques. En revanche, leur puissance oblige à ne pas occulter les conséquences potentielles sur un plan sociétal. Or, en l’occurrence, l’enjeu des années à venir est indiscutablement celui de la culture donc de l’éducation !

Patrick Storhaye

Références

  • Bommasani R., Castellon R. et al. (2021) On the Opportunities and Risks of Foundation Models. Center for Research on Foundation Models (CRFM) at the Stanford Institute for Human-Centered Artificial Intelligence (HAI). arXiv:2108.07258

  • P, Storhaye P. (2002) Knowledge Management : Vade Mecum. EMS

  • Davis J. [@Jenny_L_Davis]. (2023, 2 mars) ChatGPT has evoked much concern over authorship & intellectual property; academic integrity; veracity; and tone & tenor. Not enough attention is paid, however, to ChatGPT’s inherent conservativism. Twitter. https://twitter.com/Jenny_L_Davis/status/1631138935551438848

  • Hartvigsen T., Gabriel S., Palangi H., Sap M., Ray D., Kamar E. (2022) ToxiGen: A Large-Scale Machine-Generated Dataset for Adversarial and Implicit Hate Speech Detection. ACL 2022. arXiv:2203.09509

  • Vaswani A., Shazeer N., Parmar N., Gomez A., Polosukhin I. (2017) Attention is all you need. arXiv:1706.03762