top of page

IA : Entre fascination, phobie et atteinte à la propriété intellectuelle

L’IA marque le passage à un nouvel âge des rapports entre l’imaginaire et l’économie, où l’imaginaire pénètre au cœur même des activités et des produits. À cet aune, différents scénarios d’évolution de nos sociétés et de nos représentations collectives sont possibles.



Première partie


Que reproche-t-on aujourd’hui à l’intelligence artificielle ? La menace qu’elle ferait peser sur l’emploi, tout d’abord. Le non-respect des droits de propriété intellectuelle ensuite, car l’intelligence artificielle moissonne une quantité gigantesque de textes, pour alimenter ses propres productions. Les biais culturels et cognitifs, qui résultent d’une amplification de ceux des données consultées. Enfin, l’empreinte énergétique impressionnante.


Le débat plus fondamental sur le risque que l’esprit humain soit dominé par une intelligence supérieure est passé, lui, au second plan. Les spécialistes ont martelé qu’il n’y avait rien à craindre sur ce registre, car l’on était loin de pouvoir mettre au point une intelligence artificielle universelle. Les craintes résiduelles relèveraient du fantasme ou d’un imaginaire de science-fiction. Mais c’est pourtant bien du côté de l’imaginaire qu’il faudrait investiguer et échanger. Le problème n’est pas celui d’une suprématie intellectuelle des machines sur les hommes, mais celui de la confiance que nous pouvons placer dans nos propres capacités d’observation, de raisonnement et de délibération, alors que la puissance de la technologie nous fascine et incite à la soumission.

Jouer contre soi-même

Tout est allé très vite depuis l’annonce, le 30 novembre 2022, de la première version gratuite de ChatGPT. Tout le monde était bluffé par la vitesse avec laquelle l’outil apportait une réponse de qualité à un script apparemment complexe. Dès janvier 2023, il y avait 100 millions de comptes ouverts dans le monde et OpenAI, la société qui l’avait conçu, était valorisée 29 milliards de dollars. Depuis, ChatGPT a déjà connu plusieurs versions, noué un partenariat avec Microsoft et dépassé un milliard et demi d’utilisateurs ; Google a mis sur le marché sa solution concurrente, Bard, rebaptisée Gemini ; Meta a annoncé MetaAI et Elon Musk xAI ; une start-up d’origine française, Mistral, a lancé avec beaucoup d’ambition Le Chat ; le fonds chinois High-Flyer a mis sur le marché en janvier 2025 DeepSeek, un modèle de langage de grande envergure (large langage model, LLM) développé en open source. À tour de rôle, différentes professions ont tiré le signal d’alarme face au tsunami que l’IA pourrait déclencher dans leur secteur.


Tout cela est-il justifié ? On a calculé que pour rentabiliser la masse des investissements qui se sont portés sur l’IA, il faudrait que cette technologie engendre un chiffre d’affaires mondial de 200 milliards de dollars. Aujourd’hui, OpenAI enregistre des revenus annuels d’environ deux milliards de dollars et l’ensemble des acteurs moins de dix milliards… Nous serions arrivés au sommet des attentes surdimensionnées et proches de la chute vers le creux des désillusions.

Ce pronostic réservé paraît conforté par l’histoire déjà longue de l’IA, car celle-ci a connu plusieurs démarrages en fanfare, suivis d’échecs et de désillusions. Il y a trois quarts de siècle, Alan Turing faisait le « pari que d’ici cinquante ans, il n’y aura plus moyen de distinguer les réponses données par un homme ou un ordinateur et ce, sur n’importe quel sujet1 ». En 1955, John McCarthy proposait le nom d’intelligence artificielle pour ce nouveau champ de recherches. Les tentatives des années 1950-1970 ont pourtant été décevantes et, face aux ingénieurs qui tablaient sur l’accroissement de puissance des machines, tout un courant scientifique s’est développé pour montrer les limites conceptuelles de leur approche symbolique : des théorèmes démontrent ainsi qu’il ne peut pas exister de cheminement algorithmique pur pour traduire une langue dans une autre2.

L’IA a entamé alors un nouveau cycle, celui des systèmes-experts : il ne s’agissait plus de créer un algorithme ex nihilo, mais d’enregistrer ce que font des experts humains face à des situations variées et complexes, puis de copier et de simuler ces comportements dans un programme d’ordinateur. Dominante dans les années 1980-2000, cette nouvelle IA a connu des succès spectaculaires, comme le programme Deep Blue d’IBM parvenant à battre le champion du monde d’échecs Garry Kasparov en 1996. Mais le processus de mise au point d’un programme était très lourd et cette IA n’a pas fait la démonstration de sa performance économique.


C’est un troisième cycle de l’intelligence artificielle qui a commencé depuis moins de dix ans. En 2017, le programme AlphaGo, perfectionné par Google, bat Ke Jie, le champion du monde du jeu de go. Il s’agit d’un tout autre niveau de complexité que le jeu d’échecs, avec une combinatoire bien plus nombreuse de coups et de stratégies. L’approche est désormais connexionniste. On n’essaye plus de traduire rationnellement les règles du jeu dans un algorithme, ni de simuler le comportement d’un champion, mais on bâtit un processus d’apprentissage automatique par essais et erreurs d’une machine plongée dans une base gigantesque de données. AlphaGo progresse sans cesse en jouant contre elle-même.

Une technologie de l’imaginaire

Il ne faut pas sous-estimer le potentiel de disruption d’une technologie qui a atteint un degré de maturité suffisant pour introduire une vraie rupture dans l’économie de nombreuses activités. Prenons l’exemple des industries de la mode. L’IA y est l’instrument d’une brusque accélération et de l’apparition de nouveaux acteurs à la croissance impressionnante : l’ultra fast fashion.

Quelle est l’organisation d’une entreprise comme Shein, par exemple, pour lui permettre de sortir jusqu’à 8 000 nouvelles références par jour ? Trois créateurs américains ont porté plainte contre cette entreprise chinoise en juillet 2023, prétendant que la contrefaçon par IA était au cœur de son modèle économique. Ces plaintes ont été l’occasion d’enquêtes approfondies sur le rôle de l’IA. L’IA serait utilisée massivement pour repérer des tendances émergentes, identifier les meilleures ventes sur les plateformes multimarques, concevoir de nouveaux vêtements sur ces bases et analyser les premières ventes avant la production à grande échelle des modèles porteurs. Ainsi, là où Zara plafonnait à cinq cents modèles nouveaux par semaine, Shein peut en sortir seize fois plus par jour.


Les promoteurs de l’IA ont compris depuis longtemps que la meilleure manière d’obtenir des crédits de la part des décideurs publics, c’était de les faire rêver. En 2001, Jean-Michel Truong publiait un récit de science-fiction où des brins de logiciel se combinaient à des segments d’idées reçues pour prendre le contrôle du cerveau des décideurs publics, en commençant par ouvrir grand les robinets du financement de la recherche grâce auquel ils pouvaient accélérer encore leur propre prolifération3. En 2018 encore, un rapport au gouvernement incluait une référence à l’imaginaire à chaque chapitre4.


Pour ses adversaires, l’IA illustrait ainsi l’extension de la société du spectacle dans les rouages de la recherche scientifique5. La théorie des automates et les travaux de Noam Chomsky et du grand mathématicien Marcel-Paul Schützenberger avaient ainsi démontré, dès les années 1970, les impasses théoriques de toute l’approche symbolique et purement algorithmique de l’IA. Le déclic qui a permis à la discipline de sortir de l’« hiver de l’intelligence artificielle » a été le passage à l’approche connexionniste, en particulier le recours au calcul vectoriel, adapté tout particulièrement au traitement de l’image. Les premières avancées portèrent d’ailleurs sur l’imagerie médicale et sur l’analyse militaire des images collectées par les satellites. Des acteurs comme Google ont alors vu l’avantage pour les moteurs de recherche de traiter des nuages de mots comme des espaces et de mesurer des proximités considérées comme signifiantes. En 2013, le programme Word2vec fut mis au point, consistant à traiter la langue comme s’il s’agissait d’une image (embedding). Avec cette technique, un immense champ d’applications s’ouvrait à l’IA.

L’IA s’enracine ainsi dans l’imaginaire que Lacan définit comme l’instance des images visuelles, auditives et sensorielles.


Le propos initial de l’IA était d’ailleurs d’« imiter informatiquement des comportements qui font généralement appel à l’intelligence humaine6 ». Dans son article de 1950, pour répondre à la question : « Les machines peuvent-elles penser ? », Alan Turing imaginait un test appelé « le jeu de l’imitation »7. Aujourd’hui encore, les grands modèles d’IA générative ne sont que des « perroquets stochastiques8 » et le grand gagnant de la vague technologique actuelle est l’entreprise Nvidia. Simple fabriquant de puces pour les jeux vidéo, elle a su concevoir les composants adaptés au calcul vectoriel et à la nouvelle IA. Sa capitalisation boursière avoisine aujourd’hui 3 000 milliards de dollars et cette entreprise de traitement de l’image est même brièvement devenue l’entreprise la plus chère du monde.


L’esprit est désormais happé par la logique de l’imaginaire. L’IA est ainsi d’une famille apparentée à celle des mondes parallèles et des vérités alternatives. Cela soulève des enjeux colossaux sur les plans anthropologique, épistémologique, pédagogique, éducatif, législatif et politique. Comment surmonterons-nous cette montagne ? En amont de tout, il semble important de réfléchir aux mutations de la vie collective et notamment à ce qui va se passer dans les rapports de production.


Dans son mode de développement, l’IA marque en effet le passage à un nouvel âge des rapports entre l’imaginaire et l’économie. Après l’âge de la production, où l’imaginaire était devant et où tout rêve pouvait devenir réalité9, et l’âge de la consommation, où l’imaginaire était autour et envahissait la périphérie des produits sous la forme de constructions publicitaires, nous serions à l’âge de l’intelligence artificielle, où l’imaginaire pénètre au cœur même des activités et des produits.


A suivre...


Notes:


1. Alan M. Turing, “Computing machinery and intelligence”, Mind, vol. 59, no 236, octobre 1950, p. 433-460.

2. C’est l’objet d’une branche de l’informatique théorique, la théorie des automates, qui établit une hiérarchie entre plusieurs classes d’automates et qui montre de manière formelle que le modèle théorique de l’ordinateur (la machine de Turing) est d’une classe inférieure au niveau de complexité où serait l’homme si on devait le concevoir comme un automate.

3. Jean-Michel Truong, Totalement inhumaine, Paris, Seuil, coll. « Les Empêcheurs de penser en rond », 2001.

4. Voir Cédric Villani (sous la dir. de), Donner un sens à l’intelligence artificielle : pour une stratégie nationale et européenne [en ligne], Vie publique, mars 2018.

5. Voir Maurice Gross et Marcel-Paul Schützenberger, « On prétend que… », dans Françoise Gallouédec-Genuys et Philippe Lemoine (sous la dir. de), Les Enjeux culturels de l’informatisation, préface de Bernard Tricot, Paris, La Documentation française, coll. « Informatisation et société », 1980, p. 127-128.

6. Benoît Sagot, Apprendre les langues aux machines, Paris, Éditions du Collège de France, coll. « Leçons inaugurales », 2024, p. 13.

7. Voir Jean Lassègue, Turing, Paris, Les Belles Lettres, coll. « Figures du savoir », 1998.

8. Emily M. Bender, Timnit Gebru, Angelina McMillan-Major et Shmargaret Shmitchell, “On the dangers of stochastic parrots: Can language models be too big?”, FAccT ’21: Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency, New York, Association for Computing Machinery, 2021, p. 610-662.

9. Voir Jean Baudrillard, Amérique, Paris, Grasset, 1986.

Bình luận


+212-619 959 451

Pour rester informé.e.s de nos derniers ebooks, inscrivez-vous ici :

© 2025 by Najib BENSBIA  I  Ebooks Univers

bottom of page