top of page

L’IA aux frontières de l’esprit

Le développement de l’IA représente une rupture anthropologique dont il faut prendre la mesure. Mais plutôt que de céder au catastrophisme dystopique, ne faut-il pas envisager l’IA comme une altérité contre et avec laquelle il nous faudra vivre, sans renoncer à définir ce qui doit rester essentiel, commun et inaliénable à l’humain.


Drone intelligent, application militaire de l'IA
Drone intelligent, application militaire de l'IA

Première partie


Nous y sommes. Notre quotidien a rejoint ce qui, il y a encore peu, relevait de la science-fiction. L’intelligence artificielle (IA) est dans nos smartphones, au cœur de l’actualité technologique et même géopolitique. Les prophéties fusent : la fin de l’humanité est-elle en marche ? Serons-nous remplacés dans notre travail, réduits à des prestataires algorithmés ? Ce bouleversement technologique est à n’en pas douter un bouleversement anthropologique. Cerner sa singularité et la rupture que l’IA marque est la première exigence faite à la pensée. Pourtant, quand on suspend fascinations et angoisses, il est évident que l’intelligence artificielle ne surgit pas ex nihilo et s’inscrit dans un projet technologique et des imaginaires déjà anciens. « Nous pouvons espérer que les machines pourront égaler les hommes dans tous les domaines purement intellectuels. » Voilà comment Alan Turing, père fondateur de l’« intelligence artificielle » (cette expression est néanmoins forgée en 1956 par l’informaticien John McCarthy), concluait un article publié en 1950 et intitulé “Computing machinery and intelligence”.


Nous étions alors dans les premières années du rêve de l’IA. Sept décennies plus tard, ces systèmes automatisés sont massivement utilisés dans tous les domaines – social, économique, politique, technique – de la vie humaine. Nous parons l’IA de fonctions prédictives, prescriptives, voire injonctives. Nous lui déléguons tout ou une partie de nos processus de prise de décision. Comme d’autres ruptures technologiques avant elle, elle nous somme de réinterroger notre devenir à l’aune des possibles qu’elle ouvre, autant que notre présent, qu’elle transforme déjà. Nous faisons ici l’hypothèse que se joue cette fois une mise en concurrence de la technologie avec ce que nous avions jusqu’ici coutume de définir comme propre à l’humain : son esprit.


Mise en concurrence qui confine à la guerre, tant les fronts ouverts sont multiples. Le front pionnier de la Silicon Valley est le lieu contemporain d’où se déploie une conquête agressive et transgressive. Mais comme toutes les ruptures technologiques, l’IA ouvre des horizons nouveaux : une terra incognita se profile et exige d’avoir conscience d’où nous partons et avec quels bagages.

Une aliénation parachevée ?

Une telle affirmation nécessite un double travail de démythification et d’appréciation du contexte contemporain troublé dans lequel l’IA se déploie à grande échelle. Plutôt que des réponses, toujours précaires et hypothétiques, il s’agit ici de formuler des questions probes à l’aune d’une inquiétude et d’une vigilance nécessaires. Le projet cybernétique, repris par les grandes entreprises de la Silicon Valley, porte des représentations de l’homme et des sociétés qui, aussi fantasques paraissent-elles, n’en demeurent pas moins efficientes et productives. Nous assistons au triomphe hégémonique du paradigme technique appliqué au corps et à l’esprit humain.


Efficacité, performance, simplification sont les horizons d’un modèle qui nous promet une automatisation toujours accrue des processus. Processus de production, de création, d’organisation sont évidemment en première ligne, mais les ambitions ne s’y cantonnent pas : justice, santé, éducation sont envisagées comme des domaines d’extension de la rationalité algorithmique. Le pseudo-philanthropisme affiché ne saurait masquer une autre hégémonie tout aussi inquiétante : le monopole économique et idéologique de ces grandes entreprises. Celui-ci réduit drastiquement toute possibilité d’appropriation des IA par les divers acteurs sociaux et de souveraineté de leurs usagers.


Que les finalités soient vantées comme émancipatrices ou régulatrices, elles s’appuient avant tout sur une modélisation réductrice et dévitalisante de l’individu. Les processus d’aliénation et de désindividuation déjà à l’œuvre avec l’avènement du numérique s’accélèrent. L’extension du domaine de l’algorithmique est sans précédent, conjuguant l’horizontalité et la désintermédiation des usages avec une verticalité d’une intensité inédite, dans notre rapport à une technologie qui nous commande. L’IA, artefact humain, s’avance comme un sphinx qui nous interroge sur ce qui nous définit comme personne, interlocuteur, créateur ou même citoyen, c’est-à-dire dans notre propre singularité. La crainte ou le fantasme d’une « singularité », d’une IA devenue démiurge, autonome et dominante occulte pourtant ce qui est profondément en jeu : l’acceptation d’une réduction de l’humain à un ensemble de compétences et d’usages qui peuvent dès lors être copiés, améliorés, dépassés.


Depuis plusieurs années fleurissent des tests en tous genres censés démontrer que l’IA est désormais plus performante que l’humain dans presque tous les domaines. L’IA comprend mieux un texte, l’écrit mieux, résout mieux des problèmes, soigne mieux, décide mieux, est plus empathique… Ces tests participent d’un discours de justification de l’automatisation généralisée – automatisation non seulement des capacités humaines, mais aussi de l’humain lui-même.

L’individu est ainsi vu comme un objet de gouvernance plutôt qu’un sujet citoyen. En 1948, le père Dominique Dubarle, très au fait des développements techniques, dans un article paru dans Le Monde, faisait déjà le parallèle entre le Léviathan hobbesien et la « machine à gouverner1 ». Dans un article pour la revue Esprit, deux années plus tard, il entrevoyait avec inquiétude la gestion cybernétique des affaires humaines2.


Le Léviathan de la Silicon Valley a aujourd’hui émergé et affirme son emprise. Ainsi, Elon Musk, dans le bureau ovale, cœur de la démocratie américaine, se fait le chantre de la dérégulation et de l’optimisation budgétaire et institutionnelle. Nous ne pouvons plus l’ignorer, l’IA est élaborée dans un creuset idéologique et philosophique qui n’a rien de neutre. C’est une certaine vision de l’homme et du monde qui conditionne ses élaborations actuelles et ses usages, où le techno-solutionnisme fonctionne comme un nouvel horizon eschatologique. Il se veut la promesse d’un monde régi par l’IA, sauvé de l’effondrement climatique et délivré de l’erreur humaine et de ses failles. La figure du progrès technique se substitue dès lors à celle du salut, et les prophètes de la Silicon Valley n’hésitent pas à endosser ce rôle messianique. L’IA n’est pas une entité qui flotterait au-dessus de la société, mais le produit d’une chaîne de décisions humaines. Elle est inscrite dans des structures de pouvoir et de valeurs qui lui préexistent, mais qu’elle renforce. Elle sélectionne, classe, hiérarchise, optimise, automatise, consomme. Elle reconduit certaines visions du monde plutôt que d’autres. Elle matérialise des rapports de force sociaux, économiques et politiques. La neutralité devient alors une justification pour la mise en œuvre de ces technologies, auxquelles il n’y a plus de raison a priori de s’opposer dès lors que la neutralité a la force de l’évidence. Nous ne sommes pas loin des discours de darwinisme social qui font aujourd’hui recette outre-Atlantique.


Les défenseurs de la supposée neutralité de l’IA et les alarmistes représentent deux faces d’une même pièce. Tous empêchent de considérer que derrière la machine artificielle se trouvent des personnes, physiques et morales, qui mettent en marche une certaine vision du monde. Un monde qui serait parfaitement optimisé, prévisible, contre l’imprévisibilité démocratique et le temps de la délibération. Les promoteurs d’une version technologique de l’autoritarisme et du management politique sont ainsi parvenus jusqu’au pouvoir de la première économie du monde. Ce sont Peter Thiel (milliardaire, investisseur des premières heures de Facebook et admirateur de la pensée de René Girard3 ; il a notamment financé la campagne de J. D. Vance dans l’Ohio en 2022) ou Elon Musk. Il est donc évident que la réduction au process, à l’automatisation, est bien une menace démocratique. La génération massive et infinie de discours et d’images est désormais possible dans une ère où le vrai et le faux indiffèrent, où les passions politiques et le discrédit prévalent.


L’IA conversationnelle débarque dans un monde où le désarroi affectif et la désagrégation des rapports humains sont un sujet d’inquiétude pour nos sociétés. L’IA pourrait bien vite être considérée comme un compagnon, un interlocuteur digne de notre empathie ou de notre attachement : un alter ego. Elle serait un réconfort, une bulle hyperadaptative dans des temps désenchantés. Loin d’être de simples instruments de gestion, les technologies prédictives promettent des « décisions prises à l’avance4  ». Elles ne se contentent pas d’informer ou d’accompagner nos choix : elles les précèdent, orientent et modifient nos comportements avant même que nous ayons conscience d’avoir pris une décision. Dès lors, « le pouvoir s’exerce par régulation anticipative et non par réglementation effective5 ».


La pratique du pouvoir change. Le nouveau monde de l’IA acquis au paradigme de l’efficacité ne peut se satisfaire des incertitudes et de l’imprévisibilité de la délibération publique et citoyenne. Sur ce point, l’exemple chinois de social credit scoring– quoique parfois soumis à la surinterprétation d’une surveillance panoptique centralisée6 – démontre le risque d’un usage autoritaire de la possibilité du contrôle technique. Il s’agit d’affirmer et de mettre en avant l’irréductibilité de l’humain face à l’IA, en réfutant l’inéluctabilité de l’automatisation. Cela suppose un changement de perspective : ne plus se contenter d’encadrer les Gafam, mais s’interroger sur leur existence même ; ne pas simplement réguler l’IA, mais en contester les prémisses. La technique est toujours porteuse d’un projet politique. L’enjeu est de réinvestir cet espace de choix et de redonner sens à une pensée critique capable de poser les bonnes questions.


Face à ce miroir trompeur, le risque est de survaloriser l’intelligence comme simple capacité de calcul. La candeur de l’idée selon laquelle il existe de bons ou mauvais usages de l’IA au gré des choix des individus n’est plus de mise. L’IA n’est pas un simple outil et, si c’est une machine, ses interfaces langagières, anthropomorphiques, engagent de nouveaux rapports. Il nous faudra apprendre à vivre avec, dans la convivialité7 et non dans une relation de fascination ou de soumission. Face à ce miroir trompeur, le risque est de survaloriser l’intelligence comme simple capacité de calcul et d’ignorer les ressources irremplaçables de l’erreur, de l’affect et de la bifurcation. Nous sommes à la croisée des chemins : l’inquiétude, le refus, le choix et la pratique critique se doivent d’être les points cardinaux précieux de notre boussole.


A suivre...


1. Dominique Dubarle, « Vers la machine à gouverner… », Le Monde, 28 décembre 1948.

2. D. Dubarle, « Idées scientifiques actuelles et domination des faits humains », Esprit, septembre 1950.

3. Adrien Tallent, « Facebook, antichambre du trumpisme », Esprit, mai 2022.

4. Günther Anders, L’Obsolescence de l’homme, t. I, Sur l’âme à l’époque de la deuxième révolution industrielle (1956), Paris, L’Encyclopédie des nuisances/Ivrea, 2002, p. 16.

5. Anne Alombert, Schizophrénie numérique, Paris, Allia, 2023, p. 59.

6. Entretien avec Séverine Arsène, « Le pouvoir numérique chinois », Esprit, décembre 2020.

7. Sur ce point, se reporter à Alain Damasio, Vallée du Silicium, Paris, Seuil, 2024.

Commentaires


+212-619 959 451

Pour rester informé.e.s de nos derniers ebooks, inscrivez-vous ici :

© 2025 by Najib BENSBIA  I  Ebooks Univers

bottom of page