FR EN ES
2026-02-08

L'IA c'est mal. En fait non. En fait c'est un outil.

L'IA c'est mal. En fait non. En fait c'est un outil.

L'intelligence artificielle va tous nous remplacer. On va perdre nos emplois, nos cerveaux vont fondre, les robots vont dominer le monde, et Skynet va lancer les missiles un mardi après-midi. C'est en tout cas ce que j'ai lu sur LinkedIn entre deux posts de « leaders d'opinion » qui utilisent ChatGPT pour écrire leurs posts sur les dangers de ChatGPT. (ironie niveau expert)

Sauf que non. C'est plus compliqué que ça. Et c'est aussi plus simple que ça. Accrochez-vous, ça va faire des virages.

Disclaimer obligatoire : ce billet n'est ni de gauche, ni de droite, ni du centre, ni d'en haut, ni d'en bas. Il a d'ailleurs été vérifié par une intelligence artificielle pour garantir l'absence totale de toute opinion politique. L'IA a confirmé : zéro idée politique détectée. Ce qui, quand on y réfléchit, est peut-être le commentaire le plus politique de ce billet. (boucle infinie)

L'IA c'est mal

Commençons par le procès. Il est facile à monter, y'a de la matière.

L'IA générative bouffe une quantité d'énergie obscène. Entraîner un modèle de langage, c'est l'équivalent carbone de faire Paris-New York en avion. Plusieurs fois. Pour générer des images de chats en armure médiévale. Bravo, l'humanité. (applaudissements lents) ... Cela dit, la même IA optimise des réseaux électriques et réduit le gaspillage énergétique dans l'industrie. Mais bon, c'est moins rigolo à raconter.

L'IA hallucine. Elle invente des sources, des citations, des faits. Elle vous dit avec une assurance absolue que la capitale du Zimbabwe est Pétaouchnok, et si vous ne vérifiez pas, vous allez le mettre dans votre rapport. Votre chef ne vérifiera pas non plus. Personne ne vérifiera. Et Pétaouchnok deviendra la capitale du Zimbabwe dans le prochain modèle, entraîné sur votre rapport. (cercle vertueux) ... En même temps, les humains aussi hallucinent. Ça s'appelle les biais cognitifs, et on n'a pas attendu l'IA pour mettre des âneries dans des rapports. Au moins, l'IA, on peut la fact-checker mécaniquement.

L'IA remplace des artistes, des traducteurs, des rédacteurs. Les premiers à trinquer, comme d'habitude, sont les créatifs et les précaires. Les mêmes entreprises qui vous disent que « l'IA ne remplacera jamais l'humain » sont en train de licencier leurs équipes de contenu. Mais le communiqué de presse, lui, est écrit par un humain. Pour l'instant. ... Sauf que cette même IA permet aussi à un gamin de quatorze ans de composer de la musique, à un amateur de créer des illustrations qu'il n'aurait jamais pu réaliser, à un petit entrepreneur de produire du contenu sans budget agence. La démocratisation de la création, c'est aussi ça.

L'IA est utilisée pour la surveillance de masse, le scoring social, la reconnaissance faciale, le tri de CV (avec les biais racistes et sexistes qui vont avec). Elle est utilisée pour générer de la désinformation à une échelle industrielle. Elle est utilisée pour des choses qu'on n'aurait pas osé imaginer il y a dix ans. ... Et elle est aussi utilisée pour détecter des cancers sur des radios que l'œil humain aurait ratées, pour prédire des séismes, pour retrouver des personnes disparues. Même médaille, autre face.

Les deepfakes. Parlons-en. On peut maintenant mettre le visage de n'importe qui sur n'importe quoi. Votre tête sur une vidéo compromettante, la voix de votre patron qui vous ordonne un virement, un discours d'un président qui n'a jamais existé. Et ça, c'est pas dans cinq ans. C'est maintenant. Votre grand-mère ne fera pas la différence. Votre banquier non plus. Le pire, c'est que plus personne ne saura ce qui est vrai. Une vraie vidéo d'un scandale ? « C'est un deepfake. » Un vrai deepfake ? « On ne peut plus rien prouver. » L'IA n'a pas seulement permis de créer du faux. Elle a tué la notion même de preuve visuelle. (merci, progrès) ... Mais la même technologie restaure des films anciens, redonne une voix à des patients qui l'ont perdue, et permet à un petit-fils d'entendre son grand-père raconter une histoire dans une langue qu'il n'a jamais parlée. C'est beau. C'est aussi flippant. Les deux en même temps.

La triche. L'étudiant qui fait rédiger son mémoire par ChatGPT. L'employé qui fait écrire ses rapports sans les relire. Le candidat qui passe un entretien technique avec un chatbot dans l'oreillette. On va s'indigner cinq minutes, et puis quoi ? On a les mêmes débats depuis la calculatrice. La différence, c'est que la calculatrice ne faisait pas semblant d'être vous. Quand un étudiant recopie Wikipédia, au moins il doit lire l'article. Quand il prompte une IA, il n'a même plus besoin de comprendre la question. On ne fabrique plus des diplômés, on fabrique des gens qui savent prompter. (ça va bien se passer sur le marché du travail) ... Et pourtant, on s'est adapté à la calculatrice. On s'est adapté à Internet. On s'adaptera à l'IA. Ou pas. Ça dépendra de nous, pas de la machine.

L'éthique. Les données d'entraînement, c'est du vol à peine déguisé. Des millions d'images d'artistes aspirées sans consentement. Des milliards de textes raclés sur le web sans demander à personne. Votre blog, vos photos, vos articles, tout ça a probablement servi à entraîner un modèle qui va ensuite vous faire concurrence. Vous êtes à la fois la matière première et le dommage collatéral. Et quand les artistes se plaignent, on leur répond que c'est du « fair use ». (c'est pratique, le fair use, ça marche dans un seul sens) ... D'un autre côté, cette même masse de données rend la connaissance humaine accessible à des gens qui n'avaient pas accès à une bibliothèque. Un paysan au Burkina Faso peut poser une question en dioula et obtenir une réponse. C'est du vol de données et de la démocratisation du savoir. Essayez de tenir les deux dans la même main.

Les réseaux sociaux. Comme s'ils n'étaient pas déjà assez toxiques, maintenant ils sont infestés de contenu généré par IA. Des faux comptes qui commentent, des faux articles qui circulent, des faux profils qui vous draguent, des faux avis qui vous orientent. Vous croyez discuter avec un humain indigné ? C'est un bot. Vous croyez lire un témoignage poignant ? C'est généré. Vous croyez voir une photo de la guerre en cours ? C'est fabriqué dans un salon à Moscou. La moitié de votre fil d'actualité est peut-être déjà synthétique et vous ne le savez même pas. À ce stade, le conseil le plus sain qu'on puisse donner, c'est d'éteindre l'écran et d'aller toucher de l'herbe. De la vraie herbe. Dehors. Avec de la terre et des insectes. (radical, je sais) ... Mais cette même IA aide aussi des personnes isolées à briser la solitude, des associations à modérer des contenus pédopornographiques que des humains ne devraient pas avoir à regarder, et des chercheurs à détecter des campagnes de manipulation. Même dans l'égout, il y a des gens qui nettoient.

Voilà. Procès fait. Verdict : coupable. Enfin... c'est compliqué.

L'IA c'est bien, en fait

Bon, changeons de casquette. Plaidoirie de la défense.

L'apprentissage. J'ai un gamin qui apprend à lire. Un chatbot patient, qui ne se lasse jamais de réexpliquer, qui s'adapte au rythme de l'enfant, qui ne soupire pas à la quatorzième question, c'est un outil pédagogique formidable. Pas un remplaçant du prof. Un complément. Le prof a trente élèves. L'IA en a un. Les deux sont utiles. ... Sauf que le gamin qui s'habitue à un chatbot infiniment patient risque de ne plus supporter un prof humain qui, lui, a des limites. Et surtout, il risque de ne plus chercher par lui-même. Pourquoi se creuser la tête quand la réponse est à un prompt ? On appelle ça la dépendance intellectuelle, et c'est le contraire de l'apprentissage.

La traduction. L'IA permet à n'importe qui de produire une traduction décente en quelques secondes. Un site web multilingue, un mode d'emploi, une correspondance internationale, autant de choses qui coûtaient des milliers d'euros deviennent accessibles à tous. C'est du progrès. (si si) ... Sauf que ça tue le métier de traducteur. Pas les mauvais, les bons. Ceux qui transmettaient le sens, pas les mots. Ceux qui faisaient de la littérature, pas de la conversion. Et quand ils auront tous disparu, qui corrigera les traductions de l'IA ?

Le handicap. C'est là que ça devient difficile de cracher sur l'IA. Un aveugle qui peut « voir » une image grâce à une description générée. Un sourd qui peut suivre une conversation grâce à une transcription en temps réel. Un dyslexique qui peut se faire reformuler un texte. Un autiste qui peut s'entraîner aux interactions sociales avec un chatbot qui ne juge pas. Allez dire à ces gens-là que « l'IA c'est mal ». Je vous regarde faire. ... Mais observez comment les entreprises tech utilisent le handicap comme argument marketing pour vendre leurs produits, tout en rendant leurs propres interfaces de moins en moins accessibles. L'IA aide les handicapés et sert de caution morale à des boîtes qui s'en fichent. Les deux sont vrais.

La facilitation. Un développeur qui utilise l'IA pour générer du boilerplate, du code répétitif, des tests unitaires, ce n'est pas de la triche. C'est comme utiliser un tournevis électrique au lieu d'un manuel. Le résultat est le même, vous avez juste moins mal au poignet. Et vous avez intérêt à vérifier que la vis est bien serrée dans les deux cas. ... Sauf quand le développeur arrête de comprendre son propre code. Sauf quand il accepte aveuglément ce que l'IA lui propose. Sauf quand il ne sait plus visser à la main et que le tournevis électrique tombe en panne. Là, ça se voit.

La compréhension. Résumer un article de trente pages. Expliquer un concept complexe en termes simples. Reformuler un texte juridique en langage humain. Extraire les points clés d'une réunion de trois heures. L'IA ne comprend rien au sens philosophique du terme, mais elle facilite la compréhension humaine. Et ça, c'est précieux. ... Sauf que « faciliter la compréhension » et « donner l'illusion d'avoir compris » sont deux choses très différentes. Lire un résumé, ce n'est pas comprendre. Avoir les points clés, ce n'est pas maîtriser le sujet. Et confondre les deux, c'est le début de l'incompétence confiante, la pire des espèces.

Voilà. Plaidoirie faite. Verdict : innocente. Enfin... c'est compliqué aussi.

Ah ben zut, on tourne en rond

Vous avez remarqué ? Chaque argument « contre » a un « pour » planqué dedans. Chaque argument « pour » a un « contre » qui le ronge. On est bien avancés.

C'est presque comme si... ce n'était ni bien ni mal. Comme si c'était un outil. Un marteau, ça peut construire une maison ou fracasser un crâne. On n'interdit pas les marteaux. On juge les gens qui fracassent des crânes. (ça paraît évident dit comme ça)

L'IA, c'est pareil. Comme l'imprimerie, qui a permis la Bible et Mein Kampf. Comme Internet, qui a permis Wikipédia et 4chan. Comme le feu, qui a permis la cuisine et l'incendie volontaire.

L'IA, c'est la nouvelle télé.

Vous vous souvenez, la télé ? « Ça va rendre les enfants idiots. » « Ça va détruire la lecture. » « Ça va pourrir le débat public. » C'était dans les années 60. Avant ça, c'était la radio. Avant la radio, le cinéma. Avant le cinéma, le roman (oui, le roman, on pensait que les femmes allaient perdre la raison en lisant des histoires d'amour. Sérieusement.). Et à chaque fois : panique, moralisation, propositions d'interdiction, et puis... on s'adapte. Ou pas. Mais l'outil reste.

La télé a donné C'est pas sorcier et la téléréalité. L'IA donnera des choses formidables et des choses consternantes. Et dans les deux cas, la variable d'ajustement, ce n'est pas la technologie. C'est vous.

Servez-vous de votre esprit critique

Alors voilà, mon message est simple : utilisez votre cerveau.

L'IA vous sort un résultat ? Vérifiez. L'IA vous traduit un texte ? Relisez. L'IA vous génère du code ? Testez-le, lisez-le, comprenez-le. L'IA vous résume un article ? Lisez l'article quand même, au moins en diagonale. L'IA vous dit que la Terre est plate ? Ne la croyez pas. (ça vaut aussi pour votre beau-frère)

L'IA est un assistant, pas un oracle. Un brouillon, pas un produit fini. Un point de départ, pas une ligne d'arrivée. Et si vous traitez un assistant comme un oracle, le problème n'est pas l'assistant. C'est vous.

Est-ce que vous devriez vérifier tout ce que j'ai écrit ? Surtout oui. C'est ça, l'esprit critique. Ça marche avec l'IA, avec les journaux, avec les politiques, avec votre beau-frère, et avec moi.

Servez-vous-en. C'est gratuit et c'est renouvelable.