J’ai parlé des outils LLM (ceux qu’on appelle communément « outils d’intelligence artificielle ») à plusieurs reprises, mais un usage récent que j’ai fait d’un tel outil et une décision que j’ai prise suite à cet usage me donne envie de reprendre un peu. Bon, quand je dis « récent », je me comprends : j’ai eu une « discussion » avec Grok dans le courant de l’été, discussion bien sûr tournant autour de mon sujet de prédilection : les bas. Et les femmes. J’ai trouvé les réponses intéressantes, au point d’avoir l’idée de les partager ici. Depuis, j’ai décidé de n’en rien faire. Pourquoi ? Je crois que ma manière de voir les choses a un peu évolué…
Ce que sont ces outils
Si vous avez été attentifs vous avez dû noter ma première phrase : j’ai parlé de LLM, pas d’intelligence artificielle. En pratique, malgré des résultats intéressants, ces outils n’ont rien d’intelligent : ce sont des générateurs statistiques de blabla, qui infèrent le sujet de la discussion à partir de ce que l’utilisateur saisit, et fournissent en réponse des mots qui semblent correspondre. Pas de compréhension, pas de magie, pas d’intelligence réelle. Faites l’expérience : demandez à un LLM de vous fournir un résultat obtenu par un calcul. Un résultat peut-être pas trop trivial, mais pour lequel vous connaissez la réponse.
Un des sites que je suis régulièrement l’a fait récemment. La question était : « Avec une connexion à 500MBits/s, combien de temps faut-il pour transférer un fichier de 30 Go ? ». Ils l’ont posée 20 fois, dans 20 sessions différentes, et ont eu la bonne réponse… 16 fois. À 4 reprises, l’outil leur a donné une mauvaise réponse. Et sur les 16 bonnes réponses, certaines découlaient d’un raisonnement faux. Je ne crois pas qu’ils aient fait le test, mais je suis à peu près sûr que s’ils avaient dit au LLM, après une bonne réponse : « Tu t’es trompé, peux-tu revoir le calcul ? », celui-ci leur aurait répondu : « Ah, oui, tu as raison, j’aurais dû faire comme ça, ça aurait donné cet autre résultat » (éventuellement identique). Pas d’intelligence, pas de compréhension, juste des statistiques : étant donné le contexte, la réponse attendue devrait ressembler à ça.
Sont-ils inutiles ?
Les LLM, qu’ils soient généralistes ou spécialistes — c’est à dire, qu’ils aient utilisé pendant leur phase d’apprentissage des données de tous types ou des données très spécifiques —, sont des outils formidables. À condition de les utiliser pour ce pour quoi ils sont bons. Un LLM spécialiste sera parfait pour donner un résultat statistiquement correct en prenant en entrée une grande quantité de données. J’ai entendu parler d’applications dans la détection de cancers par l’analyse des images de scanner, où ils repèrent des signes qu’un bon humain a du mal à voir. J’ai entendu parler aussi d’utilisation dans le cadre de la prédiction météo, qui semble très intéressante : beaucoup plus rapide, beaucoup plus fiable et beaucoup moins sensible à la qualité du relevé des conditions initiales que la traditionnelle méthode par éléments finis.
De même dans le cadre de la réalisation de jumeaux numériques. Là aussi, on utilise traditionnellement la méthode par éléments finis, le problème étant que nous n’avons pas une connaissance totale de tout ce qui se passe au niveau d’un tel élément, et que la taille de cet élément donne la résolution du système. Dans ce cadre, une méthode statistique peut fournir, à court terme, un résultat parfaitement satisfaisant. J’insiste sur le court terme ici : l’état du système à un instant dépend de son état à l’instant précédent : plus on s’éloigne des conditions connues, plus le résultat risquera de diverger de la réalité. Pour la météo de demain, basée sur aujourd’hui, ça peut être pas mal. Pour la météo de dans 10 jours, si on reste basé sur aujourd’hui, c’est surprenant mais ça peut rester cohérent. Mais travailler par récurrence, jour après jour, est plus qu’optimiste : les approximations vont se cumuler, pour finalement complètement diverger. Ceci dit, ça l’était aussi sans ces systèmes, et ça l’était même encore plus.
Il est donc clair qu’il existe des cas d’utilisation de ces systèmes où ils donneront d’excellents résultats, pour un coût en temps et en ressource modique par rapport aux méthodes traditionnelles. Tout au plus peut-on leur reprocher de manquer le cygne noir, l’événement exceptionnel qui se produit trop rarement pour être inclus dans les données d’entraînement. Ils le manqueront parce-qu’ils ne sont pas conçus pour le voir, et ils ne le sont pas parce-que ces événements sont, par définition, trop rares pour avoir un effet statistiquement significatif sur l’apprentissage.
Sont-ils nuisibles ?
Un couteau peut tuer.
Un couteau est-il nuisible pour autant ?
Le problème n’est pas l’outil, il est ce qu’on en fait.
Je peux me tromper, mais voici une petite liste des dangers que je vois pour ces outils.
L’excès de confiance. Celui-ci est très classique : « Ce que je dis est vrai, ChatGPT le confirme ». J’occupe mon temps avec beaucoup de discussions religieuses, et je trouve amusant de voir cet argument brandi à la fois par des croyants et par leurs opposants — adeptes d’une autre manière de joindre le divin, ou athées. Parce-qu’il ne faut pas se leurrer : ChatGPT va dire ce que l’utilisateur a envie de lire, pas une vérité claire et objective. Pour ça, il fallait aller à Delphes zu temps où Apollon inspirait la Pythie, depuis qu’il est parti nous n’avons plus d’oracle fiable. Enfin, c’est ce qu’on m’a dit, après tout l’oracle s’était-il trompé sur Œdipe ? Il a bien tué son père et épousé sa mère, non ? Quant au fait qu’il l’a fait à cause de l’oracle lui-même…
L’impact écologique ? Quand j’ai commencé à creuser ce sujet pour aller un peu plus loin que l’alarmisme traditionnel, j’ai réalisé que ce sujet mériterait un article entier à lui tout seul. Plutôt que l’effleurer (et oublier des éléments importants), je préfère vous proposer en fin d’article des liens vers des articles traitant du sujet.
L’impact social, notamment par la destruction d’emplois ? Je vais l’aborder un peu plus loin.
Le pire problème, à mon avis, reste le marketing. À entendre les patrons des entreprises du domaine, il s’agit d’une révolution (ce n’est pas faux) qui va bouleverser nos modes de vie (c’est un peu plus douteux), inventer de nouveaux métiers (probable) et faire gagner ou économiser des milliards — le plus souvent en remplaçant des salariés. Pourra-t-on compter sur la « destruction créatrice » chère à Schumpeter, et qui a permis lors des précédentes révolutions techniques aux bras ou aux cerveaux libérés d’un côté de trouver du travail ailleurs ? Si vous écoutez ces gens, qui ont investi des milliards dans ces systèmes, dans les entreprises qui fournissent le matériel, l’énergie, n’oubliez surtout pas l’information la plus importante à leur sujet : ils veulent vous vendre leurs systèmes. Faut-il en dire plus…?
Et l’emploi ?
Les LLM remplaceront-ils les avocats, les notaires, les graphistes, les développeurs informatiques ?
À mon avis, on tombe ici dans le problème d’excès de confiance dont j’ai parlé plus haut. L’entreprise qui vend le modèle de LLM va bien sûr dire qu’il peut faire en autonomie le travail de tant de développeurs informatiques, que celui-ci se transforme pour passer d’un « je fais une recherche sur un site de développeurs et je copie-colle la réponse dans mon environnement de développement » à « je rédige une demande dans mon LLM et je copie-colle la réponse au même endroit », le LLM ayant l’avantage de demander moins d’adaptations. Sauf que le travail d’un développeur informatique, s’il consiste souvent à beaucoup reprendre ce qui a déjà été fait, ne s’y limite pas : il doit aussi comprendre au minimum ce qu’il copie, et être capable de l’adapter exactement à ses besoins. Le LLM peut en être capable, mais il devra être bien guidé. Et pour ça, il aura besoin d’un humain qui sait ce qu’il fait.
Je parle des développeurs informatiques, mais les professions liées à la loi sont touchées aussi. Il n’est pas encore question de remplacer un juge par un système informatique (c’est dommage, on aurait une application la plus stricte possible de la doctrine légiste… un très bon moyen pour en montrer l’inhumanité !), mais il semble que des avocats ont déjà essayé de construire leurs plaidoiries avec ces systèmes. Dans les pays de Common Law (où le droit découle de la jurisprudence), c’est tentant : non seulement ils ont accès à l’ensemble des jugements rendus, mais ils ont aussi des capacités de rédaction qui en font une aide non négligeable. Enfin… tant qu’ils n’inventent pas des jugements, cette discipline entre toutes ne supporte pas l’invention ! L’humain reste nécessaire pour contrôler le bien fondé des exemples utilisés, et si un tel cas inventé forme le cœur de la « plaidoirie »… l’avocat va avoir du mal à rester crédible.
Il existe un cas où l’arrivée de ces outils semble intéressante : la fabrication de rapports pour les gouvernements. Ceux-ci sont en général rédigés par des grandes sociétés de conseil qui facturent leur prestation à prix d’or. Ces rapports, après avoir plus ou moins fuité dans la presse, sont remis au ministre qui les a demandé les d’une cérémonie agrémentée de force petits fours, avant d’aller caler des armoires dans certaines salles d’archives ou dans les bureaux des ministères : autant les faire générer par des LLM, le résultat sera plus rapide, aussi efficace, bien moins cher et bien meilleur pour l’embonpoint de nos ministres. Ah, on me souffle que pour l’instant, si les LLM sont utilisées, ça serait par les cabinets de conseil en question qui, par ailleurs, n’ont pas revu leur grille de tarifs1… Pardon, j’ai été un peu trop enthousiaste.
Un impact réel
Je vous épargne ici la diffusion de fausses informations, d’images générées contrefaites, de romans ou de tutoriels GenAI qui oublient de le préciser : ces sujets sont largement mentionnés, discutés, débattus ailleurs, notamment sur les réseaux sociaux qui montrent le clivage entre des créateurs inquiets et des utilisateurs ravis d’avoir des trucs de qualité dite « professionnelle » pour un investissement minime.
Je viens de lire un article qui évoque une situation peut-être inattendue, celle des projets informatiques open source qui reçoivent des rapports de bugs… générés par IA. Ces projets sont parfois gérés par de toutes petites équipes, souvent bénévoles, mais ne croyez pas qu’ils sont inutiles : celui dont il est question dans l’article est utilisé par la quasi-totalité des lecteurs vidéo du marché, rien que ça. En pratique, on est dans la situation décrite dans cette image de xkcd qui n’a malheureusement pas pris une ride, sauf que les personnes qui prennent sur leur temps libre pour tenir la petite brique étroite, tout en bas, sont maintenant assommés de rapports de bug de sécurité à traiter dans l’urgence. Certains sont au bord de la rupture.
Restons dans l’informatique : s’il est possible de soumettre en masse des rapports de bugs, il est aussi possible d’attaquer des logiciels beaucoup plus facilement. Oh, ceux-ci peuvent être bien conçus, bien pensés, mais il suffit de trouver une faille, un petit espace oublié pour s’introduire. Plus besoin de spécialistes humains, il devient trivial d’automatiser l’attaque. On vous a vendu des frigos, des fours , des voitures, des télés connectées ? Félicitations, à la moindre compromission, vous laisserez sur les réseaux de superbes bots, après tout qui irait penser à mettre à jour un réfrigérateur…? Comprenez-moi bien, il n’y a rien de nouveau ici. Mais quand on attaquait avant avec des épées et des arcs, on a maintenant accès à la sulfateuse, voire à la bombe thermonucléaire… pas top…
Dans un autre contexte, je suis à peu près sûr que tout le monde a entendu parler de « trading à haute fréquence » : le fait d’utiliser d’infimes différences entre les prix d’un même élément entre deux places financières pour, avec des millions de transactions, réaliser un bénéfice substantiel. Imaginez un modèle, entraîné comme celui que j’ai mentionné plus haut pour la météo, mais sur les fluctuations d’un marché particulier. Ça serait un outil parfait pour anticiper, sans devoir trouver de modèle compliqué, les évolutions de ce marché. Avec des risques de générer des prophéties auto-réalisatrices : si tous les modèles des grandes institutions, entraînés sur les mêmes données, prédisent une baisse sur un sous-jacent, il y a de fortes chances que ces institutions de débarrassent de ce sous-jacent… faisant baisser son prix. À ce stade, l’économie financière purement spéculative peut avoir un impact on ne peut plus réel sur nos vies
Une balle dans le pied
Les entreprises derrière les grands LLM sont, aussi, les grandes entreprises du web : Méta, Microsoft, X, Amazon et, pas loin derrière, Google et Apple. Ces entreprises ont un avantage important sur la concurrence : elles ont accès à des quantités phénoménales de données humaines directement disponibles dans leurs bases de données, très bien pour l’entraînement. Sauf que… Selon certaines estimations, à ce jour (fin 2025) la moitié du contenu sur l’Internet est généré. Certains entrepreneurs ont flairé l’aubaine avec les LLM : innonder le réseau d’articles aux titres racoleur, destinés à attirer les clics. Ces articles sont bien sûr sur des sites bardés de pub. Il est peu cher de générer de tels sites en masse, il suffit qu’un article émerge de temps en temps sur les moteurs de recherche pour toucher un relatif jackpot.
Le même phénomène se produit pour les podcasts et les vidéos : une entreprise a été flashée à publier plusieurs milliers de podcasts par semaine sur des sujets variés, avec… 8 collaborateurs. Le but : certainement pas concurrencer les grosses chaînes, mais avoir une ou deux productions qui atteignent un niveau suffisant d’écoutes pour couvrir les frais de l’ensemble. Apparemment, ça marcherait. Jusqu’à quand ? Idem, au passage, en vidéo : il suffit d’un titre aguicheur et d’une miniature attirante, pour l’instant les clics viennent. Avec une question toutefois…
Apparemment, bon nombre de ces vidéos auraient un nombre impressionnant de commentaires. « Postés » par des bots, des programmes informatiques dont le but est de biaiser l’algorithme des plateformes. Plateformes qui vivent, avant tout, de la vente de pub. Quelle est la valeur d’une publicité qui est « vue » des millions de fois… par des programmes informatiques ? Il n’y a pas de réaction pour l’instant, mais peut-être qu’à un moment, les annonceurs vont finir par se rendre compte de la douille et ruer dans les brancards. On peut rêver un peu, mais si les plateformes jouent et gagnent encore sur tous les tableaux, elles ne sont peut-être pas bien loin de tuer la poule aux œufs d’or. Si l’économie réelle décide de ne plus les financer, la jolie bulle qui se forme risque de faire « plop »…
Plus pervers : le comportement de certaines plateformes d’écoute de musique en ligne — un certain groupe suédois en tête. Ayant réalisé que bon nombre d’auditeurs écoutent la musique en réalisant d’autres activités, ils ajoutent dans la liste de lecture des titres générés par leurs systèmes. Dans le bruit de fond, ça se remarque assez peu. Mais pas dans leurs profits : leur modèle consiste à partager leur chiffre d’affaire, une part revient à la plateforme, le reste revient aux artistes au prorata des écoutes réalisées. Que se passe-t-il quand une partie du temps d’écoute est gaspillé utilisé pour de la musique générée par la plateforme…? Il n’y a pas d’artiste pour recevoir l’argent, il reste donc sur la plateforme2. Moins d’argent pour les artistes, plus pour le distributeur. Honnêtement… qu’est-ce qui pourrait mal tourner3 ?
Conclusion
Au final, on a des outils qui peuvent être intéressants, à condition qu’ils soient effectivement utilisés comme ce qu’ils sont : des outils, destinés à être utilisés par des humains, mais certainement pas à remplacer des humains. La décision de prendre en compte ou non les production de ces programmes nous revient. La décision de les utiliser, la décision de leur donner de l’importance aussi. Vous estimez qu’ils sont trop envahissants ? C’est à vous, humains, d’agir pour réduire leur importance. Ça tombe bien, ce n’est pas bien compliqué : quand vous voyez apparaître dans votre fil sur une application quelconque un titre qui vous donne très envie de cliquer « juste pour voir »… fuyez ! Évitez ce qui est trop beau pour être vrai, ou ce qui confirme de façon trop éclatante vos préjugés, à moins que vous n’ayez l’assurance qu’il s’agit d’une création humaine. Non par rejet d’une forme de progrès, mais pour montrer que vous ne voulez pas d’un futur où l’humanité est remplacée par des agents automatiques.
Me concernant, je ne partagerai donc pas cette « discussion » que j’ai eue avec Grok ici. Il y a assez de textes, de sons, de vidéos générés par ces systèmes qui tournent un peu partout, je ne vois aucune bonne raison d’en ajouter. Je me réserve le droit, par contre, d’aller examiner les sources qu’il m’a données, pour en tirer d’éventuelles idées d’articles, ceux-ci seront toutefois rédigés par un humain. Vous avez peut-être remarqué que ça fait aussi quelques temps que je n’ai pas illustré d’article avec des images générées4. J’estime qu’entre les photos de NylonPur, celles d’autres photographes et illustrateurs qui m’autorisent à en reprendre, et ce que je peux trouver sur des bibliothèques libres, je devrais pouvoir illustrer tout ce dont j’ai besoin, d’une manière ou d’une autre. Je n’exclus pas, cependant, l’usage de telles images dans le cadre de l’habillage graphique de mes réseaux sociaux (page Facebook en tête).
Pour avoir un autre point de vue sur le sujet, je vous invite à aller lire cet article chez Passions et Écritures, qui explore les apports des LLM et les atouts humains dans le cadre de la rédaction.
Nouvelle image pour ces articles traitant d'IA, cette fois-ci ce n'est pas une image générée par un de ces outils, mais une photo personnelle que j'ai (assez lourdement) retouchée avec Gimp. Elle est donc issue d'une prise de vue naturelle, et de l'application d'un certain nombre de filtres, en tout cas aucun LLM n'a été impliqué dans l'opération.
Image retouchée avec Gimp.
Références
Voici une petite liste, non exhaustive, d’articles et de ressources qui ont nourri ma réflexion sur ces sujets.
- Analyse du coût environnemental des IA génératives en 2025 (post LinkedIn de Johann Creeten, lisible sans connexion)
- L’hypocrisie autour de l’IA, sur Next (payant jusqu’au 11 janvier 2026, lecture libre ensuite)
- Brève sur le business des faux comptes d’actualité sur Tik Tok.
- Quasiment le même article, dit différemment et orienté jeu de rôle, chez Axelle Psychée Brouet, merci à Scriiipt pour la référence !
Je n’en mets que 3, il y en a beaucoup d’autres. Je voudrais aussi partager avec vous 2 vidéos, qui sont très intéressantes si vous avez la possibilité de leur accorder du temps.
Tout d’abord, Ben de Nota Bene qui explique, sur sa chaîne secondaire, les dangers de certaines vidéos générées :
Et pour conclure sur une note positive (vraiment…?), une vidéo de Defekator sur un usage assez particulier des modèles d’IA générative, qui parlera peut-être aux personnes qui ont vu le film Transcendance.
- voir le cas de Deloitte et du gouvernement de Terre-Neuve-et-Labrador – source. ↩︎
- ou chez l’éditeur, ceux-là se placent aussi sur le créneau ↩︎
- Notez que les majors sont intéressées aussi, et pas seulement pour la possibilité de faire sortir de nouveaux albums d’artistes décédés… ↩︎
- le dernier date du 26 mars ↩︎

Répondre à James Jones Annuler la réponse.