Artificielle

Vortex rouge plongeant vers la lumière. Photo personnelle (lourdement) retouchée.

J’ai parlé des outils LLM (ceux qu’on appelle communément « outils d’intelligence artificielle ») à plusieurs reprises, mais un usage récent que j’ai fait d’un tel outil et une décision que j’ai prise suite à cet usage me donne envie de reprendre un peu. Bon, quand je dis « récent », je me comprends : j’ai eu une « discussion » avec Grok dans le courant de l’été, discussion bien sûr tournant autour de mon sujet de prédilection : les bas. Et les femmes. J’ai trouvé les réponses intéressantes, au point d’avoir l’idée de les partager ici. Depuis, j’ai décidé de n’en rien faire. Pourquoi ? Je crois que ma manière de voir les choses a un peu évolué…

Ce que sont ces outils

Si vous avez été attentifs vous avez dû noter ma première phrase : j’ai parlé de LLM, pas d’intelligence artificielle. En pratique, malgré des résultats intéressants, ces outils n’ont rien d’intelligent : ce sont des générateurs statistiques de blabla, qui infèrent le sujet de la discussion à partir de ce que l’utilisateur saisit, et fournissent en réponse des mots qui semblent correspondre. Pas de compréhension, pas de magie, pas d’intelligence réelle. Faites l’expérience : demandez à un LLM de vous fournir un résultat obtenu par un calcul. Un résultat peut-être pas trop trivial, mais pour lequel vous connaissez la réponse.

Un des sites que je suis régulièrement l’a fait récemment. La question était : « Avec une connexion à 500MBits/s, combien de temps faut-il pour transférer un fichier de 30 Go ? ». Ils l’ont posée 20 fois, dans 20 sessions différentes, et ont eu la bonne réponse… 16 fois. À 4 reprises, l’outil leur a donné une mauvaise réponse. Et sur les 16 bonnes réponses, certaines découlaient d’un raisonnement faux. Je ne crois pas qu’ils aient fait le test, mais je suis à peu près sûr que s’ils avaient dit au LLM, après une bonne réponse : « Tu t’es trompé, peux-tu revoir le calcul ? », celui-ci leur aurait répondu : « Ah, oui, tu as raison, j’aurais dû faire comme ça, ça aurait donné cet autre résultat » (éventuellement identique). Pas d’intelligence, pas de compréhension, juste des statistiques : étant donné le contexte, la réponse attendue devrait ressembler à ça.

Sont-ils inutiles ?

Les LLM, qu’ils soient généralistes ou spécialistes — c’est à dire, qu’ils aient utilisé pendant leur phase d’apprentissage des données de tous types ou des données très spécifiques —, sont des outils formidables. À condition de les utiliser pour ce pour quoi ils sont bons. Un LLM spécialiste sera parfait pour donner un résultat statistiquement correct en prenant en entrée une grande quantité de données. J’ai entendu parler d’applications dans la détection de cancers par l’analyse des images de scanner, où ils repèrent des signes qu’un bon humain a du mal à voir. J’ai entendu parler aussi d’utilisation dans le cadre de la prédiction météo, qui semble très intéressante : beaucoup plus rapide, beaucoup plus fiable et beaucoup moins sensible à la qualité du relevé des conditions initiales que la traditionnelle méthode par éléments finis.

De même dans le cadre de la réalisation de jumeaux numériques. Là aussi, on utilise traditionnellement la méthode par éléments finis, le problème étant que nous n’avons pas une connaissance totale de tout ce qui se passe au niveau d’un tel élément, et que la taille de cet élément donne la résolution du système. Dans ce cadre, une méthode statistique peut fournir, à court terme, un résultat parfaitement satisfaisant. J’insiste sur le court terme ici : l’état du système à un instant dépend de son état à l’instant précédent : plus on s’éloigne des conditions connues, plus le résultat risquera de diverger de la réalité. Pour la météo de demain, basée sur aujourd’hui, ça peut être pas mal. Pour la météo de dans 10 jours, si on reste basé sur aujourd’hui, c’est surprenant mais ça peut rester cohérent. Mais travailler par récurrence, jour après jour, est plus qu’optimiste : les approximations vont se cumuler, pour finalement complètement diverger. Ceci dit, ça l’était aussi sans ces systèmes, et ça l’était même encore plus.

Il est donc clair qu’il existe des cas d’utilisation de ces systèmes où ils donneront d’excellents résultats, pour un coût en temps et en ressource modique par rapport aux méthodes traditionnelles. Tout au plus peut-on leur reprocher de manquer le cygne noir, l’événement exceptionnel qui se produit trop rarement pour être inclus dans les données d’entraînement. Ils le manqueront parce-qu’ils ne sont pas conçus pour le voir, et ils ne le sont pas parce-que ces événements sont, par définition, trop rares pour avoir un effet statistiquement significatif sur l’apprentissage.

Sont-ils nuisibles ?

Un couteau peut tuer.

Un couteau est-il nuisible pour autant ?

Le problème n’est pas l’outil, il est ce qu’on en fait.

Je peux me tromper, mais voici une petite liste des dangers que je vois pour ces outils.

L’excès de confiance. Celui-ci est très classique : « Ce que je dis est vrai, ChatGPT le confirme ». J’occupe mon temps avec beaucoup de discussions religieuses, et je trouve amusant de voir cet argument brandi à la fois par des croyants et par leurs opposants — adeptes d’une autre manière de joindre le divin, ou athées. Parce-qu’il ne faut pas se leurrer : ChatGPT va dire ce que l’utilisateur a envie de lire, pas une vérité claire et objective. Pour ça, il fallait aller à Delphes zu temps où Apollon inspirait la Pythie, depuis qu’il est parti nous n’avons plus d’oracle fiable. Enfin, c’est ce qu’on m’a dit, après tout l’oracle s’était-il trompé sur Œdipe ? Il a bien tué son père et épousé sa mère, non ? Quant au fait qu’il l’a fait à cause de l’oracle lui-même…

L’impact écologique ? Quand j’ai commencé à creuser ce sujet pour aller un peu plus loin que l’alarmisme traditionnel, j’ai réalisé que ce sujet mériterait un article entier à lui tout seul. Plutôt que l’effleurer (et oublier des éléments importants), je préfère vous proposer en fin d’article des liens vers des articles traitant du sujet.

L’impact social, notamment par la destruction d’emplois ? Je vais l’aborder un peu plus loin.

Le pire problème, à mon avis, reste le marketing. À entendre les patrons des entreprises du domaine, il s’agit d’une révolution (ce n’est pas faux) qui va bouleverser nos modes de vie (c’est un peu plus douteux), inventer de nouveaux métiers (probable) et faire gagner ou économiser des milliards — le plus souvent en remplaçant des salariés. Pourra-t-on compter sur la « destruction créatrice » chère à Schumpeter, et qui a permis lors des précédentes révolutions techniques aux bras ou aux cerveaux libérés d’un côté de trouver du travail ailleurs ? Si vous écoutez ces gens, qui ont investi des milliards dans ces systèmes, dans les entreprises qui fournissent le matériel, l’énergie, n’oubliez surtout pas l’information la plus importante à leur sujet : ils veulent vous vendre leurs systèmes. Faut-il en dire plus…?

Et l’emploi ?

Les LLM remplaceront-ils les avocats, les notaires, les graphistes, les développeurs informatiques ?

À mon avis, on tombe ici dans le problème d’excès de confiance dont j’ai parlé plus haut. L’entreprise qui vend le modèle de LLM va bien sûr dire qu’il peut faire en autonomie le travail de tant de développeurs informatiques, que celui-ci se transforme pour passer d’un « je fais une recherche sur un site de développeurs et je copie-colle la réponse dans mon environnement de développement » à « je rédige une demande dans mon LLM et je copie-colle la réponse au même endroit », le LLM ayant l’avantage de demander moins d’adaptations. Sauf que le travail d’un développeur informatique, s’il consiste souvent à beaucoup reprendre ce qui a déjà été fait, ne s’y limite pas : il doit aussi comprendre au minimum ce qu’il copie, et être capable de l’adapter exactement à ses besoins. Le LLM peut en être capable, mais il devra être bien guidé. Et pour ça, il aura besoin d’un humain qui sait ce qu’il fait.

Je parle des développeurs informatiques, mais les professions liées à la loi sont touchées aussi. Il n’est pas encore question de remplacer un juge par un système informatique (c’est dommage, on aurait une application la plus stricte possible de la doctrine légiste… un très bon moyen pour en montrer l’inhumanité !), mais il semble que des avocats ont déjà essayé de construire leurs plaidoiries avec ces systèmes. Dans les pays de Common Law (où le droit découle de la jurisprudence), c’est tentant : non seulement ils ont accès à l’ensemble des jugements rendus, mais ils ont aussi des capacités de rédaction qui en font une aide non négligeable. Enfin… tant qu’ils n’inventent pas des jugements, cette discipline entre toutes ne supporte pas l’invention ! L’humain reste nécessaire pour contrôler le bien fondé des exemples utilisés, et si un tel cas inventé forme le cœur de la « plaidoirie »… l’avocat va avoir du mal à rester crédible.

Il existe un cas où l’arrivée de ces outils semble intéressante : la fabrication de rapports pour les gouvernements. Ceux-ci sont en général rédigés par des grandes sociétés de conseil qui facturent leur prestation à prix d’or. Ces rapports, après avoir plus ou moins fuité dans la presse, sont remis au ministre qui les a demandé les d’une cérémonie agrémentée de force petits fours, avant d’aller caler des armoires dans certaines salles d’archives ou dans les bureaux des ministères : autant les faire générer par des LLM, le résultat sera plus rapide, aussi efficace, bien moins cher et bien meilleur pour l’embonpoint de nos ministres. Ah, on me souffle que pour l’instant, si les LLM sont utilisées, ça serait par les cabinets de conseil en question qui, par ailleurs, n’ont pas revu leur grille de tarifs1… Pardon, j’ai été un peu trop enthousiaste.

Un impact réel

Je vous épargne ici la diffusion de fausses informations, d’images générées contrefaites, de romans ou de tutoriels GenAI qui oublient de le préciser : ces sujets sont largement mentionnés, discutés, débattus ailleurs, notamment sur les réseaux sociaux qui montrent le clivage entre des créateurs inquiets et des utilisateurs ravis d’avoir des trucs de qualité dite « professionnelle » pour un investissement minime.

Je viens de lire un article qui évoque une situation peut-être inattendue, celle des projets informatiques open source qui reçoivent des rapports de bugs… générés par IA. Ces projets sont parfois gérés par de toutes petites équipes, souvent bénévoles, mais ne croyez pas qu’ils sont inutiles : celui dont il est question dans l’article est utilisé par la quasi-totalité des lecteurs vidéo du marché, rien que ça. En pratique, on est dans la situation décrite dans cette image de xkcd qui n’a malheureusement pas pris une ride, sauf que les personnes qui prennent sur leur temps libre pour tenir la petite brique étroite, tout en bas, sont maintenant assommés de rapports de bug de sécurité à traiter dans l’urgence. Certains sont au bord de la rupture.

Restons dans l’informatique : s’il est possible de soumettre en masse des rapports de bugs, il est aussi possible d’attaquer des logiciels beaucoup plus facilement. Oh, ceux-ci peuvent être bien conçus, bien pensés, mais il suffit de trouver une faille, un petit espace oublié pour s’introduire. Plus besoin de spécialistes humains, il devient trivial d’automatiser l’attaque. On vous a vendu des frigos, des fours , des voitures, des télés connectées ? Félicitations, à la moindre compromission, vous laisserez sur les réseaux de superbes bots, après tout qui irait penser à mettre à jour un réfrigérateur…? Comprenez-moi bien, il n’y a rien de nouveau ici. Mais quand on attaquait avant avec des épées et des arcs, on a maintenant accès à la sulfateuse, voire à la bombe thermonucléaire… pas top…

Dans un autre contexte, je suis à peu près sûr que tout le monde a entendu parler de « trading à haute fréquence » : le fait d’utiliser d’infimes différences entre les prix d’un même élément entre deux places financières pour, avec des millions de transactions, réaliser un bénéfice substantiel. Imaginez un modèle, entraîné comme celui que j’ai mentionné plus haut pour la météo, mais sur les fluctuations d’un marché particulier. Ça serait un outil parfait pour anticiper, sans devoir trouver de modèle compliqué, les évolutions de ce marché. Avec des risques de générer des prophéties auto-réalisatrices : si tous les modèles des grandes institutions, entraînés sur les mêmes données, prédisent une baisse sur un sous-jacent, il y a de fortes chances que ces institutions de débarrassent de ce sous-jacent… faisant baisser son prix. À ce stade, l’économie financière purement spéculative peut avoir un impact on ne peut plus réel sur nos vies

Une balle dans le pied

Les entreprises derrière les grands LLM sont, aussi, les grandes entreprises du web : Méta, Microsoft, X, Amazon et, pas loin derrière, Google et Apple. Ces entreprises ont un avantage important sur la concurrence : elles ont accès à des quantités phénoménales de données humaines directement disponibles dans leurs bases de données, très bien pour l’entraînement. Sauf que… Selon certaines estimations, à ce jour (fin 2025) la moitié du contenu sur l’Internet est généré. Certains entrepreneurs ont flairé l’aubaine avec les LLM : innonder le réseau d’articles aux titres racoleur, destinés à attirer les clics. Ces articles sont bien sûr sur des sites bardés de pub. Il est peu cher de générer de tels sites en masse, il suffit qu’un article émerge de temps en temps sur les moteurs de recherche pour toucher un relatif jackpot.

Le même phénomène se produit pour les podcasts et les vidéos : une entreprise a été flashée à publier plusieurs milliers de podcasts par semaine sur des sujets variés, avec… 8 collaborateurs. Le but : certainement pas concurrencer les grosses chaînes, mais avoir une ou deux productions qui atteignent un niveau suffisant d’écoutes pour couvrir les frais de l’ensemble. Apparemment, ça marcherait. Jusqu’à quand ? Idem, au passage, en vidéo : il suffit d’un titre aguicheur et d’une miniature attirante, pour l’instant les clics viennent. Avec une question toutefois…

Apparemment, bon nombre de ces vidéos auraient un nombre impressionnant de commentaires. « Postés » par des bots, des programmes informatiques dont le but est de biaiser l’algorithme des plateformes. Plateformes qui vivent, avant tout, de la vente de pub. Quelle est la valeur d’une publicité qui est « vue » des millions de fois… par des programmes informatiques ? Il n’y a pas de réaction pour l’instant, mais peut-être qu’à un moment, les annonceurs vont finir par se rendre compte de la douille et ruer dans les brancards. On peut rêver un peu, mais si les plateformes jouent et gagnent encore sur tous les tableaux, elles ne sont peut-être pas bien loin de tuer la poule aux œufs d’or. Si l’économie réelle décide de ne plus les financer, la jolie bulle qui se forme risque de faire « plop »…

Plus pervers : le comportement de certaines plateformes d’écoute de musique en ligne — un certain groupe suédois en tête. Ayant réalisé que bon nombre d’auditeurs écoutent la musique en réalisant d’autres activités, ils ajoutent dans la liste de lecture des titres générés par leurs systèmes. Dans le bruit de fond, ça se remarque assez peu. Mais pas dans leurs profits : leur modèle consiste à partager leur chiffre d’affaire, une part revient à la plateforme, le reste revient aux artistes au prorata des écoutes réalisées. Que se passe-t-il quand une partie du temps d’écoute est gaspillé utilisé pour de la musique générée par la plateforme…? Il n’y a pas d’artiste pour recevoir l’argent, il reste donc sur la plateforme2. Moins d’argent pour les artistes, plus pour le distributeur. Honnêtement… qu’est-ce qui pourrait mal tourner3 ?

Conclusion

Au final, on a des outils qui peuvent être intéressants, à condition qu’ils soient effectivement utilisés comme ce qu’ils sont : des outils, destinés à être utilisés par des humains, mais certainement pas à remplacer des humains. La décision de prendre en compte ou non les production de ces programmes nous revient. La décision de les utiliser, la décision de leur donner de l’importance aussi. Vous estimez qu’ils sont trop envahissants ? C’est à vous, humains, d’agir pour réduire leur importance. Ça tombe bien, ce n’est pas bien compliqué : quand vous voyez apparaître dans votre fil sur une application quelconque un titre qui vous donne très envie de cliquer « juste pour voir »… fuyez ! Évitez ce qui est trop beau pour être vrai, ou ce qui confirme de façon trop éclatante vos préjugés, à moins que vous n’ayez l’assurance qu’il s’agit d’une création humaine. Non par rejet d’une forme de progrès, mais pour montrer que vous ne voulez pas d’un futur où l’humanité est remplacée par des agents automatiques.

Me concernant, je ne partagerai donc pas cette « discussion » que j’ai eue avec Grok ici. Il y a assez de textes, de sons, de vidéos générés par ces systèmes qui tournent un peu partout, je ne vois aucune bonne raison d’en ajouter. Je me réserve le droit, par contre, d’aller examiner les sources qu’il m’a données, pour en tirer d’éventuelles idées d’articles, ceux-ci seront toutefois rédigés par un humain. Vous avez peut-être remarqué que ça fait aussi quelques temps que je n’ai pas illustré d’article avec des images générées4. J’estime qu’entre les photos de NylonPur, celles d’autres photographes et illustrateurs qui m’autorisent à en reprendre, et ce que je peux trouver sur des bibliothèques libres, je devrais pouvoir illustrer tout ce dont j’ai besoin, d’une manière ou d’une autre. Je n’exclus pas, cependant, l’usage de telles images dans le cadre de l’habillage graphique de mes réseaux sociaux (page Facebook en tête).

Pour avoir un autre point de vue sur le sujet, je vous invite à aller lire cet article chez Passions et Écritures, qui explore les apports des LLM et les atouts humains dans le cadre de la rédaction.

Nouvelle image pour ces articles traitant d'IA, cette fois-ci ce n'est pas une image générée par un de ces outils, mais une photo personnelle que j'ai (assez lourdement) retouchée avec Gimp. Elle est donc issue d'une prise de vue naturelle, et de l'application d'un certain nombre de filtres, en tout cas aucun LLM n'a été impliqué dans l'opération.
Image retouchée avec Gimp.

Références

Voici une petite liste, non exhaustive, d’articles et de ressources qui ont nourri ma réflexion sur ces sujets.

Je n’en mets que 3, il y en a beaucoup d’autres. Je voudrais aussi partager avec vous 2 vidéos, qui sont très intéressantes si vous avez la possibilité de leur accorder du temps.

Tout d’abord, Ben de Nota Bene qui explique, sur sa chaîne secondaire, les dangers de certaines vidéos générées :

Et pour conclure sur une note positive (vraiment…?), une vidéo de Defekator sur un usage assez particulier des modèles d’IA générative, qui parlera peut-être aux personnes qui ont vu le film Transcendance.

  1. voir le cas de Deloitte et du gouvernement de Terre-Neuve-et-Labrador – source. ↩︎
  2. ou chez l’éditeur, ceux-là se placent aussi sur le créneau ↩︎
  3. Notez que les majors sont intéressées aussi, et pas seulement pour la possibilité de faire sortir de nouveaux albums d’artistes décédés… ↩︎
  4. le dernier date du 26 mars ↩︎



11 réponses à « Artificielle »

  1. Voilà qui mérite d’être relu ! Merci pour cet exposé construit, référencé et équilibré. À… Une deuxième lecture plus tard dans la journée ! Bon mercredi !

    Aimé par 3 personnes

    1. Ne t’inquiètes pas, je laisserai l’article en ligne, tu pourras y revenir !
      Très bonne journée à toi aussi.

      Aimé par 2 personnes

  2. Je me réfère souvent à ce qu’écrit Axelle Psyché Bouet sur ça (https://www.psychee.org/blog/nutilisez-pas-lia-dans-les-jdr/).
    Et en effet, si jamais celles et ceux qui lisent ici ont un doute, il faut tester soi même. Les réponses ressemblent à des réponses d’hommes politiques : ça te débite des énormités au kilomètre en t’assurant que tout est vrai. Pris en flagrant délit de mensonge, ça s’excuse, genre  »oups’, je me suis laissée emporté ».

    Aimé par 2 personnes

    1. Merci pour la référence, j’ai l’impression que je dis plus ou moins la même chose qu’Axelle : les IA spécialisées sont un outil réellement intéressant, les agents conversationnels sont des jouets qui n’ont rien de sérieux et ne doivent pas être utilisé comme tel. Son article étant toutefois un peu plus général. Je l’ai ajouté dans la liste des liens en fin d’article, d’autant plus qu’elle a donné de son côté un bon nombre de liens en référence.

      Aimé par 2 personnes

  3. Très bel article super intéressant !!!
    Assez complet et précis je trouve.
    Pour ce qui est de la fameuse poule, je ne crains qu’ils l’aient déjà… Couic !
    Quand le technocratus pecus vulgaris imbecilum pecus est obnubilé par le profit à tout crin…

    Aimé par 2 personnes

    1. Notez tout de même que les entreprises derrière les grands LLM dépensent des fortunes pour essayer de détecter les productions de ces mêmes LLM. Des techniques d’ajout de filigranes, parfois invisibles, existent pour tout ce qui est image, c’est plus compliqué pour le texte (voir les polémiques concernant les étudiants accusés à tort d’avoir utilisé un LLM pour rendre un devoir, je crois que Justin en avait fait état il y a quelques mois). Bref, la question est : ces investissements sont-ils faits pour le bien de la société…? Ils le disent. Oh, ça oui, ils le disent. Mais l’idée principale, ça reste tout de même de pouvoir écarter facilement les produits de ces mêmes LLM de l’entraînement des générations suivantes. Pas fous !

      Aimé par 1 personne

  4. Bonjour,
    Article intéressant, documenté et qui se veut synthétique. Malgré tout, certaines pointures scientifiques ne partagent pas votre enthousiame :je cite par exemple Eric Sadin, Aurélien Barrau, les gars du Garage (La Quadrature Du Net – LQDN-) complétés accessoirement quelques articles de mon cru :
    https://inspecteurmendez.art/2024/10/03/faut-il-vraiment-arreter-la-machine1/
    https://inspecteurmendez.art/2024/06/03/faut-il-agir-apres-avoir-compris/
    A lire !

    Aimé par 1 personne

    1. C’est étrange, je n’ai pas le sentiment que mon billet soit enthousiaste, mais nous n’en avons peut-être pas la même lecture. J’ai toutefois, et c’est assumé, refusé d’aborder le côté catastrophiste du sujet : d’autres, plus militants que moi, le font mais insistent trop sur le côté négatif à mon goût. Non, en fait, le message principal que j’espère faire passer ici est un peu à l’opposé de celui que vous essayez de transmettre dans votre dernier article : je le comprends comme : « il faut utiliser la politique pour bloquer l’installation des centres de données ». Je dis : il nous appartient, à tous les utilisateurs humains des réseaux, de nous éduquer pour arrêter de donner de la visibilité aux productions de ces outils.

      À mon humble avis, ces deux approches sont trop extrêmes pour être réalistes : celle que je vous prête fait appel à l’honnêteté et au sens des responsabilités des dirigeants, homo technocratus vulgaris pour reprendre une expression chère à James Jones, la mienne considère que les consommateurs sont intelligents — c’est le cas pour certains, mais mon expérience sur Facebook me rend largement pessimiste pour d’autres.

      Dans tous les cas, il est important d’en parler.

      Aimé par 2 personnes

      1. Je retiens surtout votre dernière phrase « Dans tous les cas, il est important d’en parler ». Mille fois oui ! D’autant que ces technologies immatures s’insèrent danns un modèle de société qui nous a été imposé sans débat démocratique aucun.

        Quant à la clairvoyance des politiques et l’intelligence supposée des citoyens, j’ai personnellement de gros doutes… Certes, il est toujours possible de trouver des exceptions heureusement. Cela suffira-t-il ?

        Aimé par 2 personnes

  5. Je crains surtout l’excès de confiance que l’on fasse à ces logiciels, mais il m’étonne que personne ne vérifie les résultats avant de les faire passer pour son propre travail. Il y a déjà de nombreux exemples aux États-Unis de juges qui trouvent que les avocats ont mentionné d’autres procès qui n’existent pas. (N’oubliez pas qu’aux États-Unis, il faut citer les autres jugements rendus avec une loi, non seulement le texte de la loi.)

    Mais pour l’application financière de laquelle vous parlez, je crois que les LLMs seraient très mal adaptés (je ne dis pas que d’autres réseaux neuronaux le seraient). J’ai géré pendant 3 ans un start-up qui travaillait sur ce problème, avant les réseaux convolutifs. Il y a certaines choses que les négociants exigent, et les hallucinations veulent dire que l’on ne peut pas faire confiance aux modèles au niveau souhaité. La tendance à évoluer des comportements pathologiques est aussi un problème que les autres algorithmes d’apprentissage automatique n’ont pas.

    Aimé par 2 personnes

    1. Je parlais notamment de certaines affaires qui nous sont venues d’outre-Atlantique quand je parlais des avocats.

      Concernant l’application à la finance, c’est mon seul exemple qui ne s’appuie pas sur un article ou une brève lue quelque-part en ligne, je pense qu’en pratique si des institutions devaient mettre en place de tels systèmes, elles éviteraient de le crier sur tous les toits : le secret est possible dans ce domaine, il est très probable que nous ne sachions pas ce qui se passe derrière les outils d’aide au trading, ou de trading automatique. Dans la mesure où c’est un domaine où le moindre avantage se paie cash, ça me paraît juste évident que des modèles soient entraînés spécifiquement sur ces données. On ne parle plus de LLM généraliste ici, ni de modèle public.

      Aimé par 1 personne

Répondre à Inspecteur Méndez Annuler la réponse.

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur la façon dont les données de vos commentaires sont traitées.