En ce mois de décembre, Caroline Lantero fulmine. Dans un contentieux en responsabilité administrative où l’avocate au Barreau de Clermont-Ferrand défend l’administration, elle vient de recevoir cinq pages d’un argumentaire complètement faux. « Il y avait une dizaine de références à des jurisprudences, des citations et plusieurs renvois très faux au code de justice administrative », détaille-t-elle à Dalloz actualité.

La marque évidente pour la professeure de droit public à l’Université Clermont Auvergne d’une utilisation inconséquente d’une IA générative grand public. « Des confrères utilisent ces outils, ce n’est pas un problème en soi », remarque-t-elle. Mais dans ce cas précis, c’est l’avocate qui a dû faire un important travail de vérification à la place de la partie adverse, « un temps que je supporte assez mal de perdre ». « J’ai répondu au vitriol », conclut celle qui envisage désormais d’alerter le bâtonnier. « C’est notre responsabilité d’avocat de ne pas dire de bêtises. »

Les grands modèles de langage derrière la révolution technologique de l’IA générative, incarnée depuis l’automne 2022 par ChatGPT, l’agent conversationnel d’OpenAI, ont en effet un travers connu. Ils « hallucinent » – on parle également de confabulation –, c’est-à-dire qu’ils peuvent générer des contenus faux ou trompeurs.

 

Relecture humaine approfondie nécessaire

Ce problème avait été notamment relevé en juin 2025 dans le rapport sur l’IA au service de la justice, un groupe de travail réunissant une vingtaine d’experts du domaine et des représentants des différents métiers de la Place Vendôme. Ces IA génératives « accentuent la nécessité de contrôle humain car elles peuvent produire du contenu très convaincant en langage naturel », était-il souligné dans une synthèse annexée au rapport. Avant de conclure : « un texte généré ne doit pas être utilisé sans relecture humaine approfondie ».

Un principe de base qui est manifestement parfois oublié par des juristes ou des plaignants. Sur le réseau social Bluesky, le juriste en droit public et droit européen des droits de l’homme Nicolas Hervieu a ainsi partagé deux récentes décisions où les magistrats n’ont pas caché leur exaspération face à une mauvaise utilisation de l’IA générative.

Le 3 décembre 2025, la présidente de la 8e chambre du Tribunal administratif de Grenoble tance ainsi un requérant dans sa décision. Le « manque de clarté » de sa requête résulte vraisemblablement » d’une rédaction « au moyen d’un outil dit d’intelligence artificielle générative, totalement inadapté à cet usage ». À Orléans, le 29 décembre 2025, le tribunal administratif suggère également à l’avocat d’un plaignant de « vérifier à l’avenir que les références trouvées par quelque moyen que ce soit ne constituent pas une “hallucination” ou une “confabulation” » – quinze jurisprudences invoquées n’existant pas.

...

Dans trois décisions de justice, récemment repérées sur les réseaux sociaux, une mauvaise utilisation de l’IA générative est signalée. Un phénomène toutefois pour l’instant moins perceptible en France que dans d’autres pays.

Nous avons besoin de votre consentement pour charger les traductions

Nous utilisons un service tiers pour traduire le contenu du site web qui peut collecter des données sur votre activité. Veuillez consulter les détails dans la politique de confidentialité et accepter le service pour voir les traductions.