Un avocat dépose des conclusions devant le tribunal administratif d’Orléans. La juridiction identifie une quinzaine de références jurisprudentielles entièrement fausses et adresse une mise en garde à l’avocat. Deux semaines plus tôt, c’est le tribunal administratif de Grenoble qui avait été le premier à mentionner explicitement, dans une décision du 3 décembre 2025, l’usage d’un outil d’intelligence artificielle générative « totalement inadapté ». Le 18 décembre 2025, le tribunal judiciaire de Périgueux devient la première juridiction de l’ordre judiciaire français à viser directement un avocat pour hallucination IA. Le 26 février 2026, la cour administrative d’appel de Bordeaux emboîte le pas : « il y a lieu de faire remarquer au conseil de vérifier les décisions juridictionnelles citées, au demeurant non produites, avant de saisir le juge ». En l’espace de trois mois, huit décisions françaises ont mentionné ce phénomène. Aucune sanction disciplinaire n’a encore été prononcée. Mais le compte à rebours est lancé.
Ce qui se passe en France ne fait que reproduire, avec quelques années de retard, une trajectoire déjà documentée dans plus de 700 cas recensés dans le monde. Aux États-Unis, les amendes cumulées pour hallucinations IA atteignaient 145 000 dollars au seul premier trimestre 2026. Au Canada, en Australie, en Suisse, au Royaume-Uni, aux Pays-Bas, des avocats ont été sanctionnés ou mis en garde. La question n’est plus de savoir si ce risque est réel. Elle est de comprendre précisément sur quels fondements, dans quelle chaîne causale, et avec quelles conséquences — y compris pour les fournisseurs des outils eux-mêmes.
La responsabilité liée à l’intelligence artificielle se développe simultanément sur trois fronts. Le premier, le plus documenté : l’avocat qui utilise un LLM sans vérifier ses productions. Le deuxième, émergent : le fournisseur du système d’IA, recherché par les tiers que son outil a contribué à léser. Le troisième, systématiquement sous-estimé : l’usage d’une IA grand public avec des données clients, qui constitue une menace directe sur le secret professionnel, indépendamment de toute question d’hallucination.
La jurisprudence française : huit décisions en trois mois
Il faut citer les décisions précisément, car elles constituent le fondement sur lequel le durcissement à venir s’appuiera.
Le tribunal administratif de Grenoble a été le premier à identifier explicitement le phénomène : dans deux décisions rendues les 3 décembre 2025 (n° 2509827) et 9 décembre 2025 (n° 2512468), il a constaté l’utilisation d’un outil d’IA générative dans des requêtes comportant des « références jurisprudentielles fantaisistes ». Ces deux affaires concernaient des justiciables non représentés.
Le franchissement d’un seuil supplémentaire s’est produit le 18 décembre 2025 devant le tribunal judiciaire de Périgueux : pour la première fois dans l’ordre judiciaire français, et pour la première fois en impliquant un avocat, la juridiction a invité « le requérant et son conseil à vérifier à l’avenir que les références qu’ils ont pu trouver sur des moteurs de recherche ou à l’aide de l’intelligence artificielle ne sont pas des hallucinations ». Le fait que l’avocat soit présent dans ce dossier, ayant vraisemblablement repris des conclusions produites par son client sans les vérifier suffisamment, est précisément ce que relève l’analyse de Damien Charlotin, chercheur à HEC Paris et co-directeur du Smart Law Hub.
Le tribunal administratif d’Orléans a suivi le 29 décembre 2025 (n° 2506461), dans une affaire où un avocat avait cité une quinzaine de références entièrement fausses. La mise en garde est explicite et nominale.
La cour administrative d’appel de Bordeaux, devant le juge des référés, a prononcé la mise en garde la plus récente le 26 février 2026, dans un registre identique.
À ce jour, aucune sanction disciplinaire ordinale n’a été prononcée en France pour hallucination IA. Mais comme le note François Girault, président de la commission prospective et innovation du CNB : « il faut s’attendre à ce que les juges durcissent leur position, ce qui peut se comprendre. »
Pourquoi les LLM hallucinent : une caractéristique structurelle, pas un bug
Pour appréhender la responsabilité, il faut d’abord comprendre le mécanisme. Les grands modèles de langage ne fonctionnent pas comme des moteurs de recherche. Ils sont entraînés à produire des réponses statistiquement plausibles — ce qui signifie, structurellement, qu’ils sont entraînés à ne pas dire qu’ils ne savent pas. Lorsqu’on leur pose une question sur une jurisprudence obscure ou inexistante, ils produisent une décision crédible dans sa forme : juridiction, date, numéro de chambre, attendus synthétisés — entièrement inventés.
C’est précisément ce que souligne Damien Charlotin : « on oublie trop souvent que les IA ne sont pas entraînées à dire non, et préfèrent inventer une source juridique que de donner tort à l’utilisateur. » Cette caractéristique n’est pas un défaut qui sera corrigé dans la prochaine version — elle est inhérente à l’architecture probabiliste de ces systèmes.
Conséquence directe pour la responsabilité : l’avocat qui arguerait de la « qualité » de l’outil utilisé pour s’exonérer ne serait pas entendu. La jurisprudence Mata v. Avianca l’a posé clairement en 2023 : « ChatGPT a fait exactement ce que l’avocat lui a demandé de faire » — la faute n’est pas dans la réponse de l’outil, elle est dans l’absence de vérification de celui qui l’utilise.
La responsabilité des fournisseurs d’IA : l’affaire Nippon c/ OpenAI
Un accord transactionnel défait par une IA
Une assurée de Nippon Life Insurance Company of America avait conclu un accord transactionnel définitif éteignant toute action future sur le même objet. Postérieurement, elle aurait utilisé ChatGPT pour obtenir une analyse de son dossier, des argumentaires juridiques et des projets d’écritures, puis multiplié des recours infondés sur ce fondement. Nippon a déposé le 4 mars 2026 une complaint devant le tribunal fédéral du district nord de l’Illinois contre OpenAI Foundation et OpenAI Group PBC, au titre de trois fondements : l’interférence délictuelle avec un contrat, l’abus de procédure, et l’exercice illégal de la profession d’avocat (unauthorized practice of law) selon le droit de l’Illinois. L’affaire est au stade de la demande introductive — aucune décision au fond n’a encore été rendue.
Ce qui fait l’intérêt de l’affaire n’est pas tant son issue que son angle d’attaque : pour la première fois, un fournisseur d’IA est recherché non pour une erreur de contenu, mais comme acteur ayant contribué à des initiatives procédurales abusives causant un préjudice économique direct à un tiers.
Information ou conseil : la ligne de partage décisive
En France, la consultation juridique est une activité réglementée par la loi du 31 décembre 1971. Un outil numérique qui délivre une consultation au sens fonctionnel — réponse personnalisée, appliquée à des faits concrets, orientant une décision — entre potentiellement dans le champ de cette réglementation quelle que soit sa nature technique. Aucune juridiction française n’a encore statué sur ce point appliqué aux LLM.
Les CGU comme élément de faute : ma position
La complaint Nippon relève qu’OpenAI a modifié ses conditions d’utilisation après les faits pour interdire expressément le conseil juridique personnalisé. Argument de Nippon : cette modification révèle la conscience préalable du risque, donc l’inadéquation des garde-fous initiaux.
En droit français, cet argument se traduit dans les termes de l’article 1240 du Code civil. Ma position : un simple avertissement dans les CGU ne suffit pas à exonérer le fournisseur à l’égard des tiers. Les conditions générales ne redéfinissent pas la nature juridique du service fourni. Si le service produit les effets d’un conseil individualisé, l’avertissement formel peut réduire la faute de l’utilisateur — il ne supprime pas celle du fournisseur.
Le vide européen : la directive IA retirée, ce qui reste
La proposition de directive sur la responsabilité civile en matière d’IA (AILD), qui aurait instauré une présomption de causalité au bénéfice des victimes, a été retirée du programme de travail 2025 de la Commission européenne le 11 février 2025 — discrètement, dans les annexes, avec pour seule justification : « aucun accord prévisible ». Ce retrait a été favorablement accueilli par les lobbies Big Tech.
Ce qui reste applicable :
La directive révisée sur la responsabilité du fait des produits défectueux (2024) étend désormais son champ aux logiciels et à l’IA, avec des mécanismes de divulgation de preuves et des présomptions de défaut. Elle maintient toutefois le « risque de développement » comme cause d’exonération.
L’AI Act (Règlement UE 2024/1689) : depuis le 2 août 2025, les fournisseurs de modèles à usage général (dont ChatGPT et ses concurrents) sont tenus de documenter l’architecture, les données d’entraînement et les mécanismes de limitation des contenus illicites. L’AI Act impose également, à son article 4, une obligation de compétence dans l’usage de l’IA (AI literacy) pesant sur les organisations qui déploient ces systèmes — ce qui concerne les cabinets d’avocats en tant qu’utilisateurs professionnels.
En l’absence de régime harmonisé de responsabilité, c’est le droit commun français de l’article 1240 du Code civil qui s’applique aux fournisseurs.
La responsabilité de l’avocat-utilisateur
L’avocat comme auteur juridique : la responsabilité naît en amont
Un principe structurant, que la doctrine récente a formalisé et que les juridictions commencent à mettre en œuvre : peu importe que le contenu ait été matériellement généré par une IA, l’avocat qui le valide et le met en circulation est l’auteur juridique du document — exactement comme il l’est pour des conclusions préparées par un collaborateur. Sa signature vaut validation intellectuelle et engagement professionnel.
Conséquence directe : la responsabilité professionnelle ne naît pas seulement au moment où une erreur apparaît dans un acte. Elle trouve son origine en amont, dans le choix méthodologique d’intégrer un système probabiliste dans l’élaboration du conseil, sans vérification. C’est ce qu’ont retenu les TA Grenoble et Orléans.
L’obligation déontologique de prudence et de vérification
Le Livre blanc du barreau de Paris (octobre 2025) rappelle que, « en vertu du principe de prudence [article 1.3 du règlement intérieur national], l’avocat qui a recours à un système d’intelligence artificielle devra nécessairement vérifier la fiabilité des résultats obtenus ». L’autocontrôle est exclu : on ne peut pas demander à l’outil de vérifier ses propres productions.
L’article 12.1 du RIN impose une obligation de compétence et de conscience professionnelle qui s’étend désormais à la maîtrise des outils employés. Sur le plan européen, le Guide 2025 du CCBE et l’ABA Formal Opinion 512 (2024) adoptent la même position : les Model Rules 1.1 (compétence), 1.6 (confidentialité), 3.3 (sincérité envers le tribunal) et 5.3 (supervision des non-avocats) s’appliquent intégralement à l’usage de l’IA.
La responsabilité disciplinaire : une épidémie documentée
Le risque disciplinaire est immédiat. L’article 184 du décret n° 91-1197 du 27 novembre 1991 prévoit des sanctions allant de l’avertissement à la radiation.
L’ampleur du phénomène dépasse ce que la doctrine française rapporte habituellement. Selon la base de données constituée par Damien Charlotin (co-directeur du Smart Law Hub, HEC Paris / Sciences Po), le nombre de cas documentés est passé de deux par semaine au printemps 2025 à deux à trois par jour à l’automne 2025, pour atteindre un rythme d’environ cinq cas par jour dans le monde début 2026. Les plateformes LexisNexis et Bloomberg Law recensent plus de 700 cas documentés toutes juridictions confondues.
Les cas emblématiques, par ordre de sévérité croissante :
Mata v. Avianca (S.D.N.Y., 22 juin 2023) — le précédent fondateur : conclusions comportant six décisions inexistantes générées par ChatGPT. Amende de 5 000 dollars. Trois principes posés par le juge Castel : l’outil ne s’exonère pas de l’obligation de vérification ; les avocats ne sont pas sanctionnés pour avoir utilisé ChatGPT mais pour ne pas avoir vérifié ses productions ; la bonne foi alléguée ne suffit pas.
Zhang c. Chen (Colombie-Britannique, 23 fév. 2024) — première affaire canadienne recensée : deux fausses affaires insérées dans un avis de requête. Réprimande du juge Masuhara, condamnation aux dépens.
US v. Cohen (S.D.N.Y., mars 2024) — relaxe au bénéfice du doute : l’avocat de Michael Cohen avait utilisé Google Bard, croyant sincèrement utiliser « un moteur de recherche surpuissant ». Le juge Furman a refusé les sanctions en l’absence de mauvaise foi — mais a souligné que cette circonstance atténuante ne vaudra plus quand la nature des LLM sera universellement connue.
Johnson v. Dunn (N.D. Ala., 23 juillet 2025) — l’affaire la plus pédagogique : un grand cabinet, doté d’une politique IA interne et d’une directive de prudence préalablement circularisée à tous les avocats, a subi une sanction sévère. L’hallucination avait été insérée par un co-leader du practice group — celui-là même qui avait signé la directive interne. Sanction : disqualification des avocats pour tout le reste de l’affaire, publication de la décision au Federal Supplement, transmission aux barreaux de chaque État où les avocats concernés sont inscrits. Morale : la politique IA interne ne protège pas si elle n’est pas respectée y compris par ses rédacteurs.
ByoPlanet (S.D. Fla., 2025) — hallucinations répétées dans huit dossiers, mauvaise foi avérée. L’épigraphe de la décision de sanction était elle-même une citation hallucinée de Scalia générée par ChatGPT, pour illustrer le point.
Affaire Maren Bam (D. Ariz., 14 août 2025) — parmi les sanctions les plus lourdes sur le plan des conséquences de carrière : révocation du statut pro hac vice, retrait comme conseil de record, obligation d’envoyer des lettres d’excuse aux trois juges à qui des décisions fictives avaient été attribuées, transmission de l’ordonnance à toutes les juridictions où l’avocate était inscrite.
Sixth Circuit (mars 2026) — 30 000 dollars d’amende pour des citations fabriquées.
Oregon (Q1 2026) — 109 700 dollars, la plus grande sanction pécuniaire individuelle recensée à ce jour.
Colorado Supreme Court — suspension de 90 jours pour un avocat qui, confronté aux hallucinations dans sa requête, avait texté à sa collaboratrice qu’il n’avait « comme un idiot » pas vérifié le travail de ChatGPT.
Un risque spécifique : le juge lui-même contaminé. Une affaire de divorce instruite en Géorgie (États-Unis) illustre un danger systémique rarement évoqué. L’avocate du mari avait soumis des conclusions comportant des jurisprudences fictives. Le juge de première instance, reprenant ces conclusions dans son ordonnance, a fondé son refus de rouvrir le dossier sur deux décisions prétendues mais inexistantes. Sur les 15 décisions citées dans le mémoire, 11 étaient soit inventées, soit déformées. La cour d’appel a annulé le jugement de première instance pour vice de forme manifeste, renvoyé l’affaire pour nouvelle audience, et infligé une amende à l’avocate. Une décision de justice avait donc été viciée par des hallucinations — sans que cela soit détecté en première instance.
Les sanctions judiciaires directes en France : art. 32-1 CPC et R. 741-12 CJA
Un angle peu traité par la doctrine française : indépendamment de toute procédure disciplinaire, le juge lui-même peut sanctionner directement.
En matière civile, l’article 32-1 du Code de procédure civile permet au juge de condamner à une amende civile allant jusqu’à 10 000 euros la partie — et son avocat solidairement — qui agit de manière dilatoire ou abusive. Si le dépôt d’écritures truffées de jurisprudences fictives est qualifié de manœuvre abusive, cette sanction est applicable.
En matière administrative, l’article R. 741-12 du Code de justice administrative autorise le juge à infliger une amende pouvant atteindre 3 000 euros pour recours abusif.
Ces sanctions ne nécessitent pas l’initiative d’un ordre professionnel. Elles sont immédiates, prononcées dans le cadre du dossier en cours, et peuvent s’ajouter à une condamnation aux dépens majorés.
La responsabilité pénale : l’hypothèse de l’escroquerie au jugement
L’article 313-1 du Code pénal sanctionne les manœuvres frauduleuses destinées à tromper une juridiction. La jurisprudence répressive a retenu que la production d’un faux document peut constituer une escroquerie au jugement (Crim. 30 novembre 1995, n° 94-84612 ; Crim. 19 septembre 1995, n° 94-85353 ; Crim. 4 janvier 2005, n° 04-82715).
L’élément matériel pourrait être caractérisé si le document est faux et produit pour influer sur la décision du juge. Reste l’élément intentionnel. Le droit pénal ne sanctionne pas la négligence. Mais la question évolue : à mesure que les hallucinations deviennent un risque universellement connu, un défaut manifeste de vérification pourrait être interprété non plus comme simple négligence, mais comme indifférence consciente au risque de produire un faux — ce qui rapprocherait le seuil de l’intention.
En France, dans une affaire jugée par la cour d’appel de Paris le 8 juillet 2025, deux avocats poursuivis pour production d’un faux ont été relaxés faute de preuve de leur intention. Mais la décision souligne explicitement que l’appréciation de l’intention pourrait se durcir. Le 5e Circuit américain a jugé en février 2026 que la soumission d’une requête « truffée de citations fabriquées » constitue un comportement « indigne d’un membre du barreau » (Fletcher v. Experian Information Solutions, 5th Cir., 18 fév. 2026).
La responsabilité civile professionnelle : préjudice, causalité, assurance
Sur le plan civil, la faute est relativement facile à établir : déposer des écritures comportant des jurisprudences inexistantes révèle un défaut de vérification constitutif d’une faute professionnelle.
La difficulté porte sur le préjudice. Si l’hallucination est détectée avant le jugement, elle sera écartée : le client pourra reprocher la fragilisation de sa crédibilité et l’irritation du juge, mais le préjudice restera difficile à démontrer. Si elle est révélée après la décision, la partie perdante pourrait rechercher la responsabilité de l’avocat adverse, à condition de démontrer l’impossibilité de détecter l’erreur avant le jugement et un lien direct entre la décision fictive et la solution retenue. Dans un système sans précédents obligatoires, la causalité restera délicate.
Un problème structurel spécifique à l’IA : l’absence de piste d’audit. Un avocat peut justifier son raisonnement et identifier ses sources. Un LLM ne le peut pas — il génère une réponse sans traçabilité de sa construction. Si le raisonnement ne peut pas être reconstitué, la validation ne peut pas être documentée.
La question assurantielle. Les assureurs observent deux tendances : l’introduction d’exclusions spécifiques liées à l’usage de l’IA, et l’invocation de la faute dolosive fondée sur l’article L. 113-1 du Code des assurances. Dans ce second scénario, l’assureur pourrait soutenir que le défaut de vérification relève d’une « inéluctabilité consciente » : l’avocat sait que l’IA hallucine, il sait qu’il doit vérifier, mais ne le fait pas. Cette qualification, si elle s’imposait, priverait l’avocat de la couverture de son assureur pour le sinistre concerné.
Le risque réputationnel est souvent plus grave que le risque financier. La perte de crédibilité auprès des juridictions ne se limite pas au dossier en cours : dans les ressorts où les avocats plaident régulièrement devant les mêmes magistrats, une hallucination détectée peut affecter durablement la réception des argumentaires dans les dossiers futurs.
Secret professionnel et RGPD : le risque invisible
L’article 66-5 et l’article 226-13 : deux textes qui s’appliquent déjà
Le secret professionnel de l’avocat est absolu en vertu de l’article 66-5 de la loi du 31 décembre 1971. Sa violation est pénalement sanctionnée par l’article 226-13 du Code pénal (un an d’emprisonnement et 15 000 euros d’amende). Ces textes s’appliquent pleinement dès lors qu’un avocat introduit des données d’un dossier client dans un système d’IA grand public.
Le mécanisme est simple : les modèles d’IA grand public dans leur version standard utilisent les échanges pour améliorer leurs modèles ou les stockent dans des conditions qui ne garantissent pas l’isolation. Un avocat qui colle dans ChatGPT les faits d’un dossier de contentieux commercial — même sans mentionner les noms — expose potentiellement des informations couvertes par le secret professionnel à des conditions de traitement incompatibles avec ses obligations légales. La CNIL déconseille formellement l’utilisation d’IA publiques pour le traitement de données sensibles.
Le Cloud Act : un risque extraterritorial sous-estimé
ChatGPT, Copilot (Microsoft) et Gemini (Google) sont opérés par des entreprises américaines. Aux termes du Cloud Act américain (2018), les autorités américaines peuvent exiger l’accès aux données stockées par ces entreprises, y compris sur des serveurs européens. Le RGPD seul ne neutralise pas ce risque extraterritorial.
Le partenariat renouvelé entre la CNIL et le CNB (juillet 2024) vise précisément à produire des outils d’accompagnement sur ces risques. Le CNB recommande désormais de privilégier les solutions hébergées en France ou en Europe, avec engagement contractuel de non-réutilisation des données.
RGPD : sanctions et responsabilité du cabinet
L’avocat est responsable de traitement des données personnelles de ses clients au sens du RGPD. Utiliser une IA qui stocke ou réutilise ces données sans garanties suffisantes viole les obligations du règlement. Les sanctions CNIL peuvent atteindre 20 millions d’euros ou 4 % du chiffre d’affaires mondial (article 83 RGPD). Le risque réputationnel est en pratique bien supérieur au risque financier pour un cabinet de taille modeste.
Les versions Enterprise des outils grands publics offrent davantage de garanties via des accords de traitement des données (DPA) contractuels, mais ne résolvent pas la question du Cloud Act. Les outils à hébergement européen constituent la solution la moins risquée pour les données sensibles.
Ce que cela implique concrètement
Ne jamais introduire dans une IA grand public standard : les noms des parties, les faits identifiants d’un dossier, les coordonnées d’un client, des pièces de procédure, des données pénales ou médicales. L’anonymisation préalable est la précaution minimale recommandée — mais elle ne suffit pas si la combinaison des faits permet encore une identification par recoupement. Le risque disciplinaire lié au secret professionnel est immédiat et ne nécessite pas la survenance d’un dommage visible pour le client.
Informer le client et documenter l’usage
Le CNB recommande d’informer explicitement les clients de l’utilisation de l’IA dans une clause spécifique de la convention d’honoraires, en leur laissant la faculté de refuser. Cette recommandation anticipe ce qui pourrait devenir une obligation formelle si le contentieux se développe.
La documentation de l’usage de l’IA — registre des traitements, traçabilité par dossier, vérifications effectuées — constitue un élément de preuve crucial en cas de mise en cause disciplinaire ou civile. Elle démontre la diligence professionnelle. En l’absence de toute documentation, le défaut de vérification sera présumé.
Bonnes pratiques pour un usage sécurisé
L’objectif n’est pas de renoncer à l’IA — ses gains de productivité sont réels. Il est d’organiser son usage dans un cadre maîtrisé :
- Vérifier systématiquement toute jurisprudence sur une base primaire (Légifrance, Doctrine, Dalloz) avant toute utilisation dans un acte — sans exception
- Ne jamais demander à l’outil de vérifier ses propres productions
- N’introduire dans une IA grand public aucune donnée permettant d’identifier un client ou un dossier
- Privilégier les outils à hébergement européen avec engagement contractuel de non-réutilisation pour les données sensibles
- Documenter les vérifications effectuées dossier par dossier (date, source primaire consultée, résultat)
- Insérer une clause IA dans la convention d’honoraires (information du client, droit de refus)
- Mettre en place une charte interne définissant : les usages autorisés par type d’acte, les contrôles obligatoires, les données interdites, la liste des outils approuvés
- Vérifier la couverture de votre assurance RCP au regard de l’usage de l’IA, et négocier si nécessaire une extension explicite
Ce que ce contentieux annonce
Le mouvement est structurel. Les LLM produisent des réponses de plus en plus individualisées et prescriptives, effaçant progressivement la ligne entre information et conseil. Ils sont déployés dans des contextes à fort enjeu où les erreurs ont des conséquences mesurables pour des tiers identifiables. Les fournisseurs sont solvables. Et les conditions d’utilisation sont publiquement accessibles.
La jurisprudence française n’a pas encore tranché les questions centrales : à partir de quel degré d’individualisation un LLM exerce-t-il une activité de conseil réglementée au sens de la loi de 1971 ? Un avertissement dans les CGU suffit-il à exonérer le fournisseur à l’égard des tiers ? La faute dolosive de l’avocat-utilisateur peut-elle être caractérisée par le seul défaut systématique de vérification ? Dans le doute : documenter, vérifier, tracer — et documenter qu’on a vérifié.
Valentin Simonnet est avocat au Barreau de Paris. Il intervient en contentieux des affaires et en droit pénal des affaires.

