Claude d’Anthropic et l’affaire des citations inventées : un signal d’alarme pour l’usage de l’IA dans le droit

23 juin 2025

En mai 2025, Anthropic, une entreprise d’intelligence artificielle basée à San Francisco et valorisée à 61,5 milliards de dollars, s’est retrouvée au cœur d’une controverse judiciaire. Son chatbot Claude, conçu pour assister dans diverses tâches, a généré une citation erronée dans un document juridique, entraînant des excuses publiques de la part de l’entreprise . Cet incident met en lumière les défis liés à l’intégration de l’IA dans des domaines sensibles comme le droit.


Une erreur de citation aux conséquences juridiques

Le 30 avril 2025, Olivia Chen, data scientist chez Anthropic, a soumis une déclaration dans le cadre d’un procès intenté par des maisons de disques, dont Universal Music Group, accusant l’entreprise d’avoir utilisé des paroles protégées par le droit d’auteur pour entraîner Claude. Dans cette déclaration, une citation faisait référence à un article académique inexistant, bien que le lien fourni dirigeait vers un article réel mais avec un titre et des auteurs incorrects .

Lors de l’audience, l’avocat des plaignants, Matt Oppenheim, a souligné cette incohérence, affirmant que la citation était une “fabrication complète”. Le juge fédéral Susan van Keulen a qualifié l’incident de “très grave”, exigeant une réponse rapide d’Anthropic .


La réponse d’Anthropic : une erreur humaine assistée par l’IA

Anthropic a reconnu que l’erreur provenait de l’utilisation de Claude pour formater les citations. L’avocate de l’entreprise, Ivana Dukanovic, a expliqué que bien que le lien vers l’article soit correct, le titre et les auteurs avaient été mal générés par Claude. Elle a qualifié l’incident de “faute embarrassante et involontaire”, soulignant que des procédures de vérification plus strictes avaient été mises en place pour éviter de telles erreurs à l’avenir .


Les hallucinations de l’IA : un défi persistant

Les “hallucinations” des modèles d’IA, c’est-à-dire la génération de contenus erronés présentés comme factuels, sont un problème bien connu. Selon une étude, les chatbots peuvent produire des erreurs factuelles dans jusqu’à 46 % des textes générés . Le PDG d’Anthropic, Dario Amodei, a récemment déclaré que les modèles d’IA hallucinent moins que les humains, mais de manière plus surprenante, soulignant que ces erreurs ne constituent pas un obstacle à l’atteinte d’une intelligence artificielle générale (AGI) .


Implications pour le secteur juridique

Cet incident souligne la nécessité d’une vigilance accrue lors de l’utilisation de l’IA dans le domaine juridique. Il est impératif que les professionnels du droit vérifient minutieusement les informations générées par l’IA, notamment les citations et références, pour éviter des erreurs potentiellement préjudiciables.


Conclusion

L’affaire Anthropic met en évidence les limites actuelles des outils d’IA dans des contextes sensibles comme le droit. Elle rappelle l’importance de la supervision humaine et de la vérification rigoureuse des informations générées par ces technologies.


Sources


Besoin d’accompagnement dans l’intégration de l’IA dans vos processus ?

Chez Tamento, nous vous aidons à intégrer des solutions d’intelligence artificielle adaptées à vos besoins, tout en assurant une supervision humaine rigoureuse. Contactez-nous pour en savoir plus.

Create your account