Claude d’Anthropic et l’affaire des citations inventées : un signal d’alarme pour l’usage de l’IA dans le droit
En mai 2025, Anthropic, une entreprise d’intelligence artificielle basée à San Francisco et valorisée à 61,5 milliards de dollars, s’est retrouvée au cœur d’une controverse judiciaire. Son chatbot Claude, conçu pour assister dans diverses tâches, a généré une citation erronée dans un document juridique, entraînant des excuses publiques de la part de l’entreprise . Cet incident met en lumière les défis liés à l’intégration de l’IA dans des domaines sensibles comme le droit.
Une erreur de citation aux conséquences juridiques
Le 30 avril 2025, Olivia Chen, data scientist chez Anthropic, a soumis une déclaration dans le cadre d’un procès intenté par des maisons de disques, dont Universal Music Group, accusant l’entreprise d’avoir utilisé des paroles protégées par le droit d’auteur pour entraîner Claude. Dans cette déclaration, une citation faisait référence à un article académique inexistant, bien que le lien fourni dirigeait vers un article réel mais avec un titre et des auteurs incorrects .
Lors de l’audience, l’avocat des plaignants, Matt Oppenheim, a souligné cette incohérence, affirmant que la citation était une “fabrication complète”. Le juge fédéral Susan van Keulen a qualifié l’incident de “très grave”, exigeant une réponse rapide d’Anthropic .
La réponse d’Anthropic : une erreur humaine assistée par l’IA
Anthropic a reconnu que l’erreur provenait de l’utilisation de Claude pour formater les citations. L’avocate de l’entreprise, Ivana Dukanovic, a expliqué que bien que le lien vers l’article soit correct, le titre et les auteurs avaient été mal générés par Claude. Elle a qualifié l’incident de “faute embarrassante et involontaire”, soulignant que des procédures de vérification plus strictes avaient été mises en place pour éviter de telles erreurs à l’avenir .
Les hallucinations de l’IA : un défi persistant
Les “hallucinations” des modèles d’IA, c’est-à-dire la génération de contenus erronés présentés comme factuels, sont un problème bien connu. Selon une étude, les chatbots peuvent produire des erreurs factuelles dans jusqu’à 46 % des textes générés . Le PDG d’Anthropic, Dario Amodei, a récemment déclaré que les modèles d’IA hallucinent moins que les humains, mais de manière plus surprenante, soulignant que ces erreurs ne constituent pas un obstacle à l’atteinte d’une intelligence artificielle générale (AGI) .
Implications pour le secteur juridique
Cet incident souligne la nécessité d’une vigilance accrue lors de l’utilisation de l’IA dans le domaine juridique. Il est impératif que les professionnels du droit vérifient minutieusement les informations générées par l’IA, notamment les citations et références, pour éviter des erreurs potentiellement préjudiciables.
Conclusion
L’affaire Anthropic met en évidence les limites actuelles des outils d’IA dans des contextes sensibles comme le droit. Elle rappelle l’importance de la supervision humaine et de la vérification rigoureuse des informations générées par ces technologies.
Sources
- SF startup Anthropic, valued at $61.5B, sees legal drama caused by own errant tech
- Anthropic’s lawyer was forced to apologize after Claude hallucinated a legal citation
- Anthropic CEO claims AI models hallucinate less than humans
- Anthropic lawyers apologize to court over AI ‘hallucination’ in copyright battle with music publishers
- Anthropic expert accused of using AI-fabricated source in copyright caseSFGATETop AI Tools List – OpenTools+8TechCrunch+8Reddit+8TechCrunch+2TechCrunch+2Yahoo Finance+2Reuters+4Music Business Worldwide+4TechCrunch+4Reuters+1Reuters+1
Besoin d’accompagnement dans l’intégration de l’IA dans vos processus ?
Chez Tamento, nous vous aidons à intégrer des solutions d’intelligence artificielle adaptées à vos besoins, tout en assurant une supervision humaine rigoureuse. Contactez-nous pour en savoir plus.
