Ce qu’il faut retenir :
- Sullivan & Cromwell a reconnu devant un tribunal fédéral que des erreurs générées par une IA figuraient dans un document déposé dans une affaire de faillite majeure.
- Le cabinet, dont les associés facturent plus de 2 000 $ de l’heure, a présenté ses excuses au juge pour des citations juridiques erronées et des jurisprudences inventées.
- L’incident relance le débat sur l’utilisation de l’IA générative dans les professions juridiques, après plusieurs cas similaires ces deux dernières années.
Sullivan & Cromwell (S&C), l’un des cabinets d’avocats les plus prestigieux de Wall Street, a admis qu’un document judiciaire déposé le 9 avril devant un tribunal fédéral de New York contenait de multiples “hallucinations” produites par un logiciel d’intelligence artificielle. Des passages citaient de manière erronée le code américain des faillites et référençaient des décisions de justice inexistantes ou mal identifiées.
Des excuses au juge, une politique interne enfreinte
Andrew Dietderich, responsable de la pratique restructuring de S&C, a adressé une lettre d’excuses samedi au juge fédéral Martin Glenn. “Nous regrettons profondément que cela se soit produit”, a-t-il écrit. Le cabinet a précisé que ses règles internes d’utilisation de l’IA n’avaient pas été respectées lors de la préparation du document, et qu’il envisageait des améliorations de ses processus de formation et de vérification.
La lettre ne précise pas quels avocats ont préparé le document ni s’ils sont toujours en poste. S&C a refusé de commenter.
Une affaire de fraude à 9 milliards de dollars
Le document fautif concernait la représentation par S&C des liquidateurs du Prince Group, un conglomérat incorporé dans les Îles Vierges britanniques. Son propriétaire, Chen Zhi, a été inculpé l’an dernier par des procureurs fédéraux américains pour fraude et blanchiment d’argent. Les autorités l’accusent d’avoir dirigé des camps de travail forcé au Cambodge opérant des arnaques qui auraient volé des milliards de dollars à des victimes dans le monde entier. Le gouvernement américain a engagé une procédure de saisie civile portant sur près de 9 milliards de dollars en Bitcoin, présentés comme le produit de ces activités criminelles.
Au moins cinq associés seniors de S&C étaient assignés au dossier. Le cabinet dispose d’une licence entreprise pour ChatGPT. Ses associés facturent habituellement plus de 2 000 $ de l’heure dans les affaires de faillite. S&C avait engrangé plusieurs centaines de millions de dollars d’honoraires lors de la liquidation de la plateforme crypto FTX.
Les erreurs repérées par la partie adverse
C’est le cabinet adverse, Boies Schiller Flexner (BSF), qui a identifié les erreurs. Dans un document déposé la semaine dernière, BSF a relevé que des passages cités par S&C “n’apparaissent pas dans le chapitre 15 du code américain des faillites”. Plusieurs décisions citées étaient mal attribuées ou renvoyaient à des affaires différentes dans des circuits judiciaires différents. L’une des références ne correspondait tout simplement pas à une affaire existante.
S&C a affirmé au tribunal maintenir des standards “rigoureux” pour l’usage des outils d’IA et imposer à ses avocats de “ne rien croire et tout vérifier”. Le non-respect de cette consigne constitue une violation de la politique interne du cabinet.
Un problème récurrent dans la profession juridique
L’affaire s’ajoute à une série d’incidents similaires. En 2025, le cabinet Latham & Watkins avait reconnu qu’un de ses avocats avait utilisé le modèle Claude d’Anthropic pour rédiger un document contenant un titre et un auteur d’article inventés. Un tribunal fédéral de La Nouvelle-Orléans avait infligé une sanction de 2 500 $ à un avocat dont le mémoire contenait 21 erreurs ou fabrications issues d’une IA.
L’IA générative, un outil d’IA capable de produire du texte, du code ou des résumés à partir d’instructions en langage naturel, promet des gains de productivité considérables dans le travail juridique. Mais ces cas révèlent un décalage persistant entre la vitesse d’adoption et la rigueur des processus de vérification. Le risque d’hallucination, c’est-à-dire la génération de contenus factuellement faux mais formulés de manière convaincante, reste l’un des défis majeurs de ces technologies.
Ce qu’il faut surveiller
L’incident pourrait accélérer les discussions autour de l’encadrement réglementaire de l’IA dans la pratique juridique aux États-Unis. Plusieurs barreaux américains réfléchissent déjà à des obligations de divulgation lorsque l’IA est utilisée dans la préparation de documents judiciaires. Pour S&C, l’enjeu est aussi réputationnel : le cabinet devra démontrer que ses contrôles internes sont à la hauteur des tarifs qu’il facture.
Cet article vous a plu ? Recevez les prochains par email
Rejoignez +40 000 abonnés. L'essentiel du marché crypto dans votre boîte mail, tous les 2 jours.