Ce qu’il faut retenir :
- Anthropic a déposé une plainte contre le Pentagone et d’autres agences fédérales après sa désignation comme “risque pour la chaîne d’approvisionnement”, un statut habituellement réservé aux entreprises chinoises et russes.
- Le conflit porte sur le refus du PDG Dario Amodei d’autoriser l’usage de Claude pour des armes autonomes létales et la surveillance de masse.
- Amazon, Microsoft et Google ont confirmé qu’ils maintiendraient leurs liens avec Anthropic en dehors des contrats militaires.
Une plainte contre le Pentagone, du jamais vu pour une entreprise d’IA américaine
Anthropic, la startup d’intelligence artificielle valorisée 380 milliards de dollars et créatrice du modèle Claude, a déposé lundi une plainte devant un tribunal fédéral de Californie contre le Pentagone et plusieurs agences fédérales. L’entreprise demande au juge de déclarer sa désignation comme “risque pour la chaîne d’approvisionnement” comme étant “arbitraire” et “capricieuse”, et d’en bloquer l’application.
Ce statut, formalisé la semaine dernière, est normalement réservé aux fournisseurs chinois et russes considérés comme des menaces pour la sécurité nationale. Il oblige les entreprises travaillant sur des contrats militaires à exclure Anthropic de leurs chaînes d’approvisionnement. Donald Trump a également ordonné à toutes les agences fédérales de cesser d’utiliser les services d’Anthropic.
Armes autonomes et surveillance de masse : les deux “lignes rouges” de Dario Amodei
La réputation d’Anthropic et les libertés fondamentales garanties par le premier amendement sont menacées.
Le conflit couvait depuis plusieurs semaines. Le Pentagone souhaitait obtenir des droits étendus pour déployer les modèles d’Anthropic, tandis que la startup insistait sur le maintien de garde-fous qu’elle jugeait nécessaires pour prévenir les abus.
Le PDG Dario Amodei a maintenu deux interdictions fermes : pas d’utilisation de sa technologie pour des armes autonomes létales, et pas de surveillance de masse sur le territoire américain. Selon le dossier déposé au tribunal, le secrétaire à la Défense Pete Hegseth a exigé qu’Anthropic abandonne purement et simplement ses restrictions d’usage au profit d’une politique générale autorisant “tout usage légal” de la technologie.
Amodei a déclaré qu’il ne pouvait pas accepter ces conditions “en bonne conscience”, provoquant la rupture des négociations.
Trump qualifie Anthropic d’entreprise “radicale de gauche”
L’escalade est aussi politique. Anthropic cite dans sa plainte une publication de Donald Trump sur Truth Social dans laquelle il qualifie l’entreprise de “compagnie d’IA radicale de gauche hors de contrôle”. Pete Hegseth a de son côté accusé Anthropic de “trahison”.
La porte-parole de la Maison Blanche, Liz Huston, a répondu lundi que le président et le secrétaire à la Défense “garantiront qu’ils ne seront jamais pris en otage par les caprices idéologiques de dirigeants de la Big Tech”. Elle a ajouté que sous l’administration Trump, l’armée “obéira à la Constitution, pas aux conditions d’utilisation d’une entreprise d’IA woke”.
Claude, seul modèle d’IA utilisé dans les opérations classifiées
L’ironie de la situation : Claude est actuellement le seul modèle d’IA déployé dans des opérations classifiées américaines. Son rival OpenAI a néanmoins signé un accord avec le Pentagone fin février pour que ses modèles soient utilisés dans les missions les plus sensibles.
OpenAI fait d’ailleurs face à des tensions internes similaires. Caitlin Kalinowski, qui dirigeait l’équipe hardware d’OpenAI, a annoncé sa démission ce week-end, invoquant des préoccupations sur l’utilisation de l’IA pour la surveillance et les armes autonomes.
Les géants du cloud maintiennent leurs liens avec Anthropic
Anthropic a précisé que “la grande majorité” de ses clients ne serait pas affectée par la désignation. Ses trois partenaires stratégiques, Amazon, Microsoft et Google, ont confirmé qu’ils conserveraient leurs liens avec la startup en dehors des contrats de défense. Un soutien crucial pour une entreprise dont les modèles sont distribués via AWS, Azure et Google Cloud.
Ce qu’il faut surveiller
L’issue de cette plainte pourrait créer un précédent majeur sur les limites que les entreprises d’IA peuvent imposer à l’usage militaire de leurs technologies. Si le tribunal donne raison à Anthropic, cela renforcerait le droit des développeurs d’IA à fixer des garde-fous, même face au gouvernement fédéral.
Dans le cas contraire, le signal envoyé à l’industrie serait clair : refuser de coopérer sans conditions avec le Pentagone comporte un risque économique réel. La position d’OpenAI, qui a choisi l’approche inverse en acceptant un contrat ouvert avec la Défense, sera scrutée de près comme modèle alternatif.
Cet article vous a plu ? Recevez les prochains par email
Rejoignez +40 000 abonnés. L'essentiel du marché crypto dans votre boîte mail, tous les 2 jours.