Ce qu’il faut retenir :
- Le Pentagone a formellement désigné Anthropic comme risque pour sa chaîne d’approvisionnement, mais la portée de la mesure reste limitée aux contrats militaires directs.
- Dario Amodei, PDG d’Anthropic, conteste la décision en justice et maintient ses lignes rouges sur les armes autonomes et la surveillance de masse.
- OpenAI, qui a signé un contrat avec le Pentagone, négocie en parallèle des garde-fous supplémentaires contre la surveillance des citoyens américains.
Anthropic vient de franchir un nouveau cap dans son conflit ouvert avec le département de la Défense américain. Le Pentagone a formalisé cette semaine la désignation du laboratoire d’IA comme risque pour la chaîne d’approvisionnement militaire, une mesure habituellement réservée aux entreprises issues de pays considérés comme adversaires des États-Unis, comme la Chine ou la Russie.
Une sanction au périmètre plus restreint que prévu
La menace initiale du secrétaire à la Défense Pete Hegseth était radicale : interdire à tout fournisseur ou partenaire de l’armée américaine de mener la moindre activité commerciale avec Anthropic. Une application large de cette mesure aurait pu fragiliser les partenariats stratégiques de la start-up, notamment avec Amazon, et menacer son accès aux infrastructures de centres de données indispensables à ses opérations.
Mais selon Dario Amodei, PDG d’Anthropic, le Pentagone a finalement restreint la portée de sa décision. La désignation se limite à l’utilisation de Claude (le modèle d’IA d’Anthropic) dans le cadre de contrats directs avec le département de la Défense, et non à l’ensemble des activités des entreprises qui travaillent à la fois avec l’armée et avec Anthropic.
Nous ne pensons pas que cette action soit juridiquement fondée et nous n’avons d’autre choix que de la contester devant les tribunaux.
Amodei
La valorisation d’Anthropic atteint aujourd’hui 380 milliards de dollars et son chiffre d’affaires annualisé s’élève à 19 milliards de dollars. Plusieurs experts juridiques indépendants ont d’ores et déjà mis en doute la solidité de cette désignation face à un examen judiciaire.
Armes autonomes et surveillance : les lignes rouges d’Amodei
Le conflit trouve son origine dans l’échec, vendredi dernier, des négociations entre Anthropic et le Pentagone sur les conditions d’utilisation de Claude par l’armée. Amodei a refusé de céder sur deux exigences : l’interdiction d’utiliser son modèle dans des armes autonomes létales et dans des dispositifs de surveillance domestique de masse.
Dans un mémo interne de 1 600 mots adressé à ses employés (rédigé vendredi et rendu public mercredi), le PDG d’Anthropic avait accusé le Pentagone de ‘mensonges purs et simples’ et affirmé avoir été écarté des discussions parce que sa société n’avait pas adressé de ‘louanges de style dictatorial’ au président Donald Trump, contrairement au PDG d’OpenAI Sam Altman. Amodei s’est depuis excusé pour le ton de ce message, précisant qu’il ne reflétait pas ses ‘opinions réfléchies et posées’.
Du côté du Pentagone, Emil Michael, sous-secrétaire à la Défense pour la recherche et l’ingénierie, a indiqué qu’il n’y avait plus de ‘négociation active’ en cours avec Anthropic.
OpenAI signe avec le Pentagone, mais négocie des garde-fous
Pendant qu’Anthropic refuse de transiger, OpenAI a choisi une approche différente. La start-up de Sam Altman a signé un contrat avec le Pentagone, mais négocie désormais des protections supplémentaires contre la surveillance des citoyens américains durant la phase de mise en oeuvre de trois mois.
Des experts juridiques et des employés d’OpenAI ont scruté le langage contractuel qui interdit la surveillance ‘intentionnelle’, ‘délibérée’ ou ‘ciblée’, soulevant des inquiétudes quant à la possibilité pour le gouvernement de surveiller des Américains de manière ‘incidente’ ou ‘non intentionnelle’ grâce aux outils d’IA. Altman a lui-même reconnu que la précipitation à conclure un accord après l’effondrement des négociations d’Anthropic avait paru ‘opportuniste et bâclée’.
Amodei a directement mis en cause la crédibilité des protections proposées par OpenAI, estimant que les mesures techniques avancées par son concurrent ‘ne fonctionnent pas pour la plupart’ et que la différence entre les deux entreprises tient au fait qu’OpenAI cherchait avant tout à ‘apaiser ses employés’ tandis qu’Anthropic ‘se souciait réellement de prévenir les abus’.
Un vide juridique au coeur du débat
Le conflit met en lumière un problème plus profond : l’absence de cadre juridique clair encadrant l’utilisation de l’IA à des fins de sécurité nationale. Plusieurs anciens responsables gouvernementaux ont souligné que l’administration Trump n’avait pas publiquement confirmé le maintien du AI National Security Memorandum, la politique mise en place sous Joe Biden pour empêcher l’IA de violer les libertés civiles.
Mieke Eoyang, ancienne sous-secrétaire adjointe à la Défense pour la cyberpolitique, s’est interrogée sur la volonté de l’administration actuelle de respecter les protections existantes. Paul Nakasone, ancien directeur de la NSA et désormais membre du conseil d’administration d’OpenAI, a quant à lui appelé à restaurer la confiance du public envers les agences de renseignement.
Ce qu’il faut surveiller
La bataille judiciaire annoncée par Anthropic constituera un test juridique inédit sur les limites du pouvoir du Pentagone à sanctionner une entreprise américaine d’IA pour des motifs de politique d’utilisation. En parallèle, la capacité d’OpenAI à négocier des garde-fous concrets contre la surveillance durant sa phase d’implémentation sera déterminante pour le précédent que ce contrat établira. Les prochaines semaines diront si un compromis est encore possible entre Washington et la Silicon Valley sur l’usage militaire de l’intelligence artificielle.