Anthropic explore la conception de puces IA propriétaires pour répondre à la demande explosive de Claude. Le projet reste préliminaire mais s'inscrit dans une course au silicium sur mesure.
Scott Bessent a réuni les PDG des grandes banques américaines pour évaluer les risques du modèle Claude Mythos d'Anthropic, capable de trouver des failles zero-day vieilles de 27 ans.
Anthropic a créé une IA baptisée Mythos qui génère automatiquement des failles zero-day critiques avec un taux de réussite de 72,4%. L'entreprise garde le modèle secret.
Anthropic signe un accord massif avec Google et Broadcom pour près de 5 GW de capacité de calcul. Son revenu annualisé atteint 30 milliards de dollars.
Anthropic interdit l'usage des abonnements Claude avec OpenClaw et les outils tiers, imposant un paiement au token. Le créateur d'OpenClaw, parti chez OpenAI, dénonce un verrouillage.
Anthropic poursuit le Pentagone après sa désignation comme "risque pour la chaîne d'approvisionnement". Dario Amodei refuse l'usage de Claude pour les armes autonomes.
Le Pentagone désigne Anthropic comme risque pour sa chaîne d'approvisionnement militaire. Dario Amodei conteste en justice. OpenAI négocie ses propres garde-fous.
Le Pentagone impose un ultimatum à Anthropic pour ouvrir ses modèles IA aux usages militaires, au risque d’un bras de fer juridique majeur sur les limites éthiques et stratégiques.