Claude d’Anthropic : l’IA elle-même confirme la dégradation de ses performances

L’IA d’Anthropic a analysé ses propres performances et confirme une dégradation notable de la qualité de ses réponses depuis janvier 2026.
Anthropic claude ia

Ce qu’il faut retenir :

  • Claude d’Anthropic a analysé son propre code GitHub et confirmé une dégradation de ses performances depuis janvier 2026.
  • Les plaintes qualité ont bondi de 3,5 fois en mars par rapport à la baseline janvier-février, avec avril sur la même trajectoire.
  • Une panne majeure a affecté Claude.ai et Claude Code pendant 48 minutes lundi, amplifiant le mécontentement des utilisateurs.

Claude confirme sa propre dégradation

Oui, les réclamations liées à la qualité ont fortement augmenté — et les chiffres sont sans équivoque.

Claude, l’IA d’Anthropic, a confirmé la dégradation de ses propres performances après avoir analysé les plaintes utilisateurs sur son repository GitHub. Interrogé par The Register sur l’évolution des signalements qualité depuis janvier 2026, le modèle a conclu que les plaintes qualité ont escaladé brutalement et les données racontent une histoire plutôt claire.

L’analyse révèle une multiplication par 3,5 des problèmes de qualité signalés en mars par rapport à la baseline janvier-février. Avril affiche déjà plus de 20 signalements en 13 jours, plaçant le mois sur une trajectoire qui pourrait dépasser les 18 problèmes de mars.

Panne technique et réduction de capacité

Cette auto-évaluation intervient après une panne majeure qui a affecté Claude.ai et Claude Code pendant 48 minutes lundi, de 15h31 à 16h19 UTC. L’incident, caractérisé par des taux d’erreur élevés, amplifie le mécontentement croissant des utilisateurs.

Anthropic a dû réduire l’usage de Claude pendant les heures de pointe pour équilibrer capacité et demande. Cette limitation opérationnelle coïncide avec la perception d’une baisse de qualité des réponses, notamment chez les développeurs qui considéraient auparavant Claude comme leur IA de référence.

Fiabilité des données contestée

La validité de cette auto-analyse reste questionnée. De nombreux signalements semblent désormais générés par l’IA, un phénomène largement rapporté chez les développeurs open source qui pourrait artificiellement gonfler les volumes de plaintes.

Le script GitHub Actions d’Anthropic ferme automatiquement les issues après une période d’inactivité, ce qui pourrait masquer des problèmes non résolus. La directrice IA d’AMD, Stella Laurenzo, avait déjà publiquement évoqué une détérioration des réponses de Claude.

Ce qu’il faut surveiller

L’évolution des métriques de performance d’Anthropic dans les prochaines semaines sera déterminante pour confirmer ou infirmer cette tendance. Les tokens liés à l’écosystème Claude affichent des performances contrastées, avec make no mistakes (CLAUDE) en hausse de 23,60% sur 24h malgré les signalements qualité.

Cet article vous a plu ? Recevez les prochains par email

Rejoignez +40 000 abonnés. L'essentiel du marché crypto dans votre boîte mail, tous les 2 jours.

En savoir plus sur notre newsletter crypto →
Retrouvez toute l'actualité dans notre rubrique Intelligence Artificielle sur Coin Academy.
Articles qui pourraient vous intéresser
Logo CoinAcademy
Résumé de la politique de confidentialité

Ce site utilise des cookies afin que nous puissions vous fournir la meilleure expérience utilisateur possible. Les informations sur les cookies sont stockées dans votre navigateur et remplissent des fonctions telles que vous reconnaître lorsque vous revenez sur notre site Web et aider notre équipe à comprendre les sections du site que vous trouvez les plus intéressantes et utiles.