Intel et Google renforcent leur partenariat IA : processeurs Xeon et IPU personnalisées

Intel et Google annoncent une collaboration renforcée pour développer l’infrastructure IA de nouvelle génération, avec un focus sur les processeurs Xeon et les IPU personnalisées.
Intel ia google xeon ipu

Ce qu’il faut retenir :

  • Intel et Google signent un accord pluriannuel pour développer ensemble l’infrastructure cloud et IA de nouvelle génération.
  • Google Cloud déploie les processeurs Intel Xeon 6 sur ses instances C4 et N4 pour optimiser les performances et l’efficacité énergétique.
  • Les deux groupes co-développent des IPU personnalisées basées sur des ASIC pour décharger les fonctions réseau et sécurité des CPU.

Un partenariat pluriannuel centré sur les processeurs Xeon

Intel et Google officialisent une collaboration pluriannuelle pour faire progresser l’infrastructure cloud et IA de nouvelle génération. L’accord porte spécifiquement sur plusieurs générations de processeurs Intel Xeon pour améliorer les performances, l’efficacité énergétique et réduire le coût total de possession de l’infrastructure mondiale de Google.

Google Cloud continue de déployer massivement les processeurs Intel Xeon sur ses instances optimisées, notamment les derniers processeurs Intel Xeon 6 qui alimentent désormais les instances C4 et N4. Ces plateformes supportent un large éventail de charges de travail, de la coordination d’entraînement IA à grande échelle jusqu’à l’inférence sensible à la latence et l’informatique généraliste.

Co-développement d’IPU personnalisées pour l’infrastructure

À mesure que l’adoption de l’IA s’accélère, l’infrastructure devient plus complexe et hétérogène, ce qui favorise une dépendance accrue aux CPU pour l’orchestration, le traitement des données et les performances au niveau du système

Les deux géants technologiques étendent parallèlement leur co-développement d’IPU personnalisées (Infrastructure Processing Units) basées sur des ASIC. Ces accélérateurs programmables déchargent les fonctions réseau, stockage et sécurité traditionnellement prises en charge par les CPU hôtes.

En gérant ces tâches d’infrastructure, les IPU libèrent une capacité de calcul supplémentaire et permettent aux fournisseurs cloud de se développer plus efficacement sans augmenter la complexité globale du système. Cette approche répond directement à la complexité croissante des infrastructures IA hétérogènes.

Ce qu’il faut surveiller

Le déploiement des prochaines générations de processeurs Intel Xeon dans l’écosystème Google Cloud constituera un indicateur clé de la montée en puissance de cette collaboration. L’évolution des performances des instances C4 et N4 alimentées par les Xeon 6 donnera également des signaux sur l’efficacité de cette alliance face à la concurrence d’AMD et des puces ARM dans le cloud.

Cet article vous a plu ? Recevez les prochains par email

Rejoignez +40 000 abonnés. L'essentiel du marché crypto dans votre boîte mail, tous les 2 jours.

En savoir plus sur notre newsletter crypto →
Retrouvez toute l'actualité dans notre rubrique Intelligence Artificielle sur Coin Academy.
Articles qui pourraient vous intéresser
Logo CoinAcademy
Résumé de la politique de confidentialité

Ce site utilise des cookies afin que nous puissions vous fournir la meilleure expérience utilisateur possible. Les informations sur les cookies sont stockées dans votre navigateur et remplissent des fonctions telles que vous reconnaître lorsque vous revenez sur notre site Web et aider notre équipe à comprendre les sections du site que vous trouvez les plus intéressantes et utiles.