Trillium, la puce IA la plus puissante et la plus économe en énergie développée par Google à ce jour

Trillium, la puce IA la plus puissante et la plus économe en énergie développée par Google à ce jour
Trillium, la puce IA la plus puissante et la plus économe en énergie développée par Google à ce jour
-

Alphabet, la société mère de Google, a dévoilé son dernier ajout à la famille des puces IA pour centres de données : Trillium.

Innovation dans le matériel d’IA

Représentant le matériel spécifique à l’IA le plus avancé, Trillium est composé d’unités de traitement tensoriel (TPU). Ces puces de centre de données IA personnalisées constituent une alternative remarquable aux offres de Nvidia, offrant une option intéressante sur le marché.

Actuellement, Nvidia détient 80 % du marché des puces IA, Google dominant les 20 % restants. Il est à noter que Google ne vend pas les puces, mais les loue via sa plateforme de cloud computing.

Performance et efficacité énergétique

Trillium est la sixième génération de TPU, la plus performante et la plus économe en énergie à ce jour. Google a souligné que les TPU Trillium atteignent une augmentation impressionnante de 4,7 fois des performances de calcul maximales par puce par rapport au TPU v5e, comme indiqué dans un article de blog.

La dernière offre de la société offre le double de la capacité et de la bande passante de la mémoire haute capacité (HBM), ainsi que le double de la bande passante d’interconnexion inter-puces (ICI) par rapport au TPU v5e.

De plus, Trillium présente une troisième génération de SparseCore, un accélérateur spécialisé pour le traitement des intégrations ultra-larges trouvées dans les charges de travail avancées de classification et de recommandation. Le billet de blog met également en évidence la possibilité de former la prochaine vague de modèles fondamentaux avec une latence et un coût moindres.

Évolutivité et efficacité

Les derniers TPU Trillium se distinguent par leur efficacité énergétique supérieure de 67 % à celle du TPU v5e, selon Google. De plus, le Trillium est capable de faire évoluer jusqu’à 256 TPU dans un seul module haute capacité et à faible latence.

Le blog mentionne également qu’au-delà de cette évolutivité au niveau des pods, les TPU Trillium, équipés de la technologie multislice et des unités de traitement de l’intelligence (IPU) Titanium, peuvent s’adapter à des centaines de pods, connectant des dizaines de milliers de puces dans un superordinateur à l’échelle d’un bâtiment interconnecté par un réseau de centres de données à plusieurs pétabits par seconde.

Amélioration des performances

La société a obtenu une multiplication par 4,7 des performances de calcul par puce Trillium en augmentant la taille des unités de multiplication matricielle (MXU) et en augmentant la vitesse d’horloge.

Dans un article de blog, la société a déclaré : « Les TPU Trillium alimenteront la prochaine vague de modèles et d’agents d’IA, et nous sommes impatients d’aider nos clients à bénéficier de ces capacités avancées.

Impact sur les services de cloud computing

Cette avancée bénéficiera grandement aux services de cloud computing de Google et à Gemini. Des entreprises comme Deep Genomics et Deloitte, qui s’appuient sur les services Google Cloud, connaîtront un essor significatif grâce à la nouvelle puce.

La prise en charge de la formation et de la diffusion de modèles multimodaux à contexte long sur les TPU Trillium permettra à Google DeepMind de former et de servir les futures générations de modèles Gemini plus rapidement, plus efficacement et avec une latence plus faible que jamais.

Les TPU Trillium sont au cœur du superordinateur Google Cloud AI, une architecture de supercalcul spécialement conçue pour les charges de travail d’IA de pointe.

Gemini 1.5 Pro est le modèle d’IA le plus grand et le plus performant de Google, et a été formé à l’aide de dizaines de milliers d’accélérateurs TPU.

Notre équipe est enthousiasmée par l’annonce de la sixième génération de TPU, et nous attendons avec impatience l’augmentation des performances et de l’efficacité pour la formation et l’inférence à l’échelle de nos modèles Gemini.

Jeff Dean, scientifique en chef chez Google Deepmind et Google Research.

Via Google com

Si vous avez aimé cet article, partagez-le avec vos amis sur les réseaux sociaux. Merci !

-

NEXT Produits de nettoyage de voiture chez Dollarcity qui sont bon marché