Nouveau chip de ia d’Amazon : trainium3
Amazon a récemment dévoilé son nouveau chip d’intelligence artificielle, le Trainium3, dans le cadre de l’événement AWS re:Invent. Ce processeur, gravé en 3 nanomètres, promet des performances quadruplées par rapport à son prédécesseur, le Trainium2. C’est un moment décisif pour l’entreprise qui souhaite entrer dans la bataille face à des géants comme NVIDIA sur le marché des chips de traitement IA.
Les nouveaux modèles seront intégrés au sein d’un système nommé UltraServer Trn3. Ce serveur est conçu pour offrir non seulement un calcul plus rapide, mais également une efficacité supérieure, ainsi qu’un large bande passante mémoire, capable d’atteindre 4,9 To/s. En termes de performance brute, chaque chip peut atteindre jusqu’à 2,52 pétaflops de calcul en format FP8, un véritable bond en avant pour le secteur.
La demande en IA est en pleine expansion, n’est-ce pas ? Pensez aux applications dans le domaine du cinéma et des séries, où des algorithmes peuvent analyser des scénarios, optimiser des productions, voire générer des contenus. Dans ce contexte, Trainium3 est conçu pour des tâches denses comme Mixture of Experts et le traitement de long contexte. Cela signifie une meilleure gestion de la mémoire, permettant ainsi un équilibre entre computation et stockage.
L’une des caractéristiques intéressantes de l’UltraServer Trn3 est sa capacité à accueillir multiples chips interconnectés, ce qui ouvre la voie à l’entraînement de modèles d’IA à la pointe de la technologie. Amazon se vante de la rapidité et de l’efficacité de son chip : en matière d’inférence à grande échelle, le Trainium3 génère cinq fois plus de tokens par mégawatt que son prédécesseur.
Parmi les premiers clients à bénéficier de cette nouvelle technologie se trouve Anthropic, connu pour son modèle Claude Sonnet. Selon des sources proches, l’intégration du Trainium3 a permis une réduction des coûts d’inférence, un atout non négligeable dans un secteur où chaque euro compte. De plus, l’UltraServer Trn3 est compatible avec PyTorch via AWS Neuron, ce qui permet une mise en œuvre sans modification de code, rendant la transition plus fluide pour les entreprises.
Bien qu’Amazon ne soit pas souvent le protagoniste médiatique dans le domaine des chips de IA, la société développe sa propre technologie depuis plusieurs années. Par exemple, à la fin de 2024, des rumeurs circulaient déjà autour de l’utilisation de Trainium2 par une entreprise célèbre qui cherchait à optimiser ses services. C’est un domaine fascinant à suivre, car l’innovation ne fait que commencer.
Et après le lancement de Trainium3 ? Amazon a déjà les yeux rivés sur l’avenir, révélant que le Trainium4 est en développement et sera conçu pour interagir avec les GPUs de NVIDIA. Si on se base sur le calendrier des lancements précédents, son arrivée est attendue vers la fin de 2026.


