Amazon Web Services (AWS) a récemment déployé à grande vitesse sa nouvelle génération de puces d’accélération AI, Trainium3, dans certains centres de données, et a officiellement ouvert l’accès aux clients à partir du 2/12. Cette puce est considérée comme l’arme clé d’Amazon pour rattraper (NVIDIA) et Google dans le domaine du calcul AI, mettant en avant des performances élevées et un excellent rapport qualité-prix. Toutefois, il est également noté qu’AWS, bien que leader du cloud, reste moins attractif aux yeux des développeurs de modèles AI que Microsoft et Google. La priorité est désormais de proposer du matériel propriétaire capable de consolider réellement la clientèle entreprise et de renforcer la fidélité à l’écosystème.
Lancement de Trainium3, AWS accélère le déploiement de puces AI
Dave Brown, vice-président d’AWS, a déclaré que la dernière génération de puces d’accélération AI, Trainium3, a été déployée dans certains centres de données et est désormais en service, accessible aux clients entreprise dès maintenant. Cette puce succède à la génération précédente avec seulement un an d’écart, ce qui est assez rare dans l’industrie. Brown a également ajouté qu’AWS commencera à étendre la distribution à un rythme très rapide dès le début de l’année prochaine.
Amazon souligne que la série Trainium vise haute performance et rapport qualité-prix, permettant d’effectuer l’énorme calcul requis pour l’entraînement AI à moindre coût. Les ingénieurs AWS plaisantent même en disant qu’en août, lors du premier démarrage de Trainium3, ils priaient seulement pour qu’il ne fume pas ou ne prenne pas feu, soulignant le rythme très soutenu de développement et de mise sur le marché de cette puce.
Défier NVIDIA n’est pas simple, l’écosystème logiciel reste le principal point faible
Bien qu’AWS continue de mettre en avant les avantages prix/performance de Trainium, NVIDIA conserve un immense avantage en matière d’écosystème pour les développeurs AI. Un acteur de la construction automatisée a indiqué que, bien que son infrastructure soit sur AWS, il choisit principalement les GPU NVIDIA pour entraîner ses modèles de pelleteuses autonomes, ayant besoin de solutions à la fois puissantes et faciles à utiliser — ce que propose NVIDIA.
De nombreux observateurs estiment que Trainium souffre d’un manque d’outils logiciels, ce qui rend son adoption plus difficile pour de nombreux développeurs et pose un défi à AWS pour conquérir le marché de l’entraînement AI haut de gamme.
Anthropic devient le plus grand utilisateur, AWS espère stimuler la demande grâce à lui
Actuellement, le plus grand utilisateur de Trainium sur le marché est la startup AI Anthropic. AWS a annoncé en début d’année avoir déployé plus de 500 000 puces Trainium pour Anthropic, avec un objectif de 1 million d’ici la fin de l’année.
Matt Garman, CEO d’AWS, a indiqué que la relation entre les deux parties est très bonne, les besoins d’Anthropic en entraînement de modèles étant énormes, ils achètent donc de la puissance de calcul à plusieurs fournisseurs cloud comme AWS et Google. Anthropic a précédemment conclu un accord avec Google pour utiliser des TPU d’une valeur de plusieurs milliards de dollars. En dehors d’Anthropic, il semble que peu de grands clients Trainium aient été publiquement identifiés par AWS, rendant difficile une évaluation complète de l’efficacité réelle de cette puce.
AWS annonce Nova 2 et Forge lors de sa conférence, mettant l’accent sur la performance réelle
Lors de sa conférence annuelle re:Invent, Amazon a présenté en parallèle la série de modèles linguistiques Nova 2. Sa version multimodale, Nova Omni, peut traiter du texte, des images, de l’audio et de la vidéo en entrée, avec des sorties possibles en texte ou image.
Rohit Prasad, responsable du développement AGI, a indiqué que, même si Nova n’était pas en tête des classements sur les benchmarks standards, l’indicateur le plus important reste l’utilisation réelle, et il croit que la nouvelle version est suffisamment compétitive.
AWS a également lancé le nouvel outil Nova Forge, permettant aux entreprises de personnaliser leurs données avant la fin de l’entraînement du modèle. Reddit utilise déjà cet outil pour développer un modèle détectant si les publications violent les règles de la plateforme. Chris Slowe, CTO, explique que de nombreuses entreprises veulent utiliser le modèle le plus puissant, mais la vraie valeur réside dans le fait de « faire de votre modèle un expert dans votre domaine ».
(OpenAI et AWS concluent un accord cloud de 38 milliards de dollars, préparant la sortie de Microsoft et l’introduction en bourse)
Cet article Amazon accélère le lancement de la nouvelle puce AI Trainium3, défiant frontalement NVIDIA et Google est apparu en premier sur Chain News ABMedia.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
Amazon lance en urgence sa toute dernière puce IA, la Trainium3, pour rivaliser directement avec Nvidia et Google.
Amazon Web Services (AWS) a récemment déployé à grande vitesse sa nouvelle génération de puces d’accélération AI, Trainium3, dans certains centres de données, et a officiellement ouvert l’accès aux clients à partir du 2/12. Cette puce est considérée comme l’arme clé d’Amazon pour rattraper (NVIDIA) et Google dans le domaine du calcul AI, mettant en avant des performances élevées et un excellent rapport qualité-prix. Toutefois, il est également noté qu’AWS, bien que leader du cloud, reste moins attractif aux yeux des développeurs de modèles AI que Microsoft et Google. La priorité est désormais de proposer du matériel propriétaire capable de consolider réellement la clientèle entreprise et de renforcer la fidélité à l’écosystème.
Lancement de Trainium3, AWS accélère le déploiement de puces AI
Dave Brown, vice-président d’AWS, a déclaré que la dernière génération de puces d’accélération AI, Trainium3, a été déployée dans certains centres de données et est désormais en service, accessible aux clients entreprise dès maintenant. Cette puce succède à la génération précédente avec seulement un an d’écart, ce qui est assez rare dans l’industrie. Brown a également ajouté qu’AWS commencera à étendre la distribution à un rythme très rapide dès le début de l’année prochaine.
Amazon souligne que la série Trainium vise haute performance et rapport qualité-prix, permettant d’effectuer l’énorme calcul requis pour l’entraînement AI à moindre coût. Les ingénieurs AWS plaisantent même en disant qu’en août, lors du premier démarrage de Trainium3, ils priaient seulement pour qu’il ne fume pas ou ne prenne pas feu, soulignant le rythme très soutenu de développement et de mise sur le marché de cette puce.
Défier NVIDIA n’est pas simple, l’écosystème logiciel reste le principal point faible
Bien qu’AWS continue de mettre en avant les avantages prix/performance de Trainium, NVIDIA conserve un immense avantage en matière d’écosystème pour les développeurs AI. Un acteur de la construction automatisée a indiqué que, bien que son infrastructure soit sur AWS, il choisit principalement les GPU NVIDIA pour entraîner ses modèles de pelleteuses autonomes, ayant besoin de solutions à la fois puissantes et faciles à utiliser — ce que propose NVIDIA.
De nombreux observateurs estiment que Trainium souffre d’un manque d’outils logiciels, ce qui rend son adoption plus difficile pour de nombreux développeurs et pose un défi à AWS pour conquérir le marché de l’entraînement AI haut de gamme.
Anthropic devient le plus grand utilisateur, AWS espère stimuler la demande grâce à lui
Actuellement, le plus grand utilisateur de Trainium sur le marché est la startup AI Anthropic. AWS a annoncé en début d’année avoir déployé plus de 500 000 puces Trainium pour Anthropic, avec un objectif de 1 million d’ici la fin de l’année.
Matt Garman, CEO d’AWS, a indiqué que la relation entre les deux parties est très bonne, les besoins d’Anthropic en entraînement de modèles étant énormes, ils achètent donc de la puissance de calcul à plusieurs fournisseurs cloud comme AWS et Google. Anthropic a précédemment conclu un accord avec Google pour utiliser des TPU d’une valeur de plusieurs milliards de dollars. En dehors d’Anthropic, il semble que peu de grands clients Trainium aient été publiquement identifiés par AWS, rendant difficile une évaluation complète de l’efficacité réelle de cette puce.
AWS annonce Nova 2 et Forge lors de sa conférence, mettant l’accent sur la performance réelle
Lors de sa conférence annuelle re:Invent, Amazon a présenté en parallèle la série de modèles linguistiques Nova 2. Sa version multimodale, Nova Omni, peut traiter du texte, des images, de l’audio et de la vidéo en entrée, avec des sorties possibles en texte ou image.
Rohit Prasad, responsable du développement AGI, a indiqué que, même si Nova n’était pas en tête des classements sur les benchmarks standards, l’indicateur le plus important reste l’utilisation réelle, et il croit que la nouvelle version est suffisamment compétitive.
AWS a également lancé le nouvel outil Nova Forge, permettant aux entreprises de personnaliser leurs données avant la fin de l’entraînement du modèle. Reddit utilise déjà cet outil pour développer un modèle détectant si les publications violent les règles de la plateforme. Chris Slowe, CTO, explique que de nombreuses entreprises veulent utiliser le modèle le plus puissant, mais la vraie valeur réside dans le fait de « faire de votre modèle un expert dans votre domaine ».
(OpenAI et AWS concluent un accord cloud de 38 milliards de dollars, préparant la sortie de Microsoft et l’introduction en bourse)
Cet article Amazon accélère le lancement de la nouvelle puce AI Trainium3, défiant frontalement NVIDIA et Google est apparu en premier sur Chain News ABMedia.