Le 21 mai, le PDG de NVIDIA, Jensen Huang, a déclaré que la version open source de DeepSeek R1 a favorisé l’adoption généralisée de la technologie d’IA d’inférence et accéléré le besoin de calcul. Des modèles tels que o3 d’OpenAI, DeepSeek R1 et Grok 3 de xAI démontrent comment l’IA peut passer de modèles de perception et de génération à des modèles d’inférence de pensée à long terme qui nécessitent une puissance de calcul considérablement améliorée. Ces modèles peuvent résoudre des problèmes complexes, prendre des décisions stratégiques et appliquer un raisonnement logique, mais chaque tâche nécessite 100 fois plus de calculs que l’IA traditionnelle basée sur l’inférence. « L’ampleur de la personnalisation post-formation et du modèle est énorme, et l’effort de calcul peut être supérieur de plusieurs ordres de grandeur à ce qu’il était avant l’entraînement », a déclaré M. Huang. Nos besoins en matière d’inférence s’accélèrent, sous l’effet de l’allongement des temps de test et des nouveaux modèles d’inférence.
Le contenu est fourni à titre de référence uniquement, il ne s'agit pas d'une sollicitation ou d'une offre. Aucun conseil en investissement, fiscalité ou juridique n'est fourni. Consultez l'Avertissement pour plus de détails sur les risques.
PDG d'NVIDIA : DeepSeek a propulsé une hausse explosive de la demande en calcul AI
Le 21 mai, le PDG de NVIDIA, Jensen Huang, a déclaré que la version open source de DeepSeek R1 a favorisé l’adoption généralisée de la technologie d’IA d’inférence et accéléré le besoin de calcul. Des modèles tels que o3 d’OpenAI, DeepSeek R1 et Grok 3 de xAI démontrent comment l’IA peut passer de modèles de perception et de génération à des modèles d’inférence de pensée à long terme qui nécessitent une puissance de calcul considérablement améliorée. Ces modèles peuvent résoudre des problèmes complexes, prendre des décisions stratégiques et appliquer un raisonnement logique, mais chaque tâche nécessite 100 fois plus de calculs que l’IA traditionnelle basée sur l’inférence. « L’ampleur de la personnalisation post-formation et du modèle est énorme, et l’effort de calcul peut être supérieur de plusieurs ordres de grandeur à ce qu’il était avant l’entraînement », a déclaré M. Huang. Nos besoins en matière d’inférence s’accélèrent, sous l’effet de l’allongement des temps de test et des nouveaux modèles d’inférence.