Jin10 données 28 août, OpenAI et Anthropic ont récemment évalué mutuellement les modèles de l'autre, dans le but de découvrir des problèmes potentiellement omis lors de leurs propres tests. Les deux entreprises ont déclaré mercredi sur leurs blogs respectifs qu'au cours de l'été dernier, elles avaient effectué des tests de sécurité sur les modèles d'IA disponibles publiquement de l'autre partie, et examiné si les modèles présentaient une tendance à l'illusion, ainsi que des problèmes de soi-disant "désalignement", c'est-à-dire que les modèles ne fonctionnaient pas comme prévu par les développeurs. Ces évaluations ont été réalisées avant le lancement de GPT-5 par OpenAI et la publication d'Opus 4.1 par Anthropic au début du mois d'août. Anthropic a été fondée par d'anciens employés d'OpenAI.
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
OpenAI et Anthropic testent mutuellement des problèmes tels que l'illusion des modèles et la sécurité.
Jin10 données 28 août, OpenAI et Anthropic ont récemment évalué mutuellement les modèles de l'autre, dans le but de découvrir des problèmes potentiellement omis lors de leurs propres tests. Les deux entreprises ont déclaré mercredi sur leurs blogs respectifs qu'au cours de l'été dernier, elles avaient effectué des tests de sécurité sur les modèles d'IA disponibles publiquement de l'autre partie, et examiné si les modèles présentaient une tendance à l'illusion, ainsi que des problèmes de soi-disant "désalignement", c'est-à-dire que les modèles ne fonctionnaient pas comme prévu par les développeurs. Ces évaluations ont été réalisées avant le lancement de GPT-5 par OpenAI et la publication d'Opus 4.1 par Anthropic au début du mois d'août. Anthropic a été fondée par d'anciens employés d'OpenAI.