OpenAI et Anthropic testent mutuellement des problèmes tels que l'illusion des modèles et la sécurité.

robot
Création du résumé en cours

Jin10 données 28 août, OpenAI et Anthropic ont récemment évalué mutuellement les modèles de l'autre, dans le but de découvrir des problèmes potentiellement omis lors de leurs propres tests. Les deux entreprises ont déclaré mercredi sur leurs blogs respectifs qu'au cours de l'été dernier, elles avaient effectué des tests de sécurité sur les modèles d'IA disponibles publiquement de l'autre partie, et examiné si les modèles présentaient une tendance à l'illusion, ainsi que des problèmes de soi-disant "désalignement", c'est-à-dire que les modèles ne fonctionnaient pas comme prévu par les développeurs. Ces évaluations ont été réalisées avant le lancement de GPT-5 par OpenAI et la publication d'Opus 4.1 par Anthropic au début du mois d'août. Anthropic a été fondée par d'anciens employés d'OpenAI.

GPT-5.47%
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Sujets connexes
#
ai
Commentaire
0/400
Aucun commentaire
  • Épingler
Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)