OpenAI та Anthropic тестують моделі на ілюзії та питання безпеки

robot
Генерація анотацій у процесі

Jin10 дані 28 серпня, OpenAI та Anthropic нещодавно оцінили моделі один одного, щоб виявити можливі проблеми, які могли бути пропущені в їхніх тестах. Обидві компанії в середу заявили на своїх блогах, що цього літа вони провели тести безпеки на публічно доступних AI моделях один одного та перевірили, чи є у моделей схильність до ілюзій, а також проблеми, відомі як "втрати відповідності" (misalignment), тобто моделі не працюють так, як очікувалося розробниками. Ці оцінки були завершені до запуску OpenAI GPT-5 та випуску Anthropic Opus 4.1 на початку серпня. Anthropic була заснована колишніми співробітниками OpenAI.

GPT-1.23%
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Related Topics
#
ai
Прокоментувати
0/400
Немає коментарів
  • Закріпити