OpenAI и Anthropic тестируют модели на предмет иллюзий и вопросов безопасности.

robot
Генерация тезисов в процессе

Данные Jin10 от 28 августа: OpenAI и Anthropic недавно оценили модели друг друга, чтобы выявить потенциальные проблемы, которые могли быть упущены в их собственных тестах. Обе компании в среду сообщили на своих блогах, что этим летом они провели тестирование безопасности доступных AI-моделей друг друга и проверили, есть ли у моделей тенденция к иллюзиям, а также так называемая проблема «несоответствия» (misalignment), то есть модели не работают так, как ожидали разработчики. Эти оценки были завершены до того, как OpenAI выпустила GPT-5, а Anthropic представила Opus 4.1 в начале августа. Anthropic была основана бывшими сотрудниками OpenAI.

GPT-8.78%
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
Похожие темы
#
ai
комментарий
0/400
Нет комментариев
  • Закрепить