Данные Jin10 от 28 августа: OpenAI и Anthropic недавно оценили модели друг друга, чтобы выявить потенциальные проблемы, которые могли быть упущены в их собственных тестах. Обе компании в среду сообщили на своих блогах, что этим летом они провели тестирование безопасности доступных AI-моделей друг друга и проверили, есть ли у моделей тенденция к иллюзиям, а также так называемая проблема «несоответствия» (misalignment), то есть модели не работают так, как ожидали разработчики. Эти оценки были завершены до того, как OpenAI выпустила GPT-5, а Anthropic представила Opus 4.1 в начале августа. Anthropic была основана бывшими сотрудниками OpenAI.
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
OpenAI и Anthropic тестируют модели на предмет иллюзий и вопросов безопасности.
Данные Jin10 от 28 августа: OpenAI и Anthropic недавно оценили модели друг друга, чтобы выявить потенциальные проблемы, которые могли быть упущены в их собственных тестах. Обе компании в среду сообщили на своих блогах, что этим летом они провели тестирование безопасности доступных AI-моделей друг друга и проверили, есть ли у моделей тенденция к иллюзиям, а также так называемая проблема «несоответствия» (misalignment), то есть модели не работают так, как ожидали разработчики. Эти оценки были завершены до того, как OpenAI выпустила GPT-5, а Anthropic представила Opus 4.1 в начале августа. Anthropic была основана бывшими сотрудниками OpenAI.