Сооснователь Ethereum Виталик Бутерин недавно написал в X (бывший Twitter), что нынешняя разработка искусственного интеллекта (AI) чрезмерно стремится к «автономности», игнорируя ценность человека в процессе принятия решений и вывода. Он призвал отрасль увеличить пути человеческого ввода, продвигая открытые модели с функцией редактирования, и предложил концепцию сочетания интерфейса мозг-компьютер (BCI) для реализации мгновенной обратной связи и корректировок, чтобы нарисовать более ориентированную на человека картину развития AI.
Виталик заявил, что текущие «агентные» системы в области ИИ, которые пытаются выполнять задачи с минимальным человеческим контролем, вызывают у него разочарование. Он считает, что человеческий ввод не только может повысить качество вывода, но и значительно улучшить безопасность.
Он особенно предпочитает открытые модели с функцией редактирования, которые позволяют разработчикам и пользователям вмешиваться в процесс генерации, исправлять или направлять вывод в реальном времени, а не только создавать результат с нуля.
Мнение Виталика совпадает с недавней речью Андрея Карпаты, бывшего руководителя AI в Tesla. Карпата предупреждает, что большие языковые модели не следует рассматривать как полностью надежные автономные агенты, и подчеркивает важность человеческого надзора, осторожных подсказок и поэтапной разработки.
Этот подход ведет отрасль к переходу на модель «человек-машина сотрудничество»:
Предоставить более интуитивно понятный интерфейс редактирования
Поддержка мгновенной обрезки и коррекции в процессе генерации
Уменьшение иллюзий и искажений, обеспечение соответствия вывода человеческим намерениям и стандартам безопасности.
Виталик также предложил, что среднесрочная перспектива заключается в сочетании технологий BCI, позволяя ИИ в реальном времени воспринимать эмоциональные реакции пользователей при создании контента и автоматически настраивать вывод в зависимости от предпочтений.
Эта концепция не пустые разговоры:
Компании Neuralink, Synchron и другие начали клинические испытания и минимально инвазивные имплантации.
Устройства для ношения на основе электроэнцефалографии (ЭЭГ) пытаются расшифровать состояние внимания и эмоций.
Научное сообщество достигло успехов в области “эмоциональных вычислений” и технологий эмоциональной маркировки.
Несмотря на то, что неинвазивная декодировка эмоций все еще представляет собой вызов, развитие технологий постепенно приближает это видение к реальности.
В последнее время OpenAI неожиданно выпустила открытые весовые модели gpt-oss-120b и gpt-oss-20b, что вызвало бурные обсуждения. Поддерживающие считают, что это способствует демократизации разработки ИИ, позволяя командам легче создавать ориентированные на человека рабочие процессы и выявлять риски безопасности; однако критики опасаются, что широкое распространение мощных моделей может привести к рискам злоупотреблений.
Позиция Виталика ясна: лучшее производство и более безопасные системы исходят от того, чтобы поставить человеческие предпочтения и сложные сигналы в центр рабочих процессов ИИ.
Заявление Виталика Бутерина отражает ключевую дискуссию в развитии AI: позволить моделям быть полностью автономными или сохранить за человеком немедленный контроль? С развитием открытых весовых моделей, интерфейсов мозг-компьютер и технологий обнаружения эмоций, возможности сотрудничества между человеком и машиной быстро расширяются. Будущее AI, возможно, больше не будет черным ящиком, который «принимает решения за вас», а станет интеллектуальным партнером, который может творить вместе с вами и взаимодействовать в реальном времени.