Сам Альтман, генеральний директор OpenAI Inc., на саміті AI Impact у Нью-Делі, Індія, у четвер, 19 лютого 2026 року.
Prakash Singh | Bloomberg | Getty Images
Генеральний директор OpenAI Сам Альтман повідомив співробітникам напередодні, що він хотів би, щоб компанія «спробувала допомогти знизити напругу» між конкурентом Anthropic і Міністерством оборони.
«Ми давно вважаємо, що штучний інтелект не повинен використовуватися для масового спостереження або автономної смертоносної зброї, і що люди мають залишатися у процесі прийняття високоризикових автоматичних рішень», — написав Альтман у меморандумі, який переглянула CNBC. «Це наші основні червоні лінії».
Anthropic має до 17:01 за східним часом у п’ятницю визначитися, чи погодиться вона надати Пентагону дозвіл використовувати свої моделі штучного інтелекту у всіх законних випадках без обмежень. Стартап хоче отримати гарантію, що його технології не будуть використані для повністю автономної зброї або внутрішнього масового спостереження за американцями, але Міноборони поки що не поступається.
Внутрішній лист Альтмана у четвер був спрямований на те, щоб показати, що OpenAI поділяє межі Anthropic. Першим про цей меморандум повідомила The Wall Street Journal.
дивитися зараз
ВІДЕО1:4801:48
Anthropic стикається з «проиграшною» боротьбою у протистоянні з Пентагоном
Технології
Перед появою меморандуму Альтмана співробітники OpenAI почали висловлювати підтримку Anthropic у соцмережах. Близько 70 нинішніх співробітників підписали відкритого листа під назвою «Ми не будемо розділені», який має на меті створити «спільне розуміння та солідарність перед цим тиском» з боку департаменту, повідомляє його сайт.
«Що б я не думав про Anthropic, я здебільшого довіряю їм як компанії, і я вважаю, що вони справді піклуються про безпеку, і мені було приємно, що вони підтримують наших військових», — сказав Альтман CNBC у п’ятничному інтерв’ю. «Я не впевнений, куди це все призведе».
Минулого року OpenAI отримала контракт на 200 мільйонів доларів від Міноборони, що дозволило агентству почати використовувати моделі стартапу у не класифікованих випадках. Anthropic стала першою AI-лабораторією, яка інтегрувала свої моделі у робочі процеси на секретних мережах.
Альтман сказав, що він спробує домовитися з Міноборони про використання своїх моделей у секретних середовищах у спосіб, що «відповідає нашим принципам». Компанія планує створити технічні засоби безпеки та залучити персонал для «забезпечення правильного функціонування».
«Ми попросимо контракт охоплювати будь-яке використання, окрім тих, що є незаконними або непридатними для хмарних розгортань, таких як внутрішнє спостереження або автономна наступальна зброя», — написав Альтман.
Альтман зазначив, що у компанії останні дні відбувалися зустрічі з цього питання, і ще не прийнято остаточного рішення щодо подальших дій. Він додав, що у п’ятницю відбудуться додаткові зустрічі з командами безпеки OpenAI.
«Це випадок, коли для мене важливо зробити правильну річ, а не легку, яка здається сильною, але є неправдивою», — написав Альтман. «Я розумію, що це може не виглядати добре для нас у короткостроковій перспективі, і що тут багато нюансів і контексту».
—_ У цій статті також брав участь Кейт Руні з CNBC. _
ДИВІТЬСЯ: OpenAI закриває раунд фінансування на 110 мільярдів доларів за підтримки Amazon, Nvidia, Softbank
дивитися зараз
ВІДЕО0:5300:53
OpenAI закриває раунд фінансування на 110 мільярдів доларів за підтримки Amazon, Nvidia, Softbank
Squawk Box
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
Сем Альтман прагне «зменшити напруженість» у відносинах з Пентагоном, оскільки співробітники OpenAI висловлюють підтримку Anthropic
Сам Альтман, генеральний директор OpenAI Inc., на саміті AI Impact у Нью-Делі, Індія, у четвер, 19 лютого 2026 року.
Prakash Singh | Bloomberg | Getty Images
Генеральний директор OpenAI Сам Альтман повідомив співробітникам напередодні, що він хотів би, щоб компанія «спробувала допомогти знизити напругу» між конкурентом Anthropic і Міністерством оборони.
«Ми давно вважаємо, що штучний інтелект не повинен використовуватися для масового спостереження або автономної смертоносної зброї, і що люди мають залишатися у процесі прийняття високоризикових автоматичних рішень», — написав Альтман у меморандумі, який переглянула CNBC. «Це наші основні червоні лінії».
Anthropic має до 17:01 за східним часом у п’ятницю визначитися, чи погодиться вона надати Пентагону дозвіл використовувати свої моделі штучного інтелекту у всіх законних випадках без обмежень. Стартап хоче отримати гарантію, що його технології не будуть використані для повністю автономної зброї або внутрішнього масового спостереження за американцями, але Міноборони поки що не поступається.
Внутрішній лист Альтмана у четвер був спрямований на те, щоб показати, що OpenAI поділяє межі Anthropic. Першим про цей меморандум повідомила The Wall Street Journal.
дивитися зараз
ВІДЕО1:4801:48
Anthropic стикається з «проиграшною» боротьбою у протистоянні з Пентагоном
Технології
Перед появою меморандуму Альтмана співробітники OpenAI почали висловлювати підтримку Anthropic у соцмережах. Близько 70 нинішніх співробітників підписали відкритого листа під назвою «Ми не будемо розділені», який має на меті створити «спільне розуміння та солідарність перед цим тиском» з боку департаменту, повідомляє його сайт.
«Що б я не думав про Anthropic, я здебільшого довіряю їм як компанії, і я вважаю, що вони справді піклуються про безпеку, і мені було приємно, що вони підтримують наших військових», — сказав Альтман CNBC у п’ятничному інтерв’ю. «Я не впевнений, куди це все призведе».
Минулого року OpenAI отримала контракт на 200 мільйонів доларів від Міноборони, що дозволило агентству почати використовувати моделі стартапу у не класифікованих випадках. Anthropic стала першою AI-лабораторією, яка інтегрувала свої моделі у робочі процеси на секретних мережах.
Альтман сказав, що він спробує домовитися з Міноборони про використання своїх моделей у секретних середовищах у спосіб, що «відповідає нашим принципам». Компанія планує створити технічні засоби безпеки та залучити персонал для «забезпечення правильного функціонування».
«Ми попросимо контракт охоплювати будь-яке використання, окрім тих, що є незаконними або непридатними для хмарних розгортань, таких як внутрішнє спостереження або автономна наступальна зброя», — написав Альтман.
Альтман зазначив, що у компанії останні дні відбувалися зустрічі з цього питання, і ще не прийнято остаточного рішення щодо подальших дій. Він додав, що у п’ятницю відбудуться додаткові зустрічі з командами безпеки OpenAI.
«Це випадок, коли для мене важливо зробити правильну річ, а не легку, яка здається сильною, але є неправдивою», — написав Альтман. «Я розумію, що це може не виглядати добре для нас у короткостроковій перспективі, і що тут багато нюансів і контексту».
—_ У цій статті також брав участь Кейт Руні з CNBC. _
ДИВІТЬСЯ: OpenAI закриває раунд фінансування на 110 мільярдів доларів за підтримки Amazon, Nvidia, Softbank
дивитися зараз
ВІДЕО0:5300:53
OpenAI закриває раунд фінансування на 110 мільярдів доларів за підтримки Amazon, Nvidia, Softbank
Squawk Box