OpenAI повідомила, що обліковий запис ChatGPT, пов’язаний із особами, які мають зв’язки з китайською правоохоронною системою, був використаний у багатогранній кібератаці та операції впливу, згідно з останнім звітом про загрози щодо зловживання штучним інтелектом. Цей обліковий запис використовувався для складання чернеток, планування та документування діяльності, що включала онлайн-цькування, таємні кампанії впливу та оперативну координацію на сотнях платформ, що змусило OpenAI заблокувати пов’язаний з ним обліковий запис і підкреслити, як інструменти штучного інтелекту зловживають для підтримки складних шкідливих процесів.
Звіти компанії з розвідки загроз показують, що хоча ChatGPT не використовувався безпосередньо для написання коду для мережевих вторгнень або створення експлойтів, він відігравав ключову роль у створенні наративів, вдосконаленні пропаганди та відстеженні стану поширених операцій, спрямованих проти критиків китайського уряду. Дослідники OpenAI зіставили чернетки та «звітні ситуації», створені на ChatGPT, із реальними діями у соціальних мережах, блогах та інших онлайн-просторах, що доводить інтеграцію моделі у ширші кібератаки та кампанії впливу.
Звіт OpenAI підкреслює змінюваний ландшафт зловживань штучним інтелектом, де зловмисники поєднують генеративні інструменти із традиційними кібертехніками та інфраструктурою соціальних мереж. У одному з прикладів, заборонений обліковий запис використовувався для складання детальних журналів, які внутрішньо називалися «кіберспеціальні операції», включаючи спроби залякування дисидентів за кордоном та фальсифікацію новин про їхню смерть. Ці повідомлення потім поширювалися через скоординовані акаунти на кількох цифрових платформах, посилюючи дезінформацію та цькування.
Хоча зловживання AI у цьому контексті не включали автономне використання систем, експерти з безпеки зазначають, що поєднання генеративних моделей із скоординованими онлайн-операціями впливу є значним зсувом у способах проведення кібер- та психологічних операцій. Техніки, задокументовані у звіті OpenAI, свідчать про зростаючу складність у створенні наративів і відстеженні кампаній, особливо з урахуванням того, що зловмисники все частіше використовують AI для підвищення масштабу та точності.
Дивіться також: Як безкодові AI-агенти дозволяють малому бізнесу масштабуватися у MENA
Випадок, пов’язаний із китайською правоохоронною системою, є частиною ширшої тенденції зловживання AI моделями державними акторами для шкідливих цілей. Попередні розвідувальні звіти описували операції, де великі мовні моделі використовувалися для створення багатомовних фішингових повідомлень, шаблонів шкідливого програмного забезпечення та цілеспрямованих фішингових кампаній, що націлювалися на організації в Північній Америці, Європі та Азії. Одна група, яку дослідники позначили як UTA0388, нібито використовувала генеративний AI для створення високонастроєних фішингових листів кількома мовами, масштабуючи атаки, що поєднували тактики встановлення довіри з шкідливими компонентами.
Інші групи загроз, виявлені в попередніх аналізах галузі, показують, що зловживання не обмежується однією географією або типом актора; російські та північнокорейські зловмисники також використовували генеративний AI для вдосконалення шкідливого коду, складання фішингових пасток і створення фальшивих особистостей для соціальної інженерії. Наприклад, північнокорейські оператори використовували ChatGPT для створення deepfake військових посвідчень, вбудованих у фішингові кампанії, спрямовані на оборонні установи, тоді як російські групи вдосконалювали malware для Windows за допомогою AI.
Звіт OpenAI наголошує, що активність з використанням AI рідко обмежується однією платформою або інструментом. Зловмисники часто використовують кілька моделей AI і цифрових сервісів на різних етапах своїх процесів, поєднуючи генеративний текст із автоматизованими скриптами, соціальними акаунтами та спеціальним шкідливим програмним забезпеченням. Такий інтегрований підхід може посилити охоплення та вплив операцій впливу, шахрайств і кібератак, навіть якщо сама генеративна модель не виконує безпосередньо технічні експлойти.
Ініціатива компанії з розвідки загроз, яка триває понад два роки, має на меті висвітлити ці нові тактики та підтримати ширші зусилля щодо виявлення й зменшення зловживань AI. Документуючи кейси та ділячись інсайтами, OpenAI прагне допомогти галузевим партнерам і ширшій спільноті безпеки адаптуватися до еволюції способів використання штучного інтелекту зловмисниками. У звіті наголошується, що хоча зловживання моделями є однією з частин більшої системи загроз, розуміння поведінкових патернів і операційних процесів є критичним для зміцнення захисту в інтернеті.
Експерти зазначають, що зловживання генеративними моделями для впливу та кібероперацій відображає ширший тренд у сфері загроз, де зростає складність соціальної інженерії та наративних атак. Академічні дослідження щодо генеративних мовних моделей давно попереджали, що ці інструменти можуть автоматизувати створення переконливого, оманливого тексту для операцій впливу, і результати OpenAI демонструють, як цими можливостями користуються цілеспрямовані зловмисники.
Виникла проблема?
Арабська пошта прагне надавати найточнішу та найнадійнішу інформацію своїм читачам. Якщо ви вважаєте, що в цій статті допущена помилка або непослідовність, будь ласка, не соромтеся зв’язатися з нашою редакційною командою за адресою editor[at]thearabianpost[dot]com. Ми прагнемо швидко реагувати на будь-які зауваження та підтримувати найвищі стандарти журналістської чесності.
MENAFN27022026000152002308ID1110797831
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
Openai повідомляє про використання Chatgpt, пов'язане з Китаєм, у кібератаках Arabian Post
(MENAFN- Арабська пошта)
OpenAI повідомила, що обліковий запис ChatGPT, пов’язаний із особами, які мають зв’язки з китайською правоохоронною системою, був використаний у багатогранній кібератаці та операції впливу, згідно з останнім звітом про загрози щодо зловживання штучним інтелектом. Цей обліковий запис використовувався для складання чернеток, планування та документування діяльності, що включала онлайн-цькування, таємні кампанії впливу та оперативну координацію на сотнях платформ, що змусило OpenAI заблокувати пов’язаний з ним обліковий запис і підкреслити, як інструменти штучного інтелекту зловживають для підтримки складних шкідливих процесів.
Звіти компанії з розвідки загроз показують, що хоча ChatGPT не використовувався безпосередньо для написання коду для мережевих вторгнень або створення експлойтів, він відігравав ключову роль у створенні наративів, вдосконаленні пропаганди та відстеженні стану поширених операцій, спрямованих проти критиків китайського уряду. Дослідники OpenAI зіставили чернетки та «звітні ситуації», створені на ChatGPT, із реальними діями у соціальних мережах, блогах та інших онлайн-просторах, що доводить інтеграцію моделі у ширші кібератаки та кампанії впливу.
Звіт OpenAI підкреслює змінюваний ландшафт зловживань штучним інтелектом, де зловмисники поєднують генеративні інструменти із традиційними кібертехніками та інфраструктурою соціальних мереж. У одному з прикладів, заборонений обліковий запис використовувався для складання детальних журналів, які внутрішньо називалися «кіберспеціальні операції», включаючи спроби залякування дисидентів за кордоном та фальсифікацію новин про їхню смерть. Ці повідомлення потім поширювалися через скоординовані акаунти на кількох цифрових платформах, посилюючи дезінформацію та цькування.
Хоча зловживання AI у цьому контексті не включали автономне використання систем, експерти з безпеки зазначають, що поєднання генеративних моделей із скоординованими онлайн-операціями впливу є значним зсувом у способах проведення кібер- та психологічних операцій. Техніки, задокументовані у звіті OpenAI, свідчать про зростаючу складність у створенні наративів і відстеженні кампаній, особливо з урахуванням того, що зловмисники все частіше використовують AI для підвищення масштабу та точності.
Дивіться також: Як безкодові AI-агенти дозволяють малому бізнесу масштабуватися у MENA
Випадок, пов’язаний із китайською правоохоронною системою, є частиною ширшої тенденції зловживання AI моделями державними акторами для шкідливих цілей. Попередні розвідувальні звіти описували операції, де великі мовні моделі використовувалися для створення багатомовних фішингових повідомлень, шаблонів шкідливого програмного забезпечення та цілеспрямованих фішингових кампаній, що націлювалися на організації в Північній Америці, Європі та Азії. Одна група, яку дослідники позначили як UTA0388, нібито використовувала генеративний AI для створення високонастроєних фішингових листів кількома мовами, масштабуючи атаки, що поєднували тактики встановлення довіри з шкідливими компонентами.
Інші групи загроз, виявлені в попередніх аналізах галузі, показують, що зловживання не обмежується однією географією або типом актора; російські та північнокорейські зловмисники також використовували генеративний AI для вдосконалення шкідливого коду, складання фішингових пасток і створення фальшивих особистостей для соціальної інженерії. Наприклад, північнокорейські оператори використовували ChatGPT для створення deepfake військових посвідчень, вбудованих у фішингові кампанії, спрямовані на оборонні установи, тоді як російські групи вдосконалювали malware для Windows за допомогою AI.
Звіт OpenAI наголошує, що активність з використанням AI рідко обмежується однією платформою або інструментом. Зловмисники часто використовують кілька моделей AI і цифрових сервісів на різних етапах своїх процесів, поєднуючи генеративний текст із автоматизованими скриптами, соціальними акаунтами та спеціальним шкідливим програмним забезпеченням. Такий інтегрований підхід може посилити охоплення та вплив операцій впливу, шахрайств і кібератак, навіть якщо сама генеративна модель не виконує безпосередньо технічні експлойти.
Ініціатива компанії з розвідки загроз, яка триває понад два роки, має на меті висвітлити ці нові тактики та підтримати ширші зусилля щодо виявлення й зменшення зловживань AI. Документуючи кейси та ділячись інсайтами, OpenAI прагне допомогти галузевим партнерам і ширшій спільноті безпеки адаптуватися до еволюції способів використання штучного інтелекту зловмисниками. У звіті наголошується, що хоча зловживання моделями є однією з частин більшої системи загроз, розуміння поведінкових патернів і операційних процесів є критичним для зміцнення захисту в інтернеті.
Дивіться також: Alexa впроваджує налаштовувані AI-персоналії
Експерти зазначають, що зловживання генеративними моделями для впливу та кібероперацій відображає ширший тренд у сфері загроз, де зростає складність соціальної інженерії та наративних атак. Академічні дослідження щодо генеративних мовних моделей давно попереджали, що ці інструменти можуть автоматизувати створення переконливого, оманливого тексту для операцій впливу, і результати OpenAI демонструють, як цими можливостями користуються цілеспрямовані зловмисники.
Виникла проблема? Арабська пошта прагне надавати найточнішу та найнадійнішу інформацію своїм читачам. Якщо ви вважаєте, що в цій статті допущена помилка або непослідовність, будь ласка, не соромтеся зв’язатися з нашою редакційною командою за адресою editor[at]thearabianpost[dot]com. Ми прагнемо швидко реагувати на будь-які зауваження та підтримувати найвищі стандарти журналістської чесності.
MENAFN27022026000152002308ID1110797831