Согласно отчету Webmaster's House от 25 октября, исследователи из Университета Шеффилда в Соединенном Королевстве недавно опубликовали исследование, показывающее, что инструментами искусственного интеллекта, включая ChatGPT, можно манипулировать для создания вредоносного кода, который может быть использован для запуска кибератак. Исследование является первым, демонстрирующим потенциальную опасность систем text-to-SQL, систем искусственного интеллекта, которые позволяют людям задавать вопросы простым языком для поиска в базах данных, широко используемых в широком спектре отраслей. Исследования показали, что эти инструменты искусственного интеллекта имеют уязвимости в системе безопасности, и когда исследователи задают конкретные вопросы, они генерируют вредоносный код. После выполнения эти коды могут раскрыть конфиденциальную информацию базы данных, прервать нормальную работу службы базы данных или даже уничтожить базу данных. ИССЛЕДОВАТЕЛЬСКАЯ ГРУППА УСПЕШНО АТАКОВАЛА ШЕСТЬ ИНСТРУМЕНТОВ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА ДЛЯ БИЗНЕСА, В ТОМ ЧИСЛЕ НАШУМЕВШИЙ BAIDU-UNIT, КОТОРЫЙ ШИРОКО ИСПОЛЬЗУЕТСЯ ВО МНОГИХ ОБЛАСТЯХ, ТАКИХ КАК ЭЛЕКТРОННАЯ КОММЕРЦИЯ, БАНКОВСКОЕ ДЕЛО, ЖУРНАЛИСТИКА, ТЕЛЕКОММУНИКАЦИИ, АВТОМОБИЛЕСТРОЕНИЕ И ГРАЖДАНСКАЯ АВИАЦИЯ. Кроме того, исследование выявило возможный метод атаки бэкдора путем внедрения «троянов» в модели преобразования текста в SQL путем загрязнения обучающих данных. Эта атака бэкдора обычно не оказывает общего влияния на производительность модели, но может сработать в любой момент, причинив реальный вред любому, кто ее использует.