13 квітня дослідники Каліфорнійського університету виявили, що деякі маршрутизатори великих мовних моделей (LLM) сторонніх AI можуть мати вразливості безпеки, що призводить до крадіжки криптоактивів.



Дослідники опублікували у четвер статтю, в якій виміряли зловмисні атаки посередника у ланцюжку постачання LLM, викриваючи чотири вектори атак, включаючи ін'єкцію шкідливого коду та витяг облікових даних.

Співавтор статті Chaofan Shou у Twitter зазначив: «26 маршрутизаторів LLM приховано інжектують шкідливі виклики інструментів і крадуть облікові дані.»

Наразі все більше інтелектуальних агентів LLM передають запити через сторонні API або маршрутизатори, які агрегують доступ до сервісів таких провайдерів, як OpenAI, Anthropic і Google. Однак ці маршрутизатори переривають TLS-з'єднання з Інтернетом, що дозволяє отримувати доступ до всіх повідомлень у відкритому вигляді.

Це означає, що розробники, які використовують AI-кодуючі проксі (наприклад, Claude Code) для створення смарт-контрактів або гаманців, можуть непомітно передавати приватні ключі, мнемонічні фрази та інші чутливі дані до інфраструктури маршрутизаторів, які ще не пройшли безпечний аудит або захист.
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
Додати коментар
Додати коментар
Немає коментарів
  • Популярні активності Gate Fun

    Дізнатися більше
  • Рин. кап.:$2.28KХолдери:1
    0.00%
  • Рин. кап.:$2.28KХолдери:1
    0.00%
  • Рин. кап.:$2.28KХолдери:1
    0.00%
  • Рин. кап.:$2.27KХолдери:0
    0.00%
  • Рин. кап.:$2.27KХолдери:0
    0.00%
  • Закріпити