ゲートニュース。2026年、イーサリアムの共同創業者であるVitalik Buterinが、注目のAI開発ツールOpenClawに対してセキュリティ上の警告を出し、外部データの取り扱いにおいて重大な脆弱性が存在する可能性があると指摘した。ユーザーは、気づかないうちにデータが漏えいしたり、システムが遠隔操作されたりする恐れがある。AIエージェントのアプリケーションが普及するにつれ、この問題は開発者とセキュリティコミュニティから大きな注目を集めている。
開示された情報によれば、リスクの核心は、OpenClawがWebページの内容を読み取る際に、隠れた指示を実行してしまう可能性にある。攻撃者は悪意のあるページを細工することで、AIエージェントが自動的にダウンロードしてスクリプトを実行するよう誘導でき、その結果としてローカルデータの窃取やシステム設定の改ざんが可能になる。いくつかの事例では、ツールが「curl」などのコマンドを使って、機微情報を外部サーバーへひそかに送信しており、プロセス全体に通知や監査の仕組みが欠けていた。
セキュリティ研究ではさらに、このエコシステムのリスクには一定の普遍性があることが示されている。テストでは、約15%の「スキル」(プラグインのようなモジュール)に潜在的な悪意あるロジックが含まれていることが分かった。これは、出どころが一見信頼できるように見えても、攻撃の入口になり得ることを意味する。開発者が機能モジュールを素早く共有する一方で、セキュリティ審査が追いつかず問題がますます目立つ。ユーザーが複数のスキルを重ねてインストールすると、露出面は大幅に拡大する。
Vitalik Buterinは同時に、これは単一のツールの問題ではなく、AI業界全般に普遍的に存在する構造的な脆弱性だと強調した。機能の反復速度が、安全なガバナンス能力をはるかに上回っているという。彼は、ローカルでモデルを実行すること、権限の分離、サンドボックス実行、重要な操作に対する承認メカニズムを通じて、データ流出やシステムの乗っ取りリスクを低減するよう提案している。
AIエージェントが開発や日常のシーンに徐々に浸透していく中で、安全性は中核となる変数だ。ユーザーにとっては、出どころが不明なプラグインは避け、権限要求を厳格に精査すべきである。開発者にとっては、より包括的なセキュリティの枠組みを構築することが、長期的な競争力の一部になるはずだ。