Une inquiétude déclenchée par un homard : l'anxiété des agents IA derrière la montée en flèche d'OpenClaw

Écriture : Deng Tong, Jinse Finance

Au printemps 2026, il n’y a pas que les guerres au Moyen-Orient et la flambée des prix du pétrole, mais aussi un homard qui secoue la scène AI.

Le 24 janvier, Openclaw a été en tête de la page d’accueil de Hacker News et a atteint la première place du classement, marquant un tournant dans son succès fulgurant. Le 30 janvier, OpenClaw a finalisé son branding, adopté un nom officiel et un logo de homard rouge. En février et mars, de grandes entreprises nationales ont déployé en un clic, avec des files d’attente pour l’expérience en ligne, le sujet a fait le buzz sur tout le web, et OpenClaw est devenu un phénomène viral.

Mais alors que le homard connaît un succès immense, des inquiétudes ont émergé concernant sa sécurité. Passant de « l’élevage de homards » à « leur élimination », l’opinion publique a rapidement changé, et les débats sur les limites de l’intelligence artificielle et la sécurité ont commencé…

  1. De « l’élevage de homards » à « leur élimination »

OpenClaw est essentiellement un cadre open source pour agents IA, initialement développé par le programmeur autrichien Peter Steinberger. Il permet aux utilisateurs de créer un « agent autonome » capable d’appeler de grands modèles, d’accéder au système de fichiers, de se connecter à des applications externes et d’exécuter des tâches.

Contrairement aux chatbots traditionnels, OpenClaw n’est pas simplement une IA de questions-réponses, mais un assistant IA capable d’effectuer des opérations concrètes.

De nombreuses entreprises technologiques ont commencé à construire des applications basées sur OpenClaw, et certaines villes ont même lancé des politiques de subventions pour attirer des projets innovants :

  • Le parc high-tech de Wuxi a publié un projet de mesures pour soutenir la fusion des communautés open source comme OpenClaw avec la communauté OPC, comprenant 12 mesures allant du soutien de base à l’intégration industrielle, du recrutement de talents à la conformité sécuritaire, avec un soutien maximal de 5 millions de yuans. Les plateformes cloud locales offrant des outils de déploiement et de développement gratuits peuvent bénéficier d’une subvention totale pouvant atteindre 1 million de yuans.

  • Le parc high-tech de Hefei a publié un « Plan d’action pour la création d’un écosystème entrepreneurial en IA OPC » avec 15 mesures concrètes pour soutenir la mise en œuvre de projets open source comme OpenClaw, visant à établir un nouveau modèle d’entreprise « IA + super individu / société unipersonnelle (OPC) ». Hefei offre un « pack » comprenant espace, talents, puissance de calcul, scénarios et capital, avec un soutien financier pouvant atteindre 10 millions de yuans.

  • Les districts de Qixia et Jiangning à Nanjing ont lancé des politiques de soutien spécifiques pour OPC×OpenClaw. Qixia a publié un document proposant des mesures pour soutenir le développement de l’intégration d’OpenClaw avec d’autres outils IA open source, offrant des ressources de calcul gratuites et des subventions pour l’utilisation d’API de grands modèles nationaux, avec des options de location flexible à l’heure ou à la journée. La communauté OPC « Zijing Star » dans la zone de développement de Jiangning propose une politique spéciale « Six Homards » : subventions jusqu’à 30 % du montant des contrats de puissance de calcul, avec un plafond annuel de 2 millions de yuans par utilisateur.

Pendant un temps, « élever un homard » est même devenu une nouvelle tendance dans le monde de l’IA.

Mais cette période de succès a été de courte durée, car les risques liés aux homards ont rapidement attiré l’attention.

De nombreux utilisateurs ont accidentellement exposé leurs interfaces de contrôle directement sur Internet lors du déploiement. OpenClaw, par défaut, fournit un service de contrôle via le port 18789. Sans une authentification stricte, tout scanner réseau peut localiser facilement cette interface. Si un attaquant s’y connecte, il peut prendre le contrôle d’un agent IA avec les privilèges système les plus élevés. Un outil censé vous faciliter la vie peut alors devenir un tremplin pour contrôler votre ordinateur ou serveur.

Le 10 mars, Zhou Hongyi a évoqué sur son compte personnel les risques et l’évolution de l’ère IA, déclarant : « Élever un OpenClaw comporte aussi des problèmes de sécurité des données, parfois il hallucine et peut supprimer tous les fichiers du disque C de votre ordinateur. » Il a aussi souligné que la majorité des grands modèles déployés par les entreprises en ce moment en sont encore au stade de « chatbot », loin d’être des agents capables de « faire le boulot » efficacement. La mise en œuvre d’IA en entreprise nécessite des talents polyvalents, à la fois techniques et commerciaux.

Le 11 mars, la plateforme de partage d’informations sur les menaces et vulnérabilités du ministère de l’Industrie et des Technologies de l’Information (NVDB) a proposé une série de recommandations, notamment « six choses à faire » et « six choses à éviter ». Elle a souligné que dans les scénarios de transactions financières, il existe un risque élevé d’erreurs de transaction ou de prise de contrôle des comptes. Les stratégies recommandées incluent l’isolation réseau, la réduction des permissions, la mise en place de mécanismes de vérification manuelle et de coupure d’urgence, la vérification régulière des composants, l’utilisation de composants officiels, la surveillance de toute la chaîne et la détection proactive des risques.

Un mainteneur d’OpenClaw, Shadow, a averti sur Discord : « Si tu ne sais même pas utiliser la ligne de commande, ce projet est trop dangereux pour toi, il n’est pas sûr à utiliser. »

Une recherche rapide en ligne montre diverses « guides pour tuer le homard », avec des expressions comme « déterrer » ou « résidus de homard », sous la menace de risques de sécurité. La transition rapide de « l’élevage » à « l’élimination » reflète l’état d’esprit changeant face aux dangers.

  1. Les problèmes d’OpenClaw

  2. Permissions excessives et fuite d’informations

OpenClaw nécessite l’accès à de nombreuses permissions sensibles, telles que les emails, fichiers locaux, clés API, données d’entreprise. Une mauvaise configuration peut entraîner de grands risques. L’agent peut supprimer ou modifier des fichiers, appeler des API payantes, envoyer des emails automatiquement, accéder à des données internes. Des chercheurs en sécurité ont identifié un logiciel malveillant appelé « vol d’informations » qui copie les fichiers d’installation connectant OpenClaw à des services comme email ou autres. Si un attaquant obtient ces informations, il peut prendre le contrôle total de l’agent.

Beaucoup d’utilisateurs connectent OpenClaw à des données d’entreprise ou personnelles, ce qui augmente le risque de fuite d’informations.

  1. Coût élevé

OpenClaw est gratuit et open source, mais il ne fournit pas de modèles intégrés. Il se connecte à des modèles linguistiques externes fournis par OpenAI, Anthropic, Google, etc. Chaque requête IA génère des coûts. Chaque interaction, automatisation ou décision déclenche un appel API à l’un de ces grands modèles, consommant des frais.

Le coût mensuel d’utilisation d’OpenClaw varie entre environ 6 et plus de 200 dollars, selon la configuration et l’intensité d’utilisation.

Plus précisément, le coût total dépend des ressources VPS, du type de modèle connecté, de la fréquence d’automatisation et de l’ampleur du flux de travail. La plupart des utilisateurs individuels dépensent entre 6 et 13 dollars par mois, les petites équipes entre 25 et 50 dollars, les équipes moyennes ou à grande échelle entre 50 et 100 dollars, et si l’automatisation est très poussée avec des milliers d’interactions quotidiennes, cela peut dépasser 100 dollars par mois.

  1. Manque d’audit de sécurité

Les employés déploient OpenClaw via une simple commande d’installation, sans approbation ni audit de sécurité. Le centre opérationnel de sécurité (SOC) ne peut pas surveiller. C’est la forme la plus dangereuse d’« intelligence artificielle fantôme ». Selon une étude, 63 % des organisations ayant subi des vulnérabilités liées à l’IA n’ont pas de politique de gouvernance IA. Cela signifie que les centres de sécurité ne peuvent pas surveiller ces agents. En cas d’attaque ou de mauvaise configuration, ils deviennent des vulnérabilités potentielles dans le réseau de l’entreprise.

  1. Hallucinations

Contrairement aux chatbots classiques, les agents IA peuvent exécuter des tâches automatiquement. Des études montrent qu’ils sont plus sujets à des « raisonnements circulaires » dans des tâches complexes. Si un agent hallucine, cela peut entraîner des boucles infinies, des appels API excessifs, des erreurs automatiques, ou une surcharge des ressources serveur.

  1. Réflexions suscitées par un homard

OpenClaw est le premier homard à sortir du lot dans la vague de l’IA. Malgré ses nombreux problèmes, il représente l’avenir de l’intelligence artificielle.

Ces dernières années, la vague IA a été alimentée par ChatGPT, centrée sur la conversation et la génération de contenu ; puis par l’ère Copilot, axée sur l’assistance au travail ; aujourd’hui par l’ère des agents IA autonomes. Avec OpenClaw, l’IA peut réaliser une série d’étapes complexes : comprendre la tâche, décomposer l’objectif, appeler des outils, intégrer des informations, et enfin accomplir la mission. L’utilisateur n’a plus qu’à décrire l’objectif, l’IA se charge de décomposer et d’appeler les outils. Bien que cela comporte des risques, c’est aussi une nouvelle étape dans l’interaction homme-machine et la révolution IA.

Contrairement aux logiciels IA traditionnels, les agents IA ont une autonomie accrue lors de l’exécution des tâches. Si le système est attaqué, mal configuré ou hallucine, cela peut entraîner des erreurs ou des risques pour la sécurité. C’est pourquoi, tout en étant très populaire, OpenClaw a aussi suscité de nombreux débats sur la sécurité et la gouvernance.

Les inquiétudes de sécurité sont temporaires ; le développement et l’amélioration des agents IA sont inévitables. Comme après le lancement de ChatGPT, qui a vu émerger de nombreux logiciels de conversation et de génération de contenu, après OpenClaw, une multitude d’agents IA apparaîtront.

À l’avenir, nous pourrions vivre dans une ère où chacun « élève un homard ». Bien que le homard soit délicieux, il faut d’abord apprendre à ne pas se faire piquer en profitant de la fête de l’IA.

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler