Según la monitorización de 1M AI News, el fundador de DeepLearning.AI y profesor adjunto en la Universidad de Stanford, Andrew Ng, lanzó hace dos semanas el servicio de documentación de programación AI Context Hub, que fue expuesto por investigadores de seguridad como vulnerable a ataques en la cadena de suministro. Context Hub proporciona documentación API a través del servidor MCP al agente de programación, los contribuyentes envían documentos mediante PR en GitHub, y los mantenedores los fusionan para que el agente los lea según sea necesario. Mickey Shmueli, creador del servicio alternativo lap.sh, publicó una prueba de concepto (PoC) de ataque, señalando que esta línea de producción “no tiene revisión de contenido en ninguna etapa”.
Shmueli creó dos documentos falsos dirigidos a Plaid Link y Stripe Checkout, cada uno con un paquete PyPI falso, probando con modelos de tres niveles de Anthropic 40 veces:
El atacante solo necesita enviar un PR que sea fusionado para completar el envenenamiento, con un umbral de revisión bajo: de 97 PR cerrados, 58 fueron fusionados. Shmueli señala que esto es esencialmente una variante de inyección de indicaciones indirectas, ya que los modelos de IA no pueden distinguir de manera confiable entre datos e instrucciones al procesar contenido, y otros servicios comunitarios de documentación también carecen de una revisión adecuada del contenido. Andrew Ng no ha respondido a las solicitudes de comentarios.