Básico
Spot
Opera con criptomonedas libremente
Margen
Multiplica tus beneficios con el apalancamiento
Convertir e Inversión automática
0 Fees
Opera cualquier volumen sin tarifas ni deslizamiento
ETF
Obtén exposición a posiciones apalancadas de forma sencilla
Trading premercado
Opera nuevos tokens antes de su listado
Contrato
Accede a cientos de contratos perpetuos
TradFi
Oro
Plataforma global de activos tradicionales
Opciones
Hot
Opera con opciones estándar al estilo europeo
Cuenta unificada
Maximiza la eficacia de tu capital
Trading de prueba
Introducción al trading de futuros
Prepárate para operar con futuros
Eventos de futuros
Únete a eventos para ganar recompensas
Trading de prueba
Usa fondos virtuales para probar el trading sin asumir riesgos
Lanzamiento
CandyDrop
Acumula golosinas para ganar airdrops
Launchpool
Staking rápido, ¡gana nuevos tokens con potencial!
HODLer Airdrop
Holdea GT y consigue airdrops enormes gratis
Launchpad
Anticípate a los demás en el próximo gran proyecto de tokens
Puntos Alpha
Opera activos on-chain y recibe airdrops
Puntos de futuros
Gana puntos de futuros y reclama recompensas de airdrop
Inversión
Simple Earn
Genera intereses con los tokens inactivos
Inversión automática
Invierte automáticamente de forma regular
Inversión dual
Aprovecha la volatilidad del mercado
Staking flexible
Gana recompensas con el staking flexible
Préstamo de criptomonedas
0 Fees
Usa tu cripto como garantía y pide otra en préstamo
Centro de préstamos
Centro de préstamos integral
Centro de patrimonio VIP
Planes de aumento patrimonial prémium
Gestión patrimonial privada
Asignación de activos prémium
Quant Fund
Estrategias cuantitativas de alto nivel
Staking
Haz staking de criptomonedas para ganar en productos PoS
Apalancamiento inteligente
Apalancamiento sin liquidación
Acuñación de GUSD
Acuña GUSD y gana rentabilidad de RWA
Empresa china de IA, ¿cómo «copiar la tarea de Claude Code»?
Fuente: Geek Park
Redacción: Hualin Wuwang
Si hace unos días alguien me hubiera dicho que Anthropic, supuestamente “la empresa que más se preocupa por la seguridad de la IA”, filtraría dos veces seguidas secretos centrales en el plazo de una semana, probablemente lo habría tomado por un chiste de Año de los Santos Inocentes.
Pero justo pasó el día anterior al Día de los Santos Inocentes.
El 31 de marzo, el investigador de seguridad Chaofan Shou descubrió que en la versión Claude Code 2.1.88 publicada por Anthropic en npm, había metido un archivo de source map de 59.8MB. Ese archivo que se suponía debía usarse para depuración interna, apuntaba a un paquete zip en el propio bucket de almacenamiento Cloudflare R2 de Anthropic: en su interior estaba el código fuente completo en TypeScript de Claude Code, de unos 1900 archivos y 512,000 líneas de código.
En pocas horas, en GitHub aparecieron varios repositorios espejo. Uno de ellos, un proyecto llamado “claw-code”, se llevó 50,000 estrellas en dos horas, convirtiéndose en el repositorio con más estrellas en la historia de GitHub en el menor tiempo. El número de forks superó las 41,500.
Y justo cinco días antes, Anthropic acababa de filtrar la existencia del modelo de próxima generación “Mythos” debido a una caché de datos pública sin protección: un nuevo modelo descrito internamente como una “mejora escalonada de capacidades”, que en habilidades de ciberseguridad “supera con creces todos los modelos de IA existentes”.
Dos filtraciones en una semana. Una empresa que habla de seguridad recibe el golpe de su propia falta de seguridad. Las valoraciones de la comunidad de desarrolladores fueron bastante unánimes: “Irónicamente, no es real”.
Pero por mucho que sea irónico, lo que se filtró, es material real. El problema más importante ahora es: ¿cómo debería una empresa de IA aprovechar esta “filtración” para copiar tareas?
01 ¿Qué hay dentro de la “cáscara” de Claude Code?
Mucha gente pensó al instante: “Claude Code no es más que una herramienta de línea de comandos que envuelve una API de modelos, ¿y qué si se filtró el código fuente? Sin pesos del modelo, estas líneas de código no son más que una ‘cáscara’”.
Ese juicio acierta a medias. Claude Code sí es una cáscara, pero es una cáscara tan precisa que resulta sorprendente.
Primero, el sistema de herramientas. Claude Code utiliza una arquitectura similar a la de plugins: cada capacidad —lectura/escritura de archivos, ejecución de shell, rastreo web e integración de LSP— es un módulo de herramienta independiente, con control de permisos. Solo la capa de definición de herramientas tiene 29,000 líneas de TypeScript.
La descripción de cada herramienta no es una frase simple, sino tan detallada que le dice al modelo “cuándo debe usar esta herramienta, cómo usarla y qué resultado se espera después de usarla”. Estas descripciones en sí mismas son una forma de prompt engineering cuidadosamente ajustada.
Luego, el sistema de memoria. El código filtrado revela una arquitectura de “memoria de autocorrección” en tres capas. La capa más baja es MEMORY.md: un archivo índice ligero, de aproximadamente 150 caracteres por línea, que siempre se carga en el contexto. El conocimiento específico del proyecto se distribuye en “archivos temáticos” y se carga bajo demanda. Los registros de la conversación original nunca se vuelven a leer completos en el contexto: solo se recuperan, cuando hace falta, mediante grep de identificadores específicos.
Es decir, el problema central que los ingenieros de Anthropic pasaron mucho tiempo resolviendo no era “cómo llamar a la API”, sino “cómo hacer que el modelo trabaje lo más inteligentemente posible dentro de una ventana de contexto limitada”.
Y luego está KAIROS, la parte que entusiasma a todos.
La función, nombrada con la expresión en griego antiguo “el momento oportuno”, se menciona más de 150 veces en el código fuente. Es un patrón de proceso guardián autónomo que permite que Claude Code funcione de manera continua como un proxy en segundo plano siempre activo (always-on). Lo más interesante es su lógica “autoDream”: cuando el usuario está inactivo, el agente realiza “integración de memoria”, fusiona observaciones dispersas, elimina contradicciones lógicas y convierte intuiciones vagas en hechos deterministas.
Dicho de otra manera, Anthropic está evolucionando el asistente de programación con IA desde una herramienta de “pregunta y respuesta” hacia un colaborador que “comprende continuamente tu proyecto y detecta problemas de forma proactiva”.
Además, el código filtrado incluye 44 feature flags que aún no se han lanzado, que cubren modos de coordinación entre múltiples agentes (COORDINATOR MODE), interacción por voz (VOICE_MODE), sesiones de planificación remota de 30 minutos (ULTRAPLAN), e incluso una mascota de terminal estilo topa-karako (BUDDY), con 18 especies y niveles de rareza.
Hay dos detalles más que vale la pena mencionar. Uno es “frustration regex”: una expresión regular para detectar si el usuario está insultando a Claude. Detectar el estado emocional del usuario con una regex es mucho más rápido y barato que usar inferencia del modelo.
El otro es “undercover mode”: Anthropic usa Claude Code para hacer “contribuciones invisibles” a proyectos de código abierto públicos; el prompt del sistema lo dice claramente: “Estás ejecutando en UNDERCOVER MODE… tu información de commit no puede incluir ninguna información interna de Anthropic. No reveles tu identidad”.
02 ¿Qué pueden aprender las empresas de IA de China?
Ahora volvamos al problema verdaderamente importante.
En el último año, el sector de herramientas de programación con IA en China ha acelerado claramente. Trae de ByteDance ya pasó de ser MarsCode en su etapa inicial a convertirse en un IDE nativo de IA, integrado con modo de agente, con soporte para automatizar todo el flujo: desde la comprensión de requisitos hasta la escritura de código y las pruebas. CodeGeeX de Zhipu abre su código y despliegue local, y optimiza en profundidad la comprensión de código en chino. Tongyi Lingma y también Doubao MarsCode están iterando rápido.
Pero si comparas estos productos con la arquitectura filtrada de Claude Code, la brecha no está en “si se puede usar” sino en la finura de la ingeniería.
Primera lección: la descripción de herramientas es poder del producto.
Quizá sea el punto más fácil de pasar por alto y también el más valioso para aprender.
La descripción de prompt de cada herramienta en Claude Code ha sido ajustada con un nivel extremadamente fino: cuándo usarla, cuándo no, qué hacer con los resultados después de usarla, y qué hacer si ocurre un error para reintentar. En esencia, estas descripciones enseñan al modelo “cómo ser un buen programador”.
Muchas herramientas en China todavía se quedan en la etapa de “darle al modelo una firma de función y que adivine cómo usarla”. Con solo escribir la descripción de la herramienta al nivel de Claude Code, el rendimiento del mismo modelo puede mejorar en un escalón.
Segunda lección: la arquitectura de memoria, más que los parámetros del modelo, influye en la experiencia del usuario.
El sistema de memoria en tres capas de Claude Code resuelve un problema muy real: la ventana de contexto del modelo es limitada y no puedes meter todas las conversaciones históricas dentro.
El enfoque de Anthropic es dividir la memoria por capas: los datos calientes siempre están en línea, los datos tibios se cargan bajo demanda, y los datos fríos solo se indexan. Esta idea no es nueva, pero en las herramientas de programación con IA, la implementación de ingeniería de los equipos nacionales en su mayoría todavía no llega a esa precisión.
Tercera lección: la percepción de emociones no es magia, es un problema de ingeniería.
Detectar si el usuario se está enojando con una expresión regular y luego ajustar la estrategia de respuesta.
Esta propuesta es tan simple como contundente, pero es extremadamente útil. Te dice una lección: un buen producto de IA no necesita resolver cada problema usando un modelo; a veces una regex basta.
Los equipos que hacen herramientas de IA en China a menudo caen en la inercia mental de “entregar todos los problemas al gran modelo”. Es un desperdicio.
Cuarta lección: la dirección que marca KAIROS es más importante que KAIROS en sí.
Un agente en segundo plano always-on que, cuando el usuario no lo usa, organiza memoria y detecta problemas automáticamente.
Esta dirección de producto significa que el siguiente paso del asistente de programación con IA no es “responder más rápido las preguntas”, sino “ya estar trabajando cuando aún no has hecho preguntas”.
Actualmente, casi todas las herramientas de programación con IA en China son reactivas: el usuario emite instrucciones y la herramienta las ejecuta.
Quien primero logre implementar el modo de proceso guardián, tiene más probabilidades de definir la forma del próximo producto.
03 ¿Dónde está el límite del “copiar”?
Por supuesto, hay una línea entre aprender y copiar.
En el plano legal, esto no es código abierto, sino software comercial filtrado accidentalmente. Construir directamente un producto basado en el código filtrado conlleva riesgos claros de derechos de autor. En GitHub, “claw-code” afirma que reescribirá en Rust, pero si la lógica central se copia tal cual, el límite legal sigue siendo ambiguo.
Para las empresas chinas, en un contexto donde la presión por salir al exterior es cada vez mayor, este riesgo debe evaluarse en serio.
En el plano técnico, muchas decisiones de diseño de Claude Code están hechas a medida para las capacidades de los modelos de Claude. Por ejemplo, la descripción de sus herramientas está escrita tan larga y tan detallada porque la capacidad de Claude para manejar contextos largos es lo suficientemente fuerte como para no “despistarse” por tener prompts del sistema demasiado extensos. Si se traslada a un modelo con ventana de contexto corta y menor capacidad de seguir instrucciones, copiar la misma estrategia de prompts podría salir mal.
La forma verdaderamente inteligente no es hacer fork de esas 512,000 líneas de código, sino entender cada decisión de diseño y los tradeoffs detrás, y luego reimplementarlo según las características de tu propio modelo.
La idea de arquitectura se puede aprender, el modo de orquestación de herramientas se puede aprender, la estrategia de capas de memoria se puede aprender… pero la implementación debe ser propia.
Hay otra realidad fácil de pasar por alto: lo que Anthropic filtró fue una instantánea, y su equipo de ingeniería itera todos los días. Que existan 44 feature flags significa que al menos una docena de funciones importantes están esperando para salir.
El código que haces fork hoy, el próximo mes es la versión vieja. Seguir copiando, siempre no podrás alcanzar; solo entendiendo los principios podrás correr tu propia ruta.
El significado más grande de esta filtración quizá no esté tanto en los detalles técnicos, sino en que arrancó una capa de misterio: en el fondo, la herramienta de programación con IA más central de Anthropic tampoco tiene magia negra; debajo es solo una orquestación de prompts meticulosamente diseñada, más una gestión de herramientas desde la ingeniería.
No hay magia, solo mucho trabajo de pulido en los detalles.
Para las empresas de IA de China, en realidad es una buena noticia. Significa que la brecha se puede cerrar. La condición es que tengas paciencia para pulir esos detalles, y no que pienses en tomar el código de otra persona, cambiarle el nombre y ya.