Resultados de la búsqueda para "LLM"
2026-03-17
13:08

Tether lanza el marco BitNet LoRA, que soporta el entrenamiento de grandes modelos en dispositivos móviles

Noticia de Gate News: El 17 de marzo, QVAC Fabric, subsidiaria de Tether, lanzó el primer marco de microajuste LoRA multiplataforma a nivel mundial dirigido a BitNet de Microsoft (LLM de un bit), reduciendo significativamente los umbrales de memoria de video y poder de cómputo para el entrenamiento de grandes modelos. El marco admite microajuste LoRA e aceleración de inferencia en Intel, AMD, Apple Silicon serie M y GPU móviles (incluyendo Adreno, Mali y Apple Bionic).
Más
07:09

El cofundador de Sentry cuestiona que LLM ralentiza la velocidad de desarrollo, afirma que OpenClaw genera demasiado código y es difícil de salvarse

David Cramer, cofundador de Sentry, expresó que los grandes modelos de lenguaje no han mejorado la productividad, sino que han generado código más complejo que ralentiza la velocidad de desarrollo. Cuestiona el enfoque de generación automática de código, argumentando que la calidad de los resultados es deficiente, especialmente en el desarrollo incremental y la consistencia de estilo. Señala basándose en su experiencia personal que la construcción de software sigue siendo difícil, y que los cambios psicológicos han afectado sus contribuciones.
Más
11:02

El Instituto de Tecnología de la Información y las Comunicaciones de China, en colaboración con universidades, descubrió y corrigió la vulnerabilidad crítica de inyección de comandos OpenClaw

El Instituto de Telecomunicaciones de China (CAICT) y equipos universitarios descubrieron una vulnerabilidad de inyección de comandos impulsada por LLM en el módulo bash-tools del marco de código abierto OpenClaw durante su auditoría. Los atacantes pueden ejecutar comandos remotos inducidos para realizar ataques de ejecución de código remoto y robo de datos. Se ha iniciado el proceso de divulgación de vulnerabilidades y se han presentado recomendaciones de corrección.
Más
09:32

Cofundador de AMI Labs Xie Saining: Los LLM son hasta cierto punto «anti-Bitter Lesson», el modelo del mundo es el futuro

Xie Saining criticó en una entrevista la actual línea de desarrollo de IA dominada por grandes modelos de lenguaje, argumentando que limita el aprendizaje de la IA sobre el mundo real, y enfatizó las ventajas de los modelos del mundo. Él cree que crear agentes inteligentes capaces de sobrevivir en la realidad es más desafiante, mencionando que AMII Labs se enfoca en la recopilación de datos reales e planea lanzar gafas inteligentes de IA y robots en el futuro.
Más
06:07

Subred de Bittensor completó el preentrenamiento de LLM con 72 mil millones de parámetros, TAO subió 54.8% en las últimas dos semanas

La subred Bittensor Templar completó el preentrenamiento del modelo de lenguaje descentralizado Covenant-72B de 72 mil millones de parámetros el 10 de marzo. El modelo mostró un desempeño excepcional en la prueba MMLU, superando múltiples modelos de línea base centralizados. El proyecto atrajo la colaboración de más de 70 nodos, y todos los pesos y puntos de control se han publicado bajo la licencia Apache. Impactado por esta noticia, Bittensor y su token experimentaron aumentos generalizados.
Más
TAO-4,6%
03:37

ETH Zurich prueba la capacidad de consenso de blockchain de AI Agent en la vida real: tasa de éxito solo del 41.6%

El equipo de investigación de la ETH Zurich probó la capacidad de consenso bizantino del Agente LLM, y descubrió que incluso sin nodos maliciosos, la tasa de consenso efectiva es solo del 41.6%. A medida que aumentan los nodos, la dificultad para alcanzar un acuerdo se incrementa, y la situación empeora aún más con la incorporación de nodos maliciosos. La conclusión del estudio señala que, en su estado actual, el Agente LLM no es confiable en términos de consenso fiable, y la implementación descentralizada debe abordarse con precaución.
Más
ETH-6,34%
03:07

Andrej Karpathy abre el proyecto de investigación automática de código abierto, que permite que la IA ejecute automáticamente cien veces experimentos de entrenamiento de LLM

El fundador de Eureka Labs, Andrej Karpathy, lanzó el 8 de marzo el proyecto de código abierto autoresearch, que adopta el modelo de "humano escribe Markdown, IA escribe código". Permite a los desarrolladores definir las direcciones de investigación a través de program.md y que la IA optimice el código de forma autónoma. Se pueden realizar aproximadamente 12 experimentos por hora, y en 83 experimentos realizados, 15 mostraron mejoras efectivas. El proyecto está basado en GPU de NVIDIA y PyTorch, ha sido probado en H100 y sigue la licencia MIT.
Más
06:54

La plataforma de agentes de IA Clawnch y Bankr anuncian una colaboración, con Bankr convirtiéndose en el lanzador subyacente para la emisión de su token

Clawnch y Bankr alcanzan una cooperación estratégica, Bankr se convertirá en la plataforma subyacente para Clawnch y su emisión de tokens. Además, la puerta de enlace LLM de Bankr será una parte central del nuevo proyecto de Clawnch, OpenClawnch. Esta colaboración tiene como objetivo fortalecer la infraestructura de Clawnch, y las tarifas de emisión del proyecto se ajustarán de manera moderada.
Más
03:10

Minara Skill v2 lanzado: la «alma» de las finanzas digitales Web4.0 todo en uno para AI Agent

Minara ha lanzado Minara Skill v2, mejorando la capacidad de finanzas digitales del Agente AI, soportando gestión de activos en múltiples cadenas, depósitos con tarjeta de crédito y otras funciones, además de lograr transacciones sin gas, reduciendo la barrera de entrada. Al mismo tiempo, integra LLM local para mejorar la privacidad en conversaciones y la toma de decisiones de trading.
Más
USDC-0,02%