Google Gemma 4 lanzamiento oficial: 4 tamaños por primera vez bajo licencia Apache 2.0, 31B en todo el mundo, tercer proyecto de código abierto

BlockBeatNews

Según el monitoreo de 1M AI News, Google lanzó oficialmente la familia de modelos de código abierto Gemma 4, que incluye 4 versiones de distintos tamaños, todas bajo la licencia Apache 2.0. Google afirma que esto es una respuesta a los comentarios de la comunidad. Apache 2.0 significa que los desarrolladores pueden usarla libremente para fines comerciales, modificarla y distribuirla, sin restricciones adicionales. Clément Delangue, cofundador y CEO de Hugging Face, calificó esta medida como un «hito enorme».

Los 4 modelos están dirigidos a distintos escenarios de hardware:

  1. 31B Dense: la mejor calidad original, adecuada para fine-tuning; los pesos sin cuantizar pueden ejecutarse en una sola H100 de 80GB, y la versión cuantizada admite GPU de consumo
  2. 26B MoE (mezcla de expertos): un total de 26B parámetros, pero en la inferencia solo se activan 3.8B; enfocado en baja latencia y adecuado para escenarios de Agent sensibles a la velocidad
  3. E4B y E2B: modelos en el borde orientados a dispositivos móviles y de IoT; durante la inferencia se activan aproximadamente 4B y 2B parámetros, respectivamente, suficientes para mantener la autonomía del dispositivo; admiten entrada de audio nativa (reconocimiento y comprensión del habla) y pueden ejecutarse completamente sin conexión

En el ranking de textos de Arena AI, una plataforma anónima de evaluación de enfrentamientos con modelos de gran escala, el 31B ocupa el tercer lugar entre los modelos de código abierto a nivel global, y el 26B el sexto; Google afirma que es un modelo «que supera en 20 veces al volumen del modelo». El modelo se basa en la misma investigación y tecnología con las que se construyó Gemini 3.

Las capacidades principales incluyen razonamiento y planificación de varios pasos, invocación nativa de funciones y salida estructurada en JSON (orientada a flujos de trabajo de Agent), generación de código, comprensión de imágenes y video (toda la gama) y entrenamiento nativo en más de 140 lenguas. Los modelos en el borde admiten una ventana de contexto de 128K; los modelos de gran escala admiten hasta 256K. E2B y E4B, optimizados conjuntamente con los equipos de Google Pixel, Qualcomm y MediaTek, pueden ejecutarse en dispositivos como móviles, Raspberry Pi y NVIDIA Jetson Orin Nano; los desarrolladores de Android pueden construir aplicaciones de Agent mediante el prototipo AICore Developer Preview, preparándolas para lograr compatibilidad futura con Gemini Nano 4.

En cuanto al ecosistema, desde el primer día ya se admite Hugging Face, vLLM, llama.cpp, MLX, Ollama, NVIDIA NIM, LM Studio, Unsloth y otros marcos populares; se pueden probar directamente en Google AI Studio (31B y 26B) y en AI Edge Gallery (E4B y E2B). Desde el lanzamiento de la primera generación, la serie Gemma se ha descargado más de 400 millones de veces, y la comunidad ha generado más de 100.000 variantes.

Aviso legal: La información de esta página puede proceder de terceros y no representa los puntos de vista ni las opiniones de Gate. El contenido que aparece en esta página es solo para fines informativos y no constituye ningún tipo de asesoramiento financiero, de inversión o legal. Gate no garantiza la exactitud ni la integridad de la información y no se hace responsable de ninguna pérdida derivada del uso de esta información. Las inversiones en activos virtuales conllevan riesgos elevados y están sujetas a una volatilidad significativa de los precios. Podrías perder todo el capital invertido. Asegúrate de entender completamente los riesgos asociados y toma decisiones prudentes de acuerdo con tu situación financiera y tu tolerancia al riesgo. Para obtener más información, consulta el Aviso legal.
Comentar
0/400
Sin comentarios