【moeda】Recentemente, o Google lançou algo interessante — FunctionGemma. Em outras palavras, é um modelo leve chamado Gemma 3 270M que foi especificamente ajustado para ser um modelo de chamada de função, visando principalmente cenários locais e offline.
As principais características são bastante numerosas. Primeiro, unificou a execução de chat e ferramentas, evitando assim idas e vindas. Em segundo lugar, suporta ajustes personalizados, com dados oficiais mostrando que a precisão das Ações Móveis subiu de 58% para 85%, o que é um bom aumento. Além disso, é pequeno o suficiente para rodar em dispositivos de borda como o NVIDIA Jetson Nano e smartphones, e também otimizou especialmente a entrada de JSON e multilíngue.
A parte ecológica também está bastante desenvolvida. É possível baixar do Hugging Face e do Kaggle, e as ferramentas de ajuste fino incluem Transformers, Unsloth, Keras e NeMo. As soluções de implantação incluem uma gama completa como LiteRT-LM, vLLM, MLX, Llama.cpp, Ollama, Vertex AI e LM Studio. Também foi lançada a Edge Gallery para mostrar vários casos de uso, com conjuntos de dados e códigos Colab correspondentes. Para os desenvolvedores que desejam montar um agente de IA local, essa combinação ainda é atraente.
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
O modelo de chamada de função leve de código aberto do Google torna mais fácil a implementação local em dispositivos de borda.
【moeda】Recentemente, o Google lançou algo interessante — FunctionGemma. Em outras palavras, é um modelo leve chamado Gemma 3 270M que foi especificamente ajustado para ser um modelo de chamada de função, visando principalmente cenários locais e offline.
As principais características são bastante numerosas. Primeiro, unificou a execução de chat e ferramentas, evitando assim idas e vindas. Em segundo lugar, suporta ajustes personalizados, com dados oficiais mostrando que a precisão das Ações Móveis subiu de 58% para 85%, o que é um bom aumento. Além disso, é pequeno o suficiente para rodar em dispositivos de borda como o NVIDIA Jetson Nano e smartphones, e também otimizou especialmente a entrada de JSON e multilíngue.
A parte ecológica também está bastante desenvolvida. É possível baixar do Hugging Face e do Kaggle, e as ferramentas de ajuste fino incluem Transformers, Unsloth, Keras e NeMo. As soluções de implantação incluem uma gama completa como LiteRT-LM, vLLM, MLX, Llama.cpp, Ollama, Vertex AI e LM Studio. Também foi lançada a Edge Gallery para mostrar vários casos de uso, com conjuntos de dados e códigos Colab correspondentes. Para os desenvolvedores que desejam montar um agente de IA local, essa combinação ainda é atraente.