【монета界】недавно Google випустив цікаву річ — FunctionGemma. Скажемо прямо, це легка модель Gemma 3 270M, спеціально налаштована для моделей виклику функцій, в основному націлена на локальні та офлайн-сценарії.
Яскравих моментів справді багато. По-перше, об'єднали чати і виконання інструментів, не потрібно постійно метушитися. По-друге, підтримується налаштування, офіційні дані показують, що точність Mobile Actions зросла з 58% до 85%, що є хорошим підвищенням. До того ж, він малий за розміром, може працювати на пристроях краю, таких як NVIDIA Jetson Nano та телефони, і особливо оптимізовано для JSON та багатомовного вводу.
Екосистема в цій сфері також досить розвинута. Hugging Face, Kaggle можна завантажити, інструменти для доопрацювання включають Transformers, Unsloth, Keras, NeMo на вибір, а рішення для розгортання включають LiteRT-LM, vLLM, MLX, Llama.cpp, Ollama, Vertex AI, LM Studio та інші. Також запущено Edge Gallery для демонстрації різних випадків використання, супутніх наборів даних та коду Colab. Для розробників, які хочуть створити локального AI-агента, цей набір рішень все ще має привабливість.
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
Google відкритий вихідний код легковагової моделі виклику функцій, місцева розгортка на крайових пристроях більше не є складною.
【монета界】недавно Google випустив цікаву річ — FunctionGemma. Скажемо прямо, це легка модель Gemma 3 270M, спеціально налаштована для моделей виклику функцій, в основному націлена на локальні та офлайн-сценарії.
Яскравих моментів справді багато. По-перше, об'єднали чати і виконання інструментів, не потрібно постійно метушитися. По-друге, підтримується налаштування, офіційні дані показують, що точність Mobile Actions зросла з 58% до 85%, що є хорошим підвищенням. До того ж, він малий за розміром, може працювати на пристроях краю, таких як NVIDIA Jetson Nano та телефони, і особливо оптимізовано для JSON та багатомовного вводу.
Екосистема в цій сфері також досить розвинута. Hugging Face, Kaggle можна завантажити, інструменти для доопрацювання включають Transformers, Unsloth, Keras, NeMo на вибір, а рішення для розгортання включають LiteRT-LM, vLLM, MLX, Llama.cpp, Ollama, Vertex AI, LM Studio та інші. Також запущено Edge Gallery для демонстрації різних випадків використання, супутніх наборів даних та коду Colab. Для розробників, які хочуть створити локального AI-агента, цей набір рішень все ще має привабливість.