Результати пошуку для "LLM"
2026-03-17
13:08

Tether запустила фреймворк BitNet LoRA, який підтримує тренування великих мовних моделей на мобільних пристроях

Gate News повідомляє, що 17 березня QVAC Fabric від Tether запустив глобально перший кросс-платформний фреймворк LoRA для тонкого налаштування, орієнтований на Microsoft BitNet (One-bit LLM), що значно знижує вимоги до відеопам'яті та обчислювальної потужності при навчанні великих моделей. Цей фреймворк підтримує LoRA мікротонкого налаштування та прискорення виведення на Intel, AMD, Apple Silicon серії M та мобільних GPU (включаючи Adreno, Mali, Apple Bionic).
Більше
07:09

Засновник Sentry ставить під сумнів, що LLM сповільнює розвиток, стверджує, що OpenClaw генерує занадто багато коду, що важко виправляти

Співзасновник Sentry Девід Крамер висловив думку, що великі мовні моделі не підвищують продуктивність, а навпаки, призводять до виникнення складного коду та уповільнення розвитку. Він ставить під сумнів підхід до автоматичного генерування коду, вважаючи, що якість результатів низька, особливо щодо інкрементальної розробки та послідовності стилю. На основі особистого досвіду він зазначає, що розробка програмного забезпечення залишається складною задачею, а психологічні зміни вплинули на його внесок.
Більше
11:02

China Academy of Information and Communications Technology Together with Universities Discovers and Fixes Critical OpenClaw Command Injection Vulnerability Китайская академия информации и коммуникационных технологий совместно с университетами обнаружила и устранила критическую уязвимость внедрения команд OpenClaw Китайська академія інформації та комунікаційних технологій спільно з університетами виявила та усунула критичну вразливість внедрення команд OpenClaw

Китайський інститут інформаційних комунікацій та університетська команда виявили під час аудиту відкритої правової бази OpenClaw вразливість типу інжекції команд, керованої LLM, у модулі bash-tools. Зловмисники можуть спровокувати виконання команд для віддаленого виконання коду та крадіжки даних. Було запущено процес розкриття вразливості та подано рекомендації щодо виправлення.
Більше
09:32

Cofounder AMI Labs Xie Saining: LLM у певному розумінні є «антит-Bitter Lesson», світовий модель — це майбутнє

Сяе Сайнін у інтерв'ю критикував сучасний напрямок розвитку AI, який зосереджується на великих мовних моделях, вважаючи, що це обмежує навчання AI на основі реального світу, і наголошував на перевагах світових моделей. Він переконаний, що створення інтелектуальних агентів, здатних виживати в реальності, становить більший виклик, і згадав, що AMII Labs зосереджується на збиранні реальних даних з планами випустити AI смарт-окуляри та робортів у майбутньому.
Більше
06:07

Bittensor підмережа завершила попереднє навчання LLM з 72 мільярдами параметрів, TAO зросійпо 54,8% за останні два тижні

Bittensor підмережа Templar завершила 10 березня предтренування децентралізованої мовної моделі Covenant-72B з 72 мільярдами параметрів. Модель показала чудові результати в тесті MMLU, перевищивши кілька централізованих базових моделей. Проект залучив співпрацю понад 70 вузлів, усі ваги та контрольні точки були опубліковані відповідно до ліцензії Apache. Під впливом цієї новини Bittensor та його токен зажили загального зростання.
Більше
TAO-4,6%
08:37

OpenClaw випустила версію v2026.3.8, додано локальне резервне копіювання CLI, режим мовчазного тайм-ауту Talk і режим контексту пошуку LLM у Brave

OpenClaw випустила версію v2026.3.8 8 березня, додавши функції локального резервного копіювання стану, автоматичного транскрибування Talk Mode та режим LLM Context для пошуку у браузері Brave, виправивши кілька проблем. У розробці взяли участь 43 співробітники.
Більше
03:37

ETH Zurich реальні випробування здатності AI Agent до консенсусу в блокчейні: рівень успіху лише 41,6%

Команда дослідників Швейцарської федеральної технологічної інституції (ETH Zurich) протестувала здатність агентів LLM до досягнення консенсусу за Бейзантінською моделлю і виявила, що навіть без зловмисних вузлів ефективність досягнення консенсусу становить лише 41,6%. З збільшенням кількості вузлів ускладнюється досягнення згоди, а при додаванні зловмисних вузлів ситуація ще більше погіршується. Висновки дослідження вказують, що на даний момент агентам LLM ще не можна довіряти у питаннях надійного консенсусу, тому децентралізоване розгортання слід здійснювати з обережністю.
Більше
ETH-6,34%
03:07

Андрей Карпати відкрив проект autoresearch з відкритим кодом, що автоматично виконує сотні запусків тренувальних експериментів з великими мовними моделями (LLM) за допомогою штучного інтелекту.

Засновник Eureka Labs Анджей Карпаты 8 березня відкрив проект autoresearch, який використовує модель «людина пише Markdown, AI пише код». Це дозволяє розробникам визначати напрямки досліджень за допомогою program.md, а штучний інтелект самостійно оптимізує код. Щогодини можна провести приблизно 12 експериментів, з яких у 83 випадках було 15 ефективних покращень. Проєкт базується на NVIDIA GPU і PyTorch, протестований на H100 і дотримується ліцензії MIT.
Більше
06:54

AI Agent запускова платформа Clawnch та Bankr уклали партнерство, Bankr стане її базовим запусковим майданчиком для випуску токенів

Clawnch та Bankr уклали стратегічну співпрацю, Bankr стане базовою платформою для випуску токенів та проектів Clawnch. Одночасно, LLM-інтерфейс Bankr стане ключовою частиною нового проекту Clawnch — OpenClawnch. Мета цієї співпраці — зміцнити інфраструктуру Clawnch, а витрати на випуск проектів будуть помірно підвищені.
Більше
03:10

Minara Skill v2 випущено: створення універсального «душі» цифрових фінансів Web4.0 для AI-агента

Minara випустила Minara Skill v2, яка оновлює цифрові фінансові можливості AI Agent, підтримує управління мульти-ланцюговими активами, внесення коштів за допомогою кредитних карток та інші функції, а також реалізує Gasless-транзакції, знижуючи поріг входу. Одночасно, інтегруючи локальні LLM, покращує можливості приватних діалогів і прийняття торгових рішень.
Більше
USDC-0,02%