Suchergebnisse für "LLM"
2026-03-17
13:08

Tether führt das BitNet LoRA-Framework ein, das das Training großer Modelle auf Mobilgeräten unterstützt

Gate News Nachricht: Am 17. März führte QVAC Fabric von Tether ein weltweites erstes Cross-Platform-LoRA-Feinabstimmungs-Framework für Microsofts BitNet (1-Bit-LLM) ein, das die Anforderungen an Grafikspeicher und Rechenleistung beim Training großer Modelle erheblich senkt. Das Framework unterstützt LoRA-Feinabstimmung und Inferenzbeschleunigung auf Intel-, AMD-, Apple Silicon M-Serie und mobilen GPUs (einschließlich Adreno, Mali und Apple Bionic).
Mehr
07:09

Sentry-Mitgründer bezweifelt, dass LLM die Entwicklungsgeschwindigkeit verlangsamt, behauptet, dass OpenClaw zu viel Code generiert und schwer zu retten ist

Sentry-Mitgründer David Cramer erklärt, dass große Sprachmodelle die Produktivität nicht erhöht haben, sondern stattdessen zur Erstellung komplexer Codes führen, die die Entwicklungsgeschwindigkeit verlangsamen. Er stellt die Methode der automatischen Code-Generierung in Frage und argumentiert, dass die Ausgabequalität mangelhaft ist, besonders bei inkrementeller Entwicklung und Stilkonsistenz. Basierend auf persönlicher Erfahrung weist er darauf hin, dass Softwareentwicklung weiterhin schwierig ist und dass psychologische Veränderungen seinen Beitrag beeinflusst haben.
Mehr
11:02

China Academy of Information and Communications Technology arbeitet mit Hochschulen zusammen, um kritische Befehlsinjektionssicherheitslücke OpenClaw zu entdecken und zu beheben

Das China Academy of Information and Communications Technology und ein Universitätsteam entdeckten beim Audit des Open-Source-Frameworks OpenClaw ein LLM-gestütztes Command-Injection-Vulnerability im bash-tools-Modul. Angreifer können durch Manipulation zur Befehlsausführung und Ferncodeeinfügung sowie Datendiebstahl verleitet werden. Der Prozess der Schwachstellenoffenlegung wurde eingeleitet und Reparaturvorschläge wurden eingereicht.
Mehr
09:32

AMI Labs Mitgründer Xie Saining: LLM ist gewissermaßen das "Anti-Bitter-Lesson", Weltmodelle sind die Zukunft

Xie Sening kritisierte in einem Interview den aktuellen Entwicklungspfad der KI, der hauptsächlich auf großen Sprachmodellen basiert, und argumentiert, dass dieser das Lernen der KI aus der realen Welt einschränkt. Er betont die Vorteile von Weltmodellen. Er ist der Ansicht, dass die Entwicklung von intelligenten Agenten, die in der Realität überleben können, eine größere Herausforderung darstellt, und erwähnt, dass AMII Labs sich auf die Erfassung realer Daten konzentriert und plant, in Zukunft KI-Smart-Brillen und Roboter auf den Markt zu bringen.
Mehr
06:07

Bittensor-Subnetz vollendet Vortraining von LLM mit 72 Milliarden Parametern, TAO steigt in zwei Wochen um 54,8%

Das Bittensor-Subnetz Templar hat am 10. März das Vortraining des dezentralisierten Sprachmodells Covenant-72B mit 72 Milliarden Parametern abgeschlossen. Das Modell zeigt hervorragende Leistungen beim MMLU-Test und übertrifft mehrere zentralisierte Baseline-Modelle. Das Projekt zog die Zusammenarbeit von über 70 Knoten an, wobei alle Gewichte und Kontrollpunkte unter der Apache-Lizenz veröffentlicht wurden. Aufgrund dieser Nachricht stiegen Bittensor und sein Token allgemein an.
Mehr
TAO-7,13%
03:37

ETH Zürich real-world Test der AI-Agenten Blockchain-Konsensfähigkeit: Erfolgsrate nur 41,6%

Das Forschungsteam des ETH Zürich hat die byzantinische Konsensfähigkeit von LLM-Agenten getestet und festgestellt, dass selbst ohne bösartige Knoten die effektive Konsensrate nur 41,6 % beträgt. Mit zunehmender Anzahl von Knoten wird die Erreichung eines Konsenses immer schwieriger, und das Hinzufügen bösartiger Knoten verschärft die Situation weiter. Die Forschungsergebnisse zeigen, dass die derzeitigen LLM-Agenten im Bereich zuverlässiger Konsens noch nicht zuverlässig sind und eine dezentrale Bereitstellung mit Vorsicht erfolgen sollte.
Mehr
ETH-4,99%
03:07

Andrej Karpathy hat das Open-Source-Autoresearch-Projekt ins Leben gerufen, bei dem KI automatisch hundertmal LLM-Trainingsexperimente durchführt

Eureka Labs-Gründer Andrej Karpathy hat am 8. März das Open-Source-Projekt autoresearch veröffentlicht, das im Modus „Menschen schreiben Markdown, KI schreibt Code“ arbeitet. Es ermöglicht Entwicklern, Forschungsrichtungen über program.md zu definieren, wobei die KI eigenständig den Code optimiert. Pro Stunde können etwa 12 Experimente durchgeführt werden, wobei in den 83 gezeigten Experimenten 15 effektive Verbesserungen erzielt wurden. Das Projekt basiert auf NVIDIA GPU und PyTorch, wurde auf H100 getestet und folgt der MIT-Lizenz.
Mehr
06:54

AI Agent Launchpad Clawnch und Bankr haben eine Partnerschaft vereinbart, wobei Bankr zum zugrunde liegenden Launchpad für die Token-Emission wird.

Clawnch und Bankr haben eine strategische Partnerschaft vereinbart, wobei Bankr die zugrunde liegende Plattform für Clawnch und seine Token-Emissionen wird. Gleichzeitig wird das LLM-Gateway von Bankr ein zentraler Bestandteil des neuen Clawnch-Projekts OpenClawnch sein. Ziel dieser Zusammenarbeit ist es, die Infrastruktur von Clawnch zu stärken, wobei die Projekt-Emissionskosten moderat erhöht werden.
Mehr
03:10

Minara Skill v2 veröffentlicht: Die All-in-One-Web4.0-Digitalfinanzierung „Seele“ für AI-Agenten

Minara hat Minara Skill v2 veröffentlicht, das die digitalen Finanzfähigkeiten des AI Agenten verbessert, Multi-Chain-Asset-Management, Kreditkarten-Einzahlungen und andere Funktionen unterstützt und Gasless-Transaktionen ermöglicht, um die Nutzungsschwelle zu senken. Gleichzeitig wurde ein lokales LLM integriert, um private Gespräche und Handelsentscheidungen zu verbessern.
Mehr