Anthropic testet das leistungsstärkste KI-Modell, das es je entwickelt hat, und die Welt sollte noch nichts davon erfahren.
Ein Datenleck, das am Donnerstag von Fortune gemeldet wurde, enthüllte, dass das KI-Labor hinter Claude ein neues Modell namens “Mythos” trainiert hat, das es intern als “bei weitem das leistungsstärkste KI-Modell, das wir je entwickelt haben” beschreibt.
Das Modell wurde in einem Entwurf eines Blogbeitrags entdeckt, der in einem unsicheren, öffentlich durchsuchbaren Datenspeicher hinterlassen wurde, zusammen mit fast 3.000 anderen unveröffentlichten Vermögenswerten, so Cybersecurity-Forscher, die das Material überprüft haben.
Anthropic bestätigte die Existenz des Modells nach einer Anfrage von Fortune und bezeichnete es als “einen Schrittwechsel” in der KI-Leistung und “das fähigste, das wir bisher gebaut haben.” Das Unternehmen gab an, dass es von “Kunden mit frühem Zugang” getestet wird und erkannte an, dass ein “menschlicher Fehler” in seinem Inhaltsverwaltungssystem das Leck verursacht hat.
Der Entwurf des Blogbeitrags führte eine neue Modellstufe namens “Capybara” ein, die als größer und leistungsfähiger als die bestehenden Opus-Modelle von Anthropic beschrieben wird, die zuvor die leistungsstärksten waren.
“Im Vergleich zu unserem vorherigen besten Modell, Claude Opus 4.6, erzielt Capybara dramatisch höhere Punktzahlen bei Tests zur Softwareprogrammierung, akademischem Denken und Cybersecurity, unter anderem,” sagte der Entwurf.
Die Dimension der Cybersecurity ist die wichtigste für die Kryptoindustrie. Der Entwurf des Blogbeitrags besagte, dass das Modell “unprecedented cybersecurity risks” birgt, eine Formulierung, die direkte Auswirkungen auf die Sicherheit von Blockchains, die Prüfung von Smart Contracts und das eskalierende Wettrüsten zwischen Angreifern und Verteidigern im DeFi hat.
Allein in dieser Woche kündigte Ripple eine KI-gesteuerte Sicherheitsüberholung für das XRP-Ledger an, nachdem ein KI-unterstütztes Rote-Team mehr als 10 Schwachstellen in seinem 13 Jahre alten Code entdeckt hatte. Ethereum startete ein spezielles Post-Quantum-Sicherheitszentrum, das auf acht Jahren Forschung basiert.
Und der Resolv-Stablecoin verlor seine Bindung, nachdem ein Angreifer einen Minting-Vertrag ohne Oracle-Checks und mit einer Einzelzugriffskontrolle ausnutzte, eine Art von Infrastrukturfehler, den leistungsfähigere KI-Tools potenziell identifizieren könnten, bevor ein Angreifer es tut, oder schneller ausnutzen könnten, als die Verteidiger reagieren können.
Für den KI-Token-Markt wirft das Leck eine andere Frage auf. Das dezentrale Netzwerk von Bittensor hat kürzlich Covenant-72B veröffentlicht, ein Modell, das mit Metas Llama 2 70B konkurriert, was zu einem Anstieg von 90 % bei TAO führte und die Marktkapitalisierung der Subnetz-Token auf insgesamt 1,47 Milliarden US-Dollar trieb.
Ein “Schrittwechsel” von einem zentralisierten Labor wie Anthropic setzt den Maßstab, den dezentrale KI-Projekte erreichen müssen. Der Wettbewerb zwischen dem, was ein gut finanziertes Unternehmenslabor bauen kann, und dem, was ein genehmigungsfreies Netzwerk produzieren kann, ist gerade größer geworden.
Anthropic sagte, es sei “überlegt” bei der Veröffentlichung des Modells, angesichts seiner Fähigkeiten. Der Entwurf des Blogs merkte an, dass das Modell teuer im Betrieb ist und noch nicht für die allgemeine Verfügbarkeit bereit ist. Das Unternehmen hat den öffentlichen Zugriff auf den Datenspeicher entfernt, nachdem Fortune es kontaktiert hatte.
Das Leck selbst ist eine eigene Warnung. Ein Unternehmen, das ein KI-Modell mit beispiellosen Cybersecurity-Fähigkeiten baut, ließ die Ankündigung dieses Modells in einem unsicheren, öffentlich durchsuchbaren Datenspeicher aufgrund menschlichen Fehlers zurück. Die Ironie bedarf keiner weiteren Erläuterung.