Warum glauben manche, dass KI die Welt verändern wird, während andere meinen, es werde alles beim Alten bleiben? Karpathys zwei Diagnosen

ChainNewsAbmedia

OpenAI 創辦團隊成員 und Tesla ehemaliger Leiter für KI Andrej Karpathy hat auf X einen langen Beitrag zum Thema „AI Capability Perception Gap“ veröffentlicht. Darin reagiert er auf ein gesellschaftliches Phänomen: Die Begeisterung für KI ist stark polarisiert – die einen glauben, KI habe die Welt bereits neu geschrieben, die anderen finden, KI könne nur halluzinieren, sei langweilig und werde überbewertet. Karpathy stellt zwei Diagnosen auf und erklärt, warum diese beiden Gruppen „in parallelen Welten“ leben und sich gegenseitig an den jeweils zugrunde liegenden Maßstäben missverstehen. Der Artikel fasst seine Argumentation zusammen und zeigt Implikationen für Tech-Leser in Taiwan.

Diagnose eins: Welche Jahrgangs- und welche Schicht-KI nutzt du?

Karpathys erste Beobachtung ist direkt und treffend: „Viele haben letztes Jahr die kostenlose Version von ChatGPT ausprobiert – und diese eine Erfahrung hat ihre Sicht auf KI dominiert.“ Die Reaktionen dieser Gruppe bestehen typischerweise aus Spott über seltsame Modellreaktionen, Halluzinationen, Ungeschicklichkeit und Weiterleitungen von Videos, in denen OpenAIs „Advanced Voice“-Modus bei einfachen Fragen wie „Soll ich jetzt Auto fahren, um das Auto zu waschen, oder soll ich zu Fuß gehen?“ völlig versagt.

Doch Karpathy weist darauf hin: Diese „Kostenlos-Versionen, Altversionen, Wegwerf-Varianten“-Modelle können die Fähigkeiten der 2026 am weitesten entwickelten agentischen Modelle (insbesondere OpenAI Codex und Claude Code) überhaupt nicht abbilden. Einfach gesagt: Du nimmst ein kostenloses ChatGPT aus 2024, um zu beurteilen, ob KI programmieren kann – so, als würdest du mit einem Nokia E71 aus dem Jahr 2008 prüfen wollen, ob ein Smartphone auch wirklich nutzbar ist.

Für viele taiwanesische Leser ist das ebenfalls eine Realität: ChatGPT Plus für 20 US-Dollar ist noch recht verbreitet, aber nur sehr wenige abonnieren ChatGPT Pro für 200 US-Dollar oder Claude Max für 100 US-Dollar. Wer noch nie agentische Tasks auf den modernsten bezahlten Stufen ausprobiert hat, sieht KI meist als „Spielzeug, das Spaß macht, aber nicht zuverlässig ist“; wer es gemacht hat, sieht KI als „komplette Neuschreibung von Arbeitsabläufen“. Dieselbe Technologie, zwei Welten.

Diagnose zwei: Fortschritt in unterschiedlichen Bereichen ist „asymmetrisch“

Karpathys zweite Diagnose ist noch spannender: „Selbst wenn du für 200 US-Dollar im Monat das modernste Modell nutzt, ist der Fortschritt bei den Fähigkeiten eher ‚spitz‘ – konzentriert auf stark technologische Bereiche.“

Er macht klar: Suche, Schreiben und Empfehlungen – also diese typischen „Abfrage“-Szenarien – sind nicht die Bereiche, in denen KI in den letzten Jahren am stärksten vorangekommen ist. Dafür nennt er zwei Gründe:

Verstärkungslernen (RL) ist abhängig von verifizierbaren Belohnungsfunktionen – beim Programmieren gibt es klare Signale wie „Unit Tests bestehen“, beim Schreiben gibt es keine passende objektive Messgröße. Daher ist die Fortschrittsgeschwindigkeit beim RL sehr unterschiedlich.

Der größte kommerzielle Wert von Unternehmen wie OpenAI und Anthropic liegt in B2B-Programmier-/Forschungs-/Engineering-Szenarien. Daher bündeln sich Ressourcen, Personal und Prioritäten in genau diesen Bereichen – andere Use Cases sind nicht die größten Gewinnquellen.

Diese Beobachtung ist entscheidend – sie erklärt das viel beobachtete Rätsel: Warum können KI-Systeme beim Programmieren so enorm schnell besser werden, während KI beim Schreiben von Artikeln oft weiterhin ziemlich durchschnittlich bleibt. Es liegt nicht daran, dass KI-Firmen es nicht könnten, sondern daran, dass ihre „Goldminen“ woanders liegen und die Aufmerksamkeit dahin abgezogen wurde.

Wer ist am stärksten von „AI Cognitive Shock“ betroffen? Zwei Bedingungen müssen erfüllt sein

Wenn man beide Diagnosen kombiniert, beschreibt Karpathy die Gruppe, die am häufigsten von „AI Cognitive Shock“ getroffen wird – also Menschen, die gleichzeitig beide Bedingungen erfüllen:

Bezahlte Nutzung modernster agentischer Modelle (OpenAI Codex, Claude Code)

Professioneller Einsatz in stark technischen Bereichen (Programmierung, Mathematik, Forschung)

Diese Gruppe ist besonders stark betroffen von der sogenannten „AI Psychosis“ – Karpathys Begriff. Gemeint ist die Situation, in der man selbst sieht, wie LLMs ein ursprünglich mehrere Tage bis mehrere Wochen dauerndes Programmierproblem in wenigen Stunden lösen. Solche Eindrücke von KI-Fähigkeiten und deren „Slope“ (also der Steigung/Veränderungsgeschwindigkeit) führen dazu, dass man eine völlig andere Einschätzung von der technologischen Landschaft der nächsten Jahre bekommt.

Für die andere Gruppe (die nicht bezahlt, nicht in technischen Domänen nutzt) klingt das nach „übertriebener Euphorie“, wie eine typische Fehlinformation aus der „Tech-Szene in sich geschlossenen Kreisen“. Karpathy glaubt jedoch: Das ist kein Mythos, sondern eine echte Bewertung aus eigener Erfahrung.

„Beide Gruppen sprechen jeweils über die Welt der anderen, aber nicht mit der anderen“

Karpathys Kernaussage: „Diese beiden Gruppen reden nicht miteinander, sondern übereinander. Sie reden nicht in Richtung der jeweils anderen Gruppe, sondern in Richtung ihrer eigenen Welt.“ Er beschreibt zwei Dinge, die gleichzeitig wahr sein können:

OpenAIs kostenlose (und nach meiner Ansicht halb verlassene) „Advanced Voice“-Option, die auf Instagram Reels beim Lösen der dümmsten Fragen gründlich danebenliegt

Gleichzeitig das Codex-Modell in der höchsten bezahlten Stufe von OpenAI, das eine Stunde lang kohärent das gesamte codebase umstrukturiert oder Schwachstellen im Computersystem findet und nutzt

Beides ist wahr und steht nicht im Konflikt. Aber jede Gruppe sieht nur einen Teil – und hält die jeweils andere dafür, „zu euphorisch“ oder „zu unwissend“ zu sein. Karpathys Ziel mit diesem Beitrag ist es, diese Lücke zu überbrücken.

Implikationen für taiwanesische Leser: Welche Gruppe bist du?

Karpathys Argumentation ist für taiwanesische Leser besonders relevant, weil der Tech-Diskurs in Taiwan ebenfalls stark polarisiert ist: Die einen sagen „KI hat bereits übernommen“, die anderen „es ist doch nur ein Chatbot“. Wenn du herausfinden willst, zu welcher Gruppe du gehörst, kannst du drei Selbstfragen stellen:

Wie lange ist es her, dass du zuletzt selbst dem modernsten bezahlten Modell Prompts gegeben hast (GPT-5.5 Pro, Claude Opus 4.7)?

Hast du jemals einen agenten länger als 30 Minuten laufen lassen und dabei tatsächlich eine produktionsreife Aufgabe abgeschlossen (Code refactoren, eine Forschungszusammenfassung schreiben, ein komplexes System debuggen)?

Auf welcher Grundlage beurteilst du die Fähigkeiten von KI – aus Medienberichten, aus Community-Memes oder aus eigener Nutzung?

Wer alle drei Fragen mit „Ja, kürzlich, aus eigener Nutzung“ beantwortet, landet in der von Karpathy beschriebenen zweiten Gruppe und versteht tendenziell besser, was er mit „AI Psychosis“ meint. Wer alle drei Fragen mit „Nein, schon lange her, nur aus Medien“ beantwortet, landet eher in der ersten Gruppe und könnte die Geschwindigkeit der KI-Entwicklung massiv unterschätzen.

Das bedeutet nicht, dass eine Gruppe „richtig“ und die andere „falsch“ ist – vielmehr beruhen die Urteile verschiedener Gruppen auf grundlegenden Unterschieden in den Maßstäben. Wenn du den nächsten Artikel mit „KI ist nur eine Blase“ oder „KI ersetzt alle Jobs“ siehst, prüfe zuerst, zu welcher Gruppe der Autor gehört – und entscheide dann, wie du ihn liest.

Ergänzung zu Karpathys „OpenClaw-Moment“

Karpathy ergänzt in späteren Posts: „Jemand hat mir kürzlich gesagt, dass der Grund, warum der OpenClaw-Moment so groß war, darin liegt, dass es sich um eine riesige Gruppe ohne technischen Hintergrund handelt, die zum ersten Mal die modernsten agentischen Modelle aus eigener Erfahrung gesehen hat.“ Diese Beobachtung zeigt: Die kognitive Lücke ist nicht nur eine Differenz im „Ausmaß“, sondern auch ein Unterschied zwischen „eigener Erfahrung“ und „Gerüchten/Secondhand-Erzählungen“.

Für Leser von abmedia ist die praktischste Lösung: Gib 20 US-Dollar aus, abonniere einen Monat ChatGPT Plus oder Claude Pro, nimm dir eine echte Aufgabe, die dich selbst betrifft (schreibe einen Forschungsbericht, erstelle eine Finanzanalyse, debugge ein Programmprojekt), lasse den agent alles vollständig durchlaufen und bewerte danach, was KI für deine Arbeit bedeutet. Das ist nützlicher als 100 Beiträge über KI zu lesen.

Worum geht es in diesem Artikel: Warum denken manche, KI verändert die Welt, während andere sie für normal halten? Karpathys zwei Diagnosen tauchten zuerst in Chain News ABMedia auf.

Disclaimer: The information on this page may come from third parties and does not represent the views or opinions of Gate. The content displayed on this page is for reference only and does not constitute any financial, investment, or legal advice. Gate does not guarantee the accuracy or completeness of the information and shall not be liable for any losses arising from the use of this information. Virtual asset investments carry high risks and are subject to significant price volatility. You may lose all of your invested principal. Please fully understand the relevant risks and make prudent decisions based on your own financial situation and risk tolerance. For details, please refer to Disclaimer.

Verwandte Artikel

Scale AI erhält $500M -Pentagon-Vertrag zur Verarbeitung von KI-Daten

Laut ChainCatcher hat das US-Verteidigungsministerium Scale AI, unterstützt von Meta Platforms, einen Vertrag über 500 Millionen US-Dollar vergeben, um bei der Verarbeitung von Daten zu helfen und die militärische Entscheidungsfindung zu unterstützen. Die Auszeichnung ist fünfmal so groß wie der 100 Millionen US-Dollar Vertrag, den das in San Francisco ansässige Unternehmen erhalten hat, in

GateNews24M her

xAI von Elon Musk soll in SpaceXAI umbenannt werden, da der Status als unabhängiges Unternehmen endet

Laut Odaily hat Elon Musk angekündigt, dass xAI in SpaceXAI umbenannt wird, da das Unternehmen nicht mehr als eigenständige Einheit operieren wird.

GateNews57M her

IBM erweitert seine Enterprise-KI-Suite mit neuen agentenbasierten Tools auf dem Think 2026

Laut IBM kündigte das Unternehmen auf der Think-2026-Konferenz in Boston eine Erweiterung seiner Enterprise-KI-Fähigkeiten an und brachte neue agentenbasierte Tools auf den Markt, die es Organisationen erleichtern sollen, künstliche Intelligenz in den täglichen Abläufen zu verankern. Context Studio, das mittlerweile allgemein verfügbar ist, ermöglicht es Unternehmen, um…

GateNews1Std her

Hut 8-Aktien steigen um 30 % auf einen 9,8-Milliarden-US-Dollar-Deal für ein KI-Rechenzentrums-Leasing

Hut 8-Aktien stiegen nach Berichten über eine Vereinbarung zum Leasing eines KI-Datenzentrums im Wert von 9,8 Milliarden US-Dollar um über 30%. Der Bitcoin-Miner baut seine Aktivitäten auf KI-Infrastruktur aus und setzt dabei auf einen langfristigen Hyperscale-Vertrag in Texas. KI-Infrastruktur-Ausbau Der Vertrag umfasst Optionen, die den Gesamtwert erhöhen könnten

CryptoFrontier1Std her

Anthropic veröffentlicht Claude Dreams: Agents sortieren ihre Erinnerungen selbst zwischen den Aufgaben, beseitigen Duplikate und Widersprüche

Anthropic hat auf der Code with Claude-Veranstaltung Dreams veröffentlicht: Claude Managed Agents sortieren dabei automatisch Erinnerungen über mehrere Sitzungen hinweg, eliminieren Duplikate und Widersprüche, aktualisieren veraltete Einträge und geben ein prüfbares, zusammengestelltes Erinnerungs-Repository aus; die Eingabeobergrenze liegt bei 100 Sessions und 4.096 Zeichen, die Ausführung erfolgt asynchron und dauert einige Minuten bis mehrere Zehn Minuten, außerdem wird Streaming-Beobachtung unterstützt. Eine Forschungs-Vorschau muss beantragt werden; vorerst wird nur claude-opus-4-7 sowie claude-sonnet-4-6 unterstützt, ein genaues Datum für den offiziellen Launch steht noch nicht fest.

ChainNewsAbmedia4Std her
Kommentieren
0/400
Keine Kommentare