Prof. Jia Da analysiert generative KI: Ist Vibe Coding wirklich so genial? Was ist die beste Methode, um mit KI zu programmieren?

CryptoCity

In der heutigen Zeit des rasanten Fortschritts generativer KI fühlen sich viele Menschen unsicher, ob sie weiterhin Programmieren lernen sollten. Professor 加大 erklärt in der GQ-Zeitschrift die Prinzipien hinter ChatGPTs LLM und weist auf die Grenzen des Vibe Coding hin.

Professor 加大 analysiert generative KI und lehrt dich, Vibe Coding richtig zu verstehen

Kürzlich teilt GQ Taiwan auf seinem YouTube-Kanal ein Video, in dem Professor Sarah Chasins von der University of California, Berkeley (UC Berkeley) auf zahlreiche Fragen von Internetnutzern zu Programmierung und KI eingeht.

In einer Zeit, in der generative KI sich rasant entwickelt, sind viele unsicher, ob sie weiterhin Programmieren lernen sollen. Professor Chasins erklärt im Video nicht nur die technischen Prinzipien, sondern gibt auch eine realistische Einschätzung zum aktuellen Trend des „Vibe Coding“.

Professor erklärt die LLM-Technologie hinter ChatGPT

Professor Sarah Chasins erklärt zunächst auf verständliche Weise, wie ChatGPT funktioniert.

ChatGPT basiert auf großen Sprachmodellen (LLM). Das Kernprinzip ist ziemlich simpel: Es ist ein Programm, das Wörter, die zusammenpassen, miteinander kombiniert.

Die Entwickler der LLM sammeln zunächst alle von Menschen geschriebenen Dokumente und Webseiten im Internet. Diese Daten repräsentieren die vernünftigen Wortkombinationen im menschlichen Verständnis.

Anschließend wird das Programm in großem Maßstab mit „Lückentext“-Training trainiert. Zum Beispiel sieht das System Sätze wie „Der Hund hat vier [Leerzeichen]“, wobei die menschliche Antwort „Beine“ ist. Wenn das Programm falsch rät, wird es korrigiert, bis es richtig liegt.

Nach einem Trainingsprozess, der etwa 300 bis 400 Jahre an Rechenzeit auf der Erde entspricht, generiert das Programm schließlich eine äußerst große „Schummel-Papier“, also die sogenannten „Parameter“ in der Tech-Branche.

Danach reicht es aus, eine Dialogdatei bereitzustellen. Dieses auf Lückentext spezialisierte Programm kann dann in einen Chatbot umgewandelt werden, der automatisch die verbleibende Antwort auf menschliche Fragen ergänzt.

Bildquelle: KI-generiertes Bild von Nanobanana, nur zur Veranschaulichung. Bitte entschuldigen Sie, falls einige chinesische Zeichen unscharf sind.

Die beste Art, Programmieren im KI-Zeitalter zu lernen

Angesichts der mächtigen KI-Tools hinterfragen viele die Notwendigkeit, Programmieren zu lernen. Professor ist der Meinung, dass die wichtigste Fähigkeit im Programmierunterricht darin besteht, „Probleme zu zerlegen“, also ein vages großes Problem in kleinere Teile zu zerlegen, bis jeder Teil mit wenigen Zeilen Code gelöst werden kann.

Ohne diese Übung wird es für Nutzer schwierig, komplexe Programme zu erstellen, die tatsächlich funktionieren, wenn sie KI-Tools verwenden. Zudem basiert das Training der LLM auf technischen Sprachbeschreibungen, die oft nicht der Alltagssprache von Laien entsprechen. Das führt dazu, dass KI keine nützlichen Codes generieren kann.

Um das maximale Potenzial von KI beim Programmieren zu nutzen, empfiehlt Professor Chasins drei Schritte:

  1. Problem minimieren: Das Problem auf etwa 5 Zeilen Code reduzieren.
  2. Pseudocode verwenden: Eine Art Beschreibung der Logik, die verschiedene Programmiersprachen und Schlüsselwörter kombiniert, um die Logik an die KI zu übermitteln. Obwohl Pseudocode wie natürliche Sprache wirkt, ist es keine Alltagssprache, sondern soll die Maschine präziser verstehen lassen.
  3. Validierungsplan erstellen: Durch umfangreiche Tests oder professionelle Überprüfungen die Richtigkeit der KI-Ausgaben sicherstellen.

Bildquelle: KI-generiertes Bild von Nanobanana, nur zur Veranschaulichung. Bitte entschuldigen Sie, falls einige chinesische Zeichen unscharf sind.

Vibe Coding ist nicht so magisch?

Bezüglich des aktuellen Trends, LLMs direkt Code generieren zu lassen, anstatt ihn manuell zu schreiben, bleibt Professor Sarah Chasins skeptisch.

Sie analysiert, dass diese Tools bei der Verarbeitung routinemäßiger Inhalte, die bereits tausendfach von Menschen geschrieben wurden, gut funktionieren. Für innovative Projekte sind sie jedoch meist ungeeignet.

Der Professor verweist auf Studien, die zeigen, dass Nutzer von LLM-Tools zwar behaupten, ihre Effizienz um 20 % gesteigert zu haben, tatsächlich aber die Entwicklungszeit im Vergleich zu Nicht-Nutzern um 20 % langsamer ist.

Dies zeigt, dass eine zu starke Abhängigkeit von Tools eine Effizienzillusion erzeugen kann. Wenn man auf noch nie dagewesene Programmieranforderungen stößt, fehlt es an grundlegender Logikzerlegung und physikalischem Verständnis, um Fehler der KI zu korrigieren, was letztlich zu längeren Entwicklungszeiten führt.

Ein einfaches Beispiel: LLM ist wie ein hochentwickeltes autonomes Fahrzeug, das bei bekannten Routen hilft. Wenn man jedoch die Strecke nicht zerlegen oder die physikalischen Prinzipien des Fahrzeugs nicht versteht – ähnlich wie bei Programmierlogik – und auf unbekannte, schwierige Kurven stößt, ist das autonome Fahrzeug anfällig für Fehler. Ohne Grundkenntnisse weiß man dann nicht, wie man es korrigiert.

Weiterführende Lektüre:
KI lässt Ein-Personen-Unternehmen aufsteigen! „Atmosphärisches Coding“ revolutioniert die Branche, kleine Teams können jährlich über 100 Millionen verdienen

Original anzeigen
Disclaimer: The information on this page may come from third parties and does not represent the views or opinions of Gate. The content displayed on this page is for reference only and does not constitute any financial, investment, or legal advice. Gate does not guarantee the accuracy or completeness of the information and shall not be liable for any losses arising from the use of this information. Virtual asset investments carry high risks and are subject to significant price volatility. You may lose all of your invested principal. Please fully understand the relevant risks and make prudent decisions based on your own financial situation and risk tolerance. For details, please refer to Disclaimer.

Verwandte Artikel

Dogecoin (DOGE) löscht Null aus, während der Preis um 11% ansteigt - U.Today

Dogecoin (DOGE) ist in einer Woche um 11% gestiegen und hat die Marke von 0,10 $ überschritten, was auf Short-Liquidationen und erhöhte Wale-Käufe zurückzuführen ist. Das Potenzial, den Widerstand von 0,105 $ zu durchbrechen, könnte zu weiteren Gewinnen führen. Marktdynamiken bleiben entscheidend für die Zukunft von DOGE.

UToday3Std her

Dogecoin-Preisprognose: DOGE strebt 0,1020 USD an, Bullen könnten 0,122 USD anvisieren

Dogecoin (DOGE) ist nach dem Durchbruch von 0,0950 US-Dollar weiterhin gestiegen und hält derzeit den Kurs von 0,0985 US-Dollar stabil. Kurzfristig wird erwartet, dass das Widerstandsniveau von 0,1020 US-Dollar herausgefordert wird. Bei einem Durchbruch dieses Niveaus könnten die oberen Ziele auf den Bereich von 0,1050 bis 0,122 US-Dollar abzielen, aber es ist wichtig, das kurzfristige Rückgangsrisiko zu beachten. Der Gesamttrend wird durch die Marktstimmung unterstützt, und Anleger sollten auf wichtige Widerstands- und Unterstützungsniveaus achten.

GateNews4Std her

Dogecoin Futures-Daten zeigen $0 Short Liquidationen während Reset

Wichtige Erkenntnisse Dogecoin-Futures verzeichneten innerhalb einer Stunde Null Short-Liquidationen, was auf einen starken Rückgang bearischer Wetten hindeutet, da Händler zunehmend Long-Positionen bevorzugten. DOGE gewann in der vergangenen Woche über vier Prozent, und dieser Aufwärtstrend reduzierte aggressive Short-Positionen über

CryptoFrontNews9Std her

Nächster Krypto zum Explodieren: Pepeto Staking zahlt $20.900 jährlich, während BTC Miner verkaufen und DOGE stagniert

Börsennotierte Bitcoin-Miner haben seit Oktober mehr als 15.000 BTC verkauft, da sich die Margen verschärfen, so CoinDesk. Die Miner, die einst überzeugt waren, verkaufen nun zum Überleben, und Händler, die nach der nächsten explodierende Kryptowährung suchen, beobachten, wie sich Kapital von Minern in

CaptainAltcoin12Std her
Kommentieren
0/400
Keine Kommentare