Ich habe gelernt, dass diese Analyse der Schwierigkeiten von MCP sehr treffend ist, die Schmerzpunkte direkt trifft und offenbart, dass der Weg zur Umsetzung von MCP lang und beschwerlich ist, es ist nicht so einfach. Ich möchte das noch weiter ausführen:
Das Problem der Werkzeugexplosion ist real: Der MCP-Protokollstandard führt dazu, dass die Anzahl der verlinkbaren Werkzeuge überhandnimmt. LLMs haben Schwierigkeiten, so viele Werkzeuge effektiv auszuwählen und zu nutzen, und es gibt keine KI, die gleichzeitig in allen Fachgebieten bewandert ist. Das ist kein Problem, das mit der Anzahl der Parameter gelöst werden kann.
Dokumentationsbeschreibung der Kluft: Zwischen technischen Dokumenten und dem Verständnis von KI besteht noch eine große Kluft. Die meisten API-Dokumente sind für Menschen geschrieben, nicht für KI, und es fehlt an semantischer Beschreibung.
Schwäche der Dual-Interface-Architektur: MCP fungiert als Middleware zwischen LLM und Datenquelle und muss sowohl die Anfragen der oberen Ebene als auch die Daten der unteren Ebene verarbeiten. Diese Architektur hat von Natur aus Schwächen. Wenn die Datenquelle explodiert, ist es nahezu unmöglich, eine einheitliche Verarbeitungslogik zu gewährleisten.
Die Rückgabe-Strukturen sind sehr unterschiedlich: Der Mangel an einheitlichen Standards führt zu einem Chaos in den Datenformaten. Dies ist kein einfaches Ingenieurproblem, sondern das Ergebnis eines umfassenden Mangels an Zusammenarbeit in der Branche, der Zeit benötigt.
Begrenztes Kontextfenster: Unabhängig davon, wie schnell das Token-Limit wächst, bleibt das Problem der Informationsüberlastung bestehen. Das Ausgeben einer Menge JSON-Daten durch MCP wird viel Kontextraum beanspruchen und die Schlussfolgerungsfähigkeit beeinträchtigen.
Verschachtelte Struktur flach machen: Komplexe Objektstrukturen können in der Textbeschreibung die Hierarchie verlieren, was es der KI erschwert, die Beziehungen zwischen den Daten wiederherzustellen.
7)Die Schwierigkeit der Verbindung mehrerer MCP-Server: “Die größte Herausforderung besteht darin, dass es komplex ist, MCPs miteinander zu verketten.” Diese Schwierigkeit ist nicht aus der Luft gegriffen. Obwohl MCP als Standardprotokoll an sich einheitlich ist, unterscheiden sich die spezifischen Implementierungen der verschiedenen Server in der Realität stark, einer verarbeitet Dateien, ein anderer verbindet APIs, ein dritter arbeitet mit Datenbanken… Wenn KI über Server hinweg zusammenarbeiten muss, um komplexe Aufgaben zu erledigen, ist es so schwierig, als würde man versuchen, Lego, Bauklötze und Magnetplatten gewaltsam zusammenzusetzen.
Das oben.
Diese Probleme spiegeln tatsächlich die Schmerzen des Übergangs von AI von “Toolbox” zu “AI-Ökosystem” wider. Die Branche befindet sich noch in der primitiven Phase, in der Werkzeuge an AI übergeben werden, anstatt eine echte AI-Kollaborationsinfrastruktur aufzubauen.
Deshalb ist es notwendig, den MCP zu entzaubern, aber man sollte auch den Wert als Übergangstechnologie nicht unterschätzen.
Willkommen in der neuen Welt.