Google hat am 10. April über den offiziellen X-Account von Gemini bekannt gegeben, dass Gemini jetzt die von Nutzern gestellten Fragen und komplexen Konzepte in Echtzeit in anpassbare interaktive Visualisierungen umwandeln kann, die direkt in die Chat-Oberfläche eingebettet werden. Nutzer können Variablen anpassen, 3D-Modelle rotieren und Daten erkunden, um ein immersiveres Erlebnis für Lernen und Forschung zu ermöglichen.
Funktions-Highlights: interaktive Diagramme und 3D-Modelle in Echtzeit generieren
Laut einer von Gemini veröffentlichten Demo-Videovorführung ist diese neue Funktion dafür da, dass KI-Dialoge nicht mehr auf reine Textantworten beschränkt sind. Wenn Nutzer Fragen stellen, die räumliche Strukturen, Datenverteilungen oder komplexe Systeme betreffen, kann Gemini automatisch interaktiven Visualisierungsinhalt erzeugen, der in den Nachrichtenfluss des Chats eingebettet wird.
Konkret unterstützt die neue Funktion drei große interaktive Bedienvorgänge: Zunächst können Nutzer Parameter anpassen und so die Änderungen der Visualisierungsdiagramme in Echtzeit beobachten, z. B. indem sie Winkel oder Geschwindigkeitsparameter im physikalischen Modell ändern; zweitens unterstützt sie das Rotieren und Zoomen von 3D-Modellen, sodass Nutzer Molekülstrukturen, Geländemodelle oder Gebäudedesigns aus mehreren Blickwinkeln betrachten können; drittens bietet sie eine Funktion zur Datenerkundung, bei der Nutzer auf den Diagrammen interaktiv arbeiten können, um detaillierte Informationen zu bestimmten Datenpunkten noch genauer zu untersuchen.
Gemini fügt interaktive Visualisierungsfunktionen hinzu, mit denen man 3D-Modelle drehen und Variablen anpassen kann (Bildquelle: Google) Anwendungsfälle: komplexe Konzepte lernen, Datenanalyse und wissenschaftliche Erkundung
Der Einsatzbereich dieser Funktion ist recht breit. In Bildungs- und Lernszenarien können Schüler von Gemini verlangen, ein 3D-Modell der DNA-Doppelhelixstruktur darzustellen, um durch Drehen und Zoomen ein tieferes Verständnis der Molekülstruktur zu gewinnen; in Szenarien der Datenanalyse können Forscher komplexe Datensätze in interaktive Diagramme umwandeln, um Trends und Ausreißer in den Daten intuitiv zu erkennen.
Für wissenschaftliche Erkundungen hat diese Funktion noch mehr Durchbruchsbedeutung. Früher konnten Nutzer Gemini nur Textbeschreibungen entlocken; jetzt können sie visuelle Modelle direkt steuern, z. B. Satellitenaufnahmen der Erdoberfläche ansehen oder die Planetenbahnen im Sonnensystem erkunden. Diese Umstellung von „Lesen“ zu „Interagieren“ steigert die praktische Nutzbarkeit von KI als Werkzeug für Lernen und Forschung erheblich.
Kopplungs-Effekt bei der Integration mit NotebookLM: Google gestaltet einen vollständigen KI-Wissensarbeitsablauf
Bemerkenswert ist, dass Google innerhalb derselben Woche gleich zwei große Updates veröffentlicht hat. Neben der interaktiven Visualisierungsfunktion von Gemini kündigte NotebookLM am Vortag auch offiziell die Integration in die Gemini App an, sodass Notebooks und KI-Dialoge bidirektional miteinander verbunden sind.
Betrachtet man beide Updates zusammen, beschleunigt Google offenbar den Aufbau eines vollständigen KI-Wissensarbeitsablaufs: Nutzer können in NotebookLM ihre Forschungsunterlagen strukturieren, über Gemini eine tiefgehende Dialoganalyse durchführen und die interaktive Visualisierung nutzen, um abstrakte Konzepte greifbar zu machen. Der gesamte Prozess bildet eine nahtlos verbundene Wissensproduktionskette – von der Datenerhebung über die Analyse bis zur visuellen Darstellung.
Das spiegelt auch einen Richtungswechsel in Googles KI-Produktstrategie wider – weg vom Funktionswettbewerb einzelner Tools hin zum Aufbau eines KI-Ökosystems, das miteinander verknüpft ist, und zur Differenzierung durch den Vorteil eines insgesamt besseren Nutzererlebnisses gegenüber Wettbewerbern wie OpenAI, Microsoft und anderen.
Dieser Artikel „Gemini fügt interaktive Visualisierungsfunktionen hinzu, unterstützt das Rotieren von 3D-Modellen und die Datenerkundung“ ist zuerst erschienen in Liannews ABMedia.