Google hat eine bedeutende Aktualisierung für seinen KI-Assistenten Gemini angekündigt, die die Personalisierung von Gesprächen verbessern soll. Wie Ars Technica berichtet, führt Google die Funktion „Personal Context“ ein, die es Gemini ermöglicht, Details aus früheren Chats zu speichern und darauf basierend relevantere Antworten zu liefern. Gleichzeitig wird eine neue „Temporary Chat“-Option eingeführt, die Nutzern mehr Kontrolle über ihre Daten gibt. Diese Änderungen spiegeln Googles Bestreben wider, Gemini zu einem „persönlichen, proaktiven und leistungsstarken Assistenten“ zu machen, während gleichzeitig Datenschutzbedenken adressiert werden.
„Personal Context“: KI, die sich an Nutzer erinnert
Die neue Funktion „Personal Context“ ist standardmäßig aktiviert und ermöglicht es Gemini, aus vergangenen Gesprächen zu lernen, indem es wichtige Details und Präferenzen speichert. Dies soll natürlichere und kontextbezogenere Interaktionen ermöglichen, ähnlich wie bei einem Gesprächspartner, der bereits mit den Interessen des Nutzers vertraut ist. Beispielsweise könnte Gemini, nach einer früheren Unterhaltung über japanische Kultur, bei einer Anfrage nach YouTube-Videoideen Inhalte wie „Meine erste Erfahrung mit japanischem Essen“ vorschlagen. Diese Funktion ersetzt die bisherige „Saved Info“-Option und baut auf Googles Vision auf, die auf der I/O-Konferenz 2025 vorgestellt wurde: einen KI-Assistenten zu schaffen, der den Nutzer individuell versteht.
Im Gegensatz zur früheren „Personalization“-Option, die auf Google-Suchverläufe zugreift und wenig Anklang fand, konzentriert sich „Personal Context“ auf vergangene Chats innerhalb der Gemini-App. Die Funktion startet zunächst für das Gemini 2.5 Pro-Modell in ausgewählten Ländern und soll in den kommenden Wochen auf das 2.5 Flash-Modell sowie weitere Länder (einschließlich der EU, Großbritannien und Schweiz) ausgeweitet werden. Nutzer können die Funktion jederzeit in den Einstellungen unter „Personal Context“ deaktivieren, und vergangene Chats können über die Gemini Apps Activity-Seite verwaltet oder gelöscht werden.
„Temporary Chats“: Datenschutz für einmalige Anfragen
Um Datenschutzbedenken entgegenzukommen, führt Google die „Temporary Chats“-Funktion ein. Diese ermöglicht es Nutzern, einmalige Gespräche zu führen, die nicht in den Chatverlauf aufgenommen, nicht zur Personalisierung verwendet und nicht zur Verbesserung von Googles KI-Modellen genutzt werden. Solche Chats werden maximal 72 Stunden gespeichert, um Antworten zu generieren und Feedback zu verarbeiten, und danach gelöscht. Die Funktion ist ideal für sensible Fragen oder Ideen, die außerhalb der üblichen Interessen liegen, und kann über ein neues Symbol im Sidepanel der Gemini-App aufgerufen werden. Die Einführung beginnt ebenfalls am 13. August 2025 und wird in den kommenden Wochen weltweit verfügbar sein.
Neue Datenschutzeinstellungen: „Keep Activity“
Parallel dazu wird die bisherige Einstellung „Gemini Apps Activity“ in „Keep Activity“ umbenannt. Wenn aktiviert, erlaubt diese Option Google, ab dem 2. September 2025 eine Stichprobe von hochgeladenen Dateien (z. B. Fotos oder Dokumente) zu verwenden, um seine Dienste zu verbessern. Diese Einstellung ist standardmäßig deaktiviert, bleibt aber für Nutzer, die zuvor „Gemini Apps Activity“ deaktiviert hatten, ebenfalls ausgeschaltet. Eine weitere neue Einstellung ermöglicht es, zu kontrollieren, ob Audio-, Video- oder Bildschirminhalte, die über das Mikrofon oder Gemini Live geteilt werden, zur Verbesserung der Dienste genutzt werden dürfen. Auch diese Option ist standardmäßig deaktiviert. Google betont, dass Transparenz und Kontrolle zentrale Elemente sind, um das Vertrauen der Nutzer zu gewinnen.
Potenzielle Risiken der Personalisierung
Während die Personalisierung die Nutzererfahrung verbessern kann, gibt es auch Bedenken. Wie Ars Technica hervorhebt, könnten zu „freundliche“ KI-Chatbots, die sich stark an Nutzer anpassen, falsche Vorstellungen verstärken oder zu übermäßiger Vertrautheit führen, was in einigen Fällen zu problematischem Verhalten bei Nutzern geführt hat. Zudem warnen Experten vor Sicherheitsrisiken: Die Speicherung von Nutzerdaten macht KI-Systeme zu potenziellen Zielen für Cyberangriffe. Beispielsweise wurde gezeigt, dass Gemini’s Speicher durch Techniken wie „delayed tool invocation“ manipuliert werden kann, bei denen bösartige Befehle in Dokumenten versteckt werden. Solche Schwachstellen verdeutlichen die Notwendigkeit robuster Sicherheitsmaßnahmen.
Konkurrenz und Ausblick
Die Einführung von „Personal Context“ und „Temporary Chats“ positioniert Gemini im Wettbewerb mit anderen KI-Assistenten wie OpenAI’s ChatGPT, Microsoft’s Copilot und Anthropic’s Claude, die ebenfalls Speicher- und Personalisierungsfunktionen eingeführt haben. Während OpenAI und xAI’s Grok auf durchgehende Speicherung setzen, verfolgt Anthropic einen nutzerinitiierten Ansatz, bei dem vergangene Chats nur auf Anfrage abgerufen werden. Googles „on-by-default“-Ansatz, gepaart mit klaren Abschalteoptionen, versucht, Personalisierung und Datenschutz in Einklang zu bringen. Dennoch bleibt die Debatte über Datensicherheit und Nutzerkontrolle aktuell, da die Branche nach intelligenten, aber sicheren KI-Lösungen strebt.
Die neuen Funktionen zeigen Googles Ambition, Gemini zu einem zentralen Bestandteil seines Ökosystems zu machen. Nutzer können jedoch selbst entscheiden, wie viel Personalisierung sie wünschen, während die neuen Datenschutzoptionen mehr Flexibilität und Transparenz bieten. Die Einführung dieser Features begann am 13. August 2025 und wird in den kommenden Wochen weltweit ausgerollt.
