Auf seiner alljährlichen Entwicklerkonferenz, I/O 2025, hat Google seit gestern eine Vielzahl neuer Funktionen angekündigt, die Nutzer von Google-Produkten im Laufe des Jahres erwarten dürfen. Die Integration von KI und im speziellen Gemini steht bei allen Neuerungen im Vordergrund. Im Beitrag findet ihr alle neuen Funktionen auf einen Blick.
Starten wir mit Gemini: Zunächst einmal gibt es ein Update in Bezug auf die Tarife zur Nutzung der Google-KI. Der Tarif „AI Premium“ heißt künftig „Google AI Pro“ und soll zum gleichen Preis angeboten werden, wie bisher. Allerdings soll die Anzahl der Anfragen pro Monat erhöht werden. Zudem plant Google, auch für diesen Tarif weitere neue Funktionen verfügbar zu machen.
Zusätzlich wird es einen neuen Google-AI-Ultra-Tarif geben, der 249,99 US-Dollar monatlich kosten soll und euch die maximal mögliche Anzahl an Anfragen und frühen Zugang zu den neuesten Funktionen von Gemini verschaffen soll.
Zudem hat es Gemini 2.5 Flash nun aus der Testphase geschafft und steht fortan für alle Gemini-Abonnenten zur Nutzung bereit. Das neue, verbesserte Reasoning-Modell „Gemini 2.5 Deep Think“ soll führend im Bereich Mathematik, Code und Multimodalität sein. Es wird, zumindest laut derzeitiger Planung, aber nur für Google-AI-Ultra-Abonnenten verfügbar sein.
Imagen wird in Version 4 veröffentlicht und verfügt nun über eine verbesserte Detail- und Textausgabe. Veo 3, das native Audiogenerierung für Videos bietet, wird in Google AI Ultra enthalten sein, wenn auch vorerst nur in den USA. Zusätzlich wird auch Canvas in Gemini integriert, sodass Nutzer Infografiken, Quizfragen oder auch Podcasts mit Gemini erzeugen können. „Deep Research“ kann fortan mit eigenen PDF- und Bilddateien gefüttert werden. Auch KI-Agenten wird es geben, die zum Beispiel Aufgaben erledigen können, indem sie sich im Internet bewegen.
In der iOS-App kommen Gemini-Live-Kamera und Bildschirmfreigabe hinzu. Diese beiden Funktionen sind für Android-Nutzer bereits verfügbar. Apps wie Kalender, Keep, Maps und Tasks werden in den nächsten Wochen zudem mit Support für Gemini Live ausgestattet.
Google Suche
Alle US-Nutzer der Google-Suche erhalten Zugriff auf einen neuen KI-Modus, der es ermöglicht längere und komplexere Anfragen zu stellen. Auch Anschlussfragen sind möglich, um die Komplexität der Anfrage zu erhöhen. Dieser Modus wird als separater Tab in der Google-Suche angeboten.
Der KI-Modus soll außerdem bald in der Lage sein, euren persönlichen Kontext in eure Suchanfragen miteinzubeziehen. Dieser ergibt sich aus dem Zugriff auf euren Gmail-Account. Auch benutzerdefinierte Grafiken und Diagramme lassen sich mit dem KI-Modus erzeugen. Auch eine „Deep Search“ genannte Funktion, die Deep Research ähnelt, soll der Google-Suche hinzugefügt werden. Ebenso soll eine Search-Live-Funktion kommen.
Die KI-Agenten können euch zudem bei Arbeitsaufträgen helfen wie: „Finde 2 günstige Tickets für das Spiel der Reds am Samstag im Untergeschoss“. Dann kann Google auch den Ticketkauf tätigen und eine Reservierung in einem nahegelegenen Restaurant vornehmen. Auch andere Produkte können mit der „Kauf für mich“-Funktion erworben und mit Google Pay automatisch bezahlt werden.
Auch Kleidung sollt ihr virtuell anprobieren können, wenn ihr ein Foto von euch hochladet. Dabei sollen die Stoffe und ihre Eigenschaften bei der digitalen Anprobe einbezogen werden.
Google Workspace
Gmail erhält eine personalisierte smarte Antwortfunktion, Posteingang-Cleanups und automatische Meeting-Planung über die Kalendar-Integration. In Google Meet wird eine Live-Übersetzungsfunktion eingebaut. Google Docs erhält ein Gemini-Panel und Imagen 4. Letzteres wird auch für Google Slides und Vids und weitere Workspace-Apps verfügbar sein. Google Vids ermöglicht es euch, Videos aus Slides zu erstellen.
Weitere Neuheiten
HP wird das erste Google-Beam-Gerät herstellen, das eine „KI-gestützte 3D-Videokommunikationsplattform“ ist. Android XR Glasses sind ebenfalls in der Entwicklung.
Google Flow ermöglicht künftig das Generieren ganzer Filme. Und Google SynthID Detector soll Nutzern dabei helfen, KI-generierte Inhalte zu erkennen.
Auch für App-Entwickler ist einiges dabei. Etwa ein persönlicher Code-Assistent namens Jules, der euch beim Schreiben von Tests etc. helfen kann, sowie ein Android-Studio, das nun mit Gemini 2.5 Pro ausgestattet sein wird.
Was haltet ihr von all den KI-gestützten Neuerungen, die Google in petto hat?
Ist mir echt schleierhaft, wie die Menschheit ohne KI bis jetzt überlebt hat…
Bin schon überfordert mir zu merken, was ich wofür benutzen kann 😂