Google Maps bekommt ein neues Update - mit KI-Suche und neuer 3D-Navigation. Was sich ändert und wann das Update kommt.
Google hat eigenen Angaben zufolge das größte Navigations-Update seit über zehn Jahren für seinen Kartendienst Maps angekündigt. Die beiden neuen Funktionen "Ask Maps" und "Immersive Navigation" sollen die App grundlegend verändern.
Beide basierten auf Googles KI-Modell Gemini, wie der Konzern in einem Blogbeitrag mitteilt. Was sich für Nutzer konkret ändert und wann das Update kommt.
Was "Ask Maps" kann - und warum die Suche sich komplett verändert
Mit der neuen Funktion "Ask Maps" könnten Nutzer künftig komplexe Fragen in natürlicher Sprache stellen, statt wie bisher Stichwörter einzutippen, teilt der Konzern mit. Beispiele seien etwa: "Mein Handy ist fast leer - wo kann ich es laden, ohne lange für einen Kaffee anstehen zu müssen?" oder "Gibt es einen öffentlichen Tennisplatz mit Flutlicht, auf dem ich heute Abend spielen kann?"
Die KI greife dabei auf Daten von über 300 Millionen Orten zurück. Außerdem flössen Bewertungen von mehr als 500 Millionen Beitragenden in die Antworten ein. Die Ergebnisse würden zudem personalisiert: Wer etwa häufig vegane Restaurants suche, bekomme passende Vorschläge angezeigt. Jedoch zeigt Google nicht alle Bewertungen an.
Praktisch sei auch, dass sich aus den Ergebnissen direkt Aktionen ableiten ließen, heißt es im Blogbeitrag. Nutzer könnten Restaurantreservierungen vornehmen, Orte auf einer Liste speichern oder mit Freunden teilen und die Navigation mit wenigen Klicks starten. "Ask Maps" werde zunächst in den USA und Indien auf Android und iOS ausgerollt, eine Desktop-Version soll folgen.
Immersive Navigation: So sieht die neue 3D-Ansicht beim Fahren aus
Noch umfangreicher fällt laut Google das Update bei der Navigation selbst aus. Mit "Immersive Navigation" bekomme die Kartenansicht während der Fahrt eine komplett neue Optik. So zeige die Karte künftig eine 3D-Ansicht mit Gebäuden, Überführungen und dem Gelände. Einige Orte werden bei Google Maps jedoch absichtlich unkenntlich gemacht.
Bei Bedarf würden auch kritische Details wie Fahrspuren, Zebrastreifen, Ampeln und Stoppschilder hervorgehoben. Möglich mache das die Analyse von Street-View und Luftbildern durch Googles Gemini-Modelle. Auch die Sprachansagen seien überarbeitet worden und klängen nun natürlicher. Statt knapper Anweisungen sage die App beispielsweise: "Fahr an dieser Ausfahrt vorbei und nimm die nächste."