Apple wird mit iOS 27 die Kamera-App um einen neuen „Siri“-Modus erweitern, der die Funktionen von Visual Intelligence direkt zugänglich macht, wie Bloomberg berichtet. Dieser Modus wird neben den klassischen Aufnahmemodi wie „Foto“, „Video“ oder „Porträt“ erscheinen und durch das Apple-Intelligence-Logo am Auslöser kenntlich sein. Bisher musste Visual Intelligence durch langes Drücken der Kamerasteuerung aktiviert werden, was vielen Nutzern und Nutzerinnen möglicherweise nicht bekannt war.
Der Siri-Modus bringt nicht nur eine bessere Sichtbarkeit, sondern auch erweiterte Möglichkeiten mit sich. So kann man künftig Nährwertangaben auf Lebensmittelverpackungen scannen, um Kalorien und Makronährstoffe automatisch in der Health-App zu erfassen. Zudem lässt sich die Funktion nutzen, um Kontaktdaten von Visitenkarten oder gedruckten Medien direkt in die Kontakte-App zu übernehmen.
Integration in weitere Apps
Visual Intelligence wird auch in anderen Bereichen des Systems eingesetzt: In der Wallet-App können Nutzer und Nutzerinnen beispielsweise physische Veranstaltungstickets oder Mitgliedskarten scannen, um digitale Versionen zu erstellen. Die Technologie bleibt zudem in der Lage, Objekte wie Pflanzen oder Tiere zu identifizieren, Termine in den Kalender zu übertragen oder visuelle Informationen an externe Dienste wie ChatGPT oder die Google-Bildersuche zu senden.
Der Zugriff auf die überarbeiteten Visual Intelligence-Funktionen erfolgt künftig über die Kamerasteuerung, wobei sich dann die Siri-Oberfläche in der Kamera-App öffnet. Dies ersetzt die bisher eigenständige Visual Intelligence-Erfahrung und soll für eine nahtlosere Nutzererfahrung sorgen.
Erste Hinweise auf die neuen Funktionen entdeckte der bekannte Apple-Blog MacRumors bereits Mitte April im Apple-Code. Die offizielle Vorstellung von iOS 27 ist für die Worldwide Developers Conference (WWDC) geplant, die am Abend des 8. Juni 2026 mit der üblichen Software-Keynote beginnt.


„Apple integriert Visual Intelligence in die Kamera-App von iOS 27“
Nö, das muss „soll … integrieren“ heißen, denn es sind keine Fakten, sondern nur Bloomspinste.
Ich lese mittlerweile jeden Tag von irgendwelchen KI-Funktionen, die Apple irgendwo integrieren möchte. Und dann spreche ich mit Siri und denke mir, okay, warten wir mal ab. Apple selbst hat ja bisher auch nur angekündigt und nichts geliefert.