In neuem Systemcode für das kommende Betriebssystem iOS 27 wurden Hinweise auf vier neue Funktionen der Apple Intelligence-Plattform gefunden. Der Code wurde zuvor vom argentinischen Entwickler Nicolás Alvarez entdeckt und von MacRumors bestätigt. Diese Entdeckungen deuten darauf hin, dass Apple die eigene künstliche Intelligenz stärker in bestehende Systemanwendungen integrieren möchte, wobei der Fokus insbesondere auf der Erweiterung der visuellen Erkennungsfähigkeiten liegt.
Ein zentraler Aspekt der neuen Entwicklungen ist die Weiterentwicklung von „Visual Intelligence“. Der Code lässt vermuten, dass Nutzer und Nutzerinnen zukünftig Nährwertetiketten scannen können, um detaillierte Informationen direkt in der Gesundheits-App abzurufen. Zusätzlich soll die Funktion erweitert werden, um gedruckte Telefonnummern und Adressen aus der realen Welt automatisch in die Kontaktliste zu übertragen. Diese Erweiterungen passen zu den aktuellen Gerüchten, wonach Apple an KI-fähigen Wearables wie Smart-Brillen oder AirPods mit Kameras arbeitet, die auf solche visuellen Daten angewiesen sind.
Auch die Wallet-App könnte durch künstliche Intelligenz aufgewertet werden. Die Analyse des Codes deutet darauf hin, dass die Anwendung in der Lage sein könnte, digitale Ausweise basierend auf Fotos physischer Karten zu erstellen. Dies würde Funktionen für Veranstaltungstickets, Fitnessstudio-Mitgliedskarten oder ähnliche Dokumente umfassen. Ein ähnlicher Ansatz wird bereits von Google Wallet für Android genutzt: Dort wird KI eingesetzt, um Inhalte von Passdokumenten zu extrahieren und digital zu hinterlegen.
Neue KI-Funktion auch in Safari

Im Bereich des Webbrowsers Safari wurde eine weitere automatische KI-Funktion identifiziert. Demnach soll das System in der Lage sein, Tab-Gruppen automatisch zu benennen, basierend auf dem Inhalt der darin enthaltenen Webseiten. Diese Funktion zielt darauf ab, die Organisation von Browser-Tabs zu vereinfachen und den Usern einen schnelleren Überblick über ihre offenen Sitzungen zu verschaffen, ohne dass manuelle Eingriffe erforderlich sind.
Obwohl die Entschlüsselung des Codes konkrete Hinweise liefert, bleibt die endgültige Funktionsweise und der genaue Release-Zeitpunkt dieser Features noch ungewiss. Es ist möglich, dass einige der Funktionen erst in späteren Updates oder unter leicht abweichenden Bezeichnungen erscheinen. Apple wird iOS 27 voraussichtlich im Juni auf der Worldwide Developers Conference (WWDC) offiziell vorstellen, gefolgt von der allgemeinen Verfügbarkeit im September parallel zur Einführung neuer iPhone-Modelle.

Apple gerät zum Thema KI immer in den Hintergrund.
M.M
Nachtrag:
sollte heißen, „immer mehr…“
Apple hat vor die KI-Funktionen offline auf den Geräten zu machen und eben nicht in die Cloud zu senden oder gar weiter zu verarbeiten bzw. Daten zu verkaufen. Dazu sollen noch die Apps über KI bedient werden können, was wohl nicht einfach umzusetzen ist. Dafür können die sich echt länger Zeit lassen, damit habe ich kein Problem, wenn die Umsetzung dann gut und offline ist. Apple war bei solchen Dingen noch nie vorne dran, holten aber mit der besseren Umsetzung am Ende auf.
Ich habe KI im Beruf bei Windows, nutze aber inzwischen schon mehr KI privat bei Apple. Die Textfunktionen finde ich klasse umgesetzt, ebenso die Bildbearbeitung. Das mit den Emoji-Erstellung ist allerdings quatsch.
👍🏻