Schon in der Vergangenheit wurde viel ĂŒber neue KI-Features in Apples Hardware spekuliert. WĂ€hrend der WWDC 2024-Keynote haben Tim Cook und Craig Federighi nun diese Funktionen vorgestellt, die unter dem Namen „Apple Intelligence“ versammelt sind.
„Wir wollen sicherstellen, dass das Ergebnis die Prinzipien widerspiegelt, die den Kern unserer Produkte ausmachen“, so Cook, als er Apples KI-VorstoĂ ankĂŒndigt. „Sie muss leistungsstark, intuitiv und tief integriert sein. Am wichtigsten ist, dass sie dich versteht“, sagte er. „Und natĂŒrlich muss der Datenschutz von Anfang an berĂŒcksichtigt werden. Es geht ĂŒber kĂŒnstliche Intelligenz hinaus“, sagte Cook. „Es ist der nĂ€chste groĂe Schritt fĂŒr Apple.“ Bei Apple Intelligence soll es sich um ein neues persönliches Intelligenzsystem handeln, das die eigenen persönlichen Produkte noch angenehmer zu bedienen machen soll.
Craig Federighi erklĂ€rt, dass das Unternehmen seit langem auf diesen Moment hingearbeitet habe. Tools, die heute existieren, wissen „sehr wenig ĂŒber dich oder deine BedĂŒrfnisse“. Mit iOS 18, iPadOS 18 und macOS Sequoia soll es anders sein: Apple Intelligence wird auf die persönlichen Daten zurĂŒckgreifen, um Erlebnisse auf diesen Plattformen zu liefern.
Apple bot auch einen genaueren Blick auf die Funktionen von Apple Intelligence, dann auf die Funktionsweise und schlieĂlich darauf, wie es in der tĂ€glichen Praxis eingesetzt werden kann. Apple Intelligence wird mit iPhone, iPad und Mac funktionieren. Es wird den persönlichen Kontext verstehen, angefangen bei Sprache und Text.
Sprachmodelle auch in Drittanbieter-Apps
Die Sprachmodelle in Apple Intelligence werden es ermöglichen, Dinge wie Benachrichtigungen zu lesen und dabei helfen, wichtige Benachrichtigungen zu priorisieren und Ablenkungen zu minimieren. AuĂerdem wird es systemweit neue Schreibwerkzeuge geben, die Texte umschreiben, Korrektur lesen und zusammenfassen.
Diese Werkzeuge können in Mail, Notizen, Safari, Pages, Keynote und Drittanbieter-Apps verwendet werden. Es wird auch UnterstĂŒtzung fĂŒr Bilder und Emojis geben. Man wird in der Lage sein, neue Bilder zu erstellen, um „alltĂ€gliche Unterhaltungen angenehmer zu gestalten“. Wenn man beispielsweise einem Freund zum Geburtstag gratuliert, kann man ein Bild mit einem Kuchen erstellen. Bilder lassen sich in drei Stilen erstellen: Skizze, Illustration und Animation. Diese Funktion soll ist in allen Anwendungen des Systems wie Notizen, Freeform und Seiten integriert werden.
Apple Intelligence kann in allen Apps aktiv werden: Sie wurde so konzipiert, dass sie auf vorhandene Tools zugreift, um Aufgaben im eigenen Namen auszufĂŒhren. Man kann beispielsweise sagen: „Zeig mir alle Fotos von Mama, Olivia und mir“ oder bestimmte Podcasts abspielen, je nachdem, wann man sie zuletzt abgespielt hat.
Apple Intelligence „basiert auf deinen persönlichen Informationen und Ihrem Kontext“, da es in der Lage ist, Daten aus Apps oder auf dem Bildschirm abzurufen, beispielsweise dem Kalender. Daten mĂŒssen nicht aus der Hand gegeben werden, damit sie gespeichert und analysiert werden. Apple Intelligence ist, wie viele andere Produkte des Unternehmens, auf den Datenschutz ausgerichtet. Die Verarbeitung auf dem GerĂ€t ist die Grundlage fĂŒr Apple Intelligence. Es wird die eigenen persönlichen Daten kennen, ohne sie zu sammeln, so Federighi. Apple Intelligence durchsucht Apps, um relevante Daten zu finden, und leitet diese an andere Apps weiter, um optimal zu unterstĂŒtzen.
Federighi möchte die PrivatsphĂ€re des iPhones auf die Cloud ausdehnen, „um noch mehr Intelligenz fĂŒr dich freizusetzen“, und so kĂŒndigt Private Cloud Compute an. Damit kann das Unternehmen Serverleistung fĂŒr fortschrittlichere Verarbeitungsprozesse nutzen und gleichzeitig die PrivatsphĂ€re und Sicherheit des iPhones wahren. Wenn man eine Anfrage stellt, analysiert Apple Intelligence, ob sie auf dem GerĂ€t verarbeitet werden kann, und sendet nur Daten, die fĂŒr die Aufgabe relevant sind, zur Verarbeitung an die Apple-Server.
Apple Intelligence mit Siri
Apple Intelligence wird unter anderem mit Siri funktionieren. Siri wurde vor 13 Jahren auf den Markt gebracht und macht mit KI-Funktionen jetzt einen „groĂen Schritt nach vorn“. Sie wird natĂŒrlicher, relevanter und persönlicher werden, ist tiefer in die Systemerfahrung integriert, leuchtet jetzt die RĂ€nder des iPhones aus und kann auch damit umgehen, wenn man wĂ€hrend eines Befehls etwas falsch sagt.
Apple stĂŒtzt sich auch auf das Wissen von Siri bezĂŒglich der eigenen Produkte. Man kann Siri fragen, wie man jetzt eine Nachricht schreiben und morgen zustellen kann, und Siri zeigt Anweisungen zur Verwendung von „Geplantes Senden“ in „Nachrichten“ an.
Siri hat jetzt auch ein Bewusstsein auf dem Bildschirm. Wenn ein Freund eine SMS mit seiner Adresse schickt, kann man Siri bitten, sie zu seiner Kontaktkarte hinzuzufĂŒgen. Der Sprachassistent wird in der Lage sein, applikationsĂŒbergreifend Aktionen auszufĂŒhren. Man kann ein Foto verfeinern oder es in ein Notizen-Dokument einfĂŒgen. Dies alles ist Teil der Upgrades rund um „App Intents“, die Entwicklern und Entwicklerinnen helfen können, Absichten innerhalb ihrer Software zu definieren.
Siri und Apple Intelligence in Mail
Apple berichtete auch darĂŒber, wie Siri mit systemweiten Tools funktioniert. Der erste Punkt ist Mail: Man kann E-Mails neu schreiben und sich verschiedene Versionen vorschlagen lassen und dann die bevorzugte auswĂ€hlen. Die VorschlĂ€ge werden inline angezeigt, so dass man diejenige auswĂ€hlen kann, die sich am besten einfĂŒgt. AuĂerdem kann man mit Rewrite den Tonfall verbessern. Man kann versuchen, freundlicher, professioneller oder prĂ€gnanter zu klingen.
Auch Hobby-Poeten können sich freuen: Man kann auch etwas in ein Gedicht umschreiben. Korrekturlesen ist eine weitere Funktion, die bei Grammatik und Zeichensetzung hilft. Man kann einzelne vorgeschlagene Ănderungen annehmen oder alle auf einmal akzeptieren. Mit Summarize schlieĂlich lassen sich Kurzfassungen erstellen, die man am Anfang langer E-Mails einfĂŒgen kann.
Im Posteingang werden auĂerdem bessere Vorschauen fĂŒr jeden Brief mit KI-generierten Zusammenfassungen angezeigt. Man erhĂ€lt auĂerdem eine Vorschau am Anfang jeder E-Mail, so dass man weniger Zeit mit Ăberfliegen und Scrollen verbringen mĂŒssen. E-Mails mit hoher PrioritĂ€t werden ebenfalls besser angezeigt.
Priorisierungen fĂŒr Benachrichtigungen
Diese Priorisierung wird auch fĂŒr Benachrichtigungen gelten. PrioritĂ€tsbenachrichtigungen werden weiter oben angezeigt und zusammengefasst. Wenn man also von 100 WhatsApp-Pings geweckt wird, erhĂ€lt man eine Zusammenfassung, die mitteilt, dass sich beispielsweise ein Freund verlobt hat.
Sich ausdrĂŒcken mit Apple Intelligence
Apps wie Keynote oder Drittanbieter-Optionen können helfen, sich besser auszudrĂŒcken. In iMessage kann man mit Genmoji benutzerdefinierte Emoji erstellen. Sie werden auf dem GerĂ€t erstellt und sie lassen sich ĂŒber die Tastatur kreieren. Man kann zum Beispiel eine Beschreibung ĂŒber rĂŒpelhafte Eichhörnchen oder skateboardfahrende Dinosaurier eingeben. Zudem lĂ€sst sich auch ein Kontakt benennen und dessen Avatar im eigenen Genmoji verwenden.
Neue App: Image Playground
Es gibt auch ein neues Systemerlebnis namens Image Playground inklusive einer eigenen gleichnamigen App, mit dem man in Sekundenschnelle verspielte Bilder erstellen kann. Image Playground ist auch in Apps wie Messages integriert. Zu Beginn kann man aus Themen, KostĂŒmen, Orten und mehr auswĂ€hlen. Wenn man eines auswĂ€hlst, wird es zum eigenen Spielplatz hinzugefĂŒgt. Sekunden spĂ€ter erhĂ€lt man eine Vorschau darauf, wie das Bild aussehen könnte – eine Art visueller Mix-and-Match-Komposition.
Wenn man eine bestimmte Idee im Kopf hat, kann man eine Beschreibung eingeben, um sie der eigenen Spielwiese hinzuzufĂŒgen, und man kann einen Stil wĂ€hlen sowie angeben, ob es sich um eine Animation, Skizze oder Illustration handelt. AuĂerdem lĂ€sst sich zurĂŒckgehen und auch frĂŒher erstellte Bilder ansehen. Man kann auch Bilder erstellen, die auf eigenen Fotos basieren, und das Aussehen eines Freundes oder einer Freundin aus Bildern von ihm oder ihr erstellen.
Bildbearbeitung mit Apple Intelligence
Auch die Fotobearbeitung erhĂ€lt ein Update von Apple Intelligence. Das neue Cleanup-Tool Ă€hnelt im Grunde Googles Magic Eraser und wird Ablenkungen im Hintergrund der Bilder beseitigen. Man wird auch in der Lage sein, Fotos und Videos besser zu durchsuchen, indem man bestimmte Beschreibungen eingeben, beispielsweise „Maria rollt auf dem Rasen“ oder jemanden, der Aufkleber im Gesicht hat, um diese speziellen Momente zu finden.
Das Durchsuchen der eigenen Bilder, um Videos und Erinnerungen zu erstellen, kann mĂŒhsam sein, wenn man eine Menge Fotos aus Ihrem Urlaub angesammelt hat. Apple Intelligence kann dabei helfen, die besten Fotos und Videos auszuwĂ€hlen, eine Geschichte mit Kapiteln zu erstellen, die auf den in Ihren Bildern erkannten Themen basieren, und Hintergrundmusik und ĂbergĂ€nge hinzuzufĂŒgen.
ChatGPT-Integration und Release
Apple Intelligence ist kostenlos fĂŒr iOS 18, iPadOS 18 und macOS Sequoia verfĂŒgbar. Man wird auch eng mit OpenAIs ChatGPT zusammenarbeiten, und die Tools in die neuen Betriebssysteme integrieren. Auf diese Weise soll das Hin- und Herspringen zwischen Services und Apps vermieden werden. Die ChatGPT-Integration wird im Laufe des Jahres in alle neuen Betriebssysteme von Apple integriert und ist fĂŒr alle Apple-User ohne das Anlegen eines OpenAI-Accounts kostenlos.
Apple macht es darĂŒber hinaus Entwicklern und Entwicklerinnen leicht, KI-Funktionen zu integrieren. Wenn man bereits SiriKit verwendet hat, muss man nicht viel zusĂ€tzliche Arbeit leisten, um die neuen KI-Funktionen von Siri zu nutzen. „Das ist AI fĂŒr den Rest von uns“, sagt Federighi. Apple Intelligence wird in einer Betaversion mit iOS 18, iPadOS 18 und macOS 15 Sequoia im Herbst eingefĂŒhrt und soll kontinuierlich weiterentwickelt werden.
Wunderbar, da bin ich ja mit all meinen, nicht wirklich alten GerĂ€ten, raus. Nicht eines davon wĂŒrde dann von Apple Intelligence unterstĂŒtzt. MĂŒsste dann mein ganzes Equipment erneuern. Einen Dukatenscheis… brĂ€uchte man da. đ
Auch wenn ich mich wiederhole… „Meine Stimme“ in Deutsch ist mit iOS 17 bis heute nicht umgesetzt worden.
Apple zur Vorstellung damals „zunĂ€chst nur auf Englisch“
Ja ich denk mal das Thema hat sich aufgrund der ChatGPT Integration erstmal erledigt bzw. verschoben.
Da diese Funktion „Meine Stimme“ eine Apple eigene Kreation war als sie noch auf dem Pfad waren mit eigener KI.
Mit der Zusammenarbeit mit ChatGPT wird sich das aber verloren haben…
Ich habe echt wenig erwartet, aber das hier ist echt schwach . A) sind sie bei weitem nicht fertig , andere Sprachen im nĂ€chsten Jahr đ, B) nichts bahnbrechendes C) passt zu den restlichen Updates . So schwach war es schon lange nicht mehr . Und dieser Gurman erzĂ€hlt etwas von dem gröĂten Update jemals đ
Sehe ich irgendwie anders. Wenn das so funktioniert, wie sie es anpreisen, dann ist das meiner Meinung nach absolut top integrierte KI, wie man sie sonst bis jetzt noch nirgends findet.
Dann schauen wir mal nĂ€chstes Jahr, wenn es in unserer Sprache verfĂŒgbar ist
Ja ich bin gespannt âșïž
Endlich werden unsere Daten genutzt um die KI zu verbessern! Das finde ich gut!
Auch wenn Apple sagt das alles bei privat, wetten wir die trauen sich nicht gesetzlich zu verpflichten? Ein wir machen das nicht versprochen reicht aus. đ
Im Artikel steht iOS 18, iPadOS 18 oder das neue macOS als Vorgabe. Apple hat aber klar gemacht, dass es auch iPhone 15 Pro oder ein iPad mit M-Chip braucht. Das ist das gröĂte Hindernis wohl, da man mit iPhone 15 und jedem GerĂ€t davor raus ist. iOS 18 wird sicher viel weiter verbreitet sein