iPhone 12: Apple-Team äußert sich zum Kamera-Design und den neuen Modellen

Interview mit PetaPixel

Die iPhone Product Line Managerin Francesca Sweet und Apples Camera Software Engineering Vice President Jon McCormack haben dem Magazin PetaPixel ein Interview gegeben und äußerten sich dort zu Apples Kamera-Design und -Entwicklung. Die beiden betonten, dass man das Kamerasystem bei Apple als Einheit von Hard- und Software sieht.

So würde es laut PetaPixel nicht nur um den Sensor und die Objektive, sondern auch um alles andere, vom A14 Bionic Chip von Apple über die Bildverarbeitung bis hin zur Software für die Computerfotografie, gehen. Das Ziel der Smartphone-Fotografie liege dabei in der Idee, den Menschen zu ermöglichen, ihr Leben ohne technische Ablenkungen ablichten zu können. So berichtet Jon McCormack:


„Als Fotografen müssen wir oft über Dinge wie ISO, Motivbewegungen usw. nachdenken. Und Apple möchte diese Gedanken entfernen, damit die Leute im Moment bleiben, ein großartiges Foto machen und zurückkehren können zu dem, was sie tun.“

Auch der Prozess von professionellen Fotografen, das Finetuning und Editing, soll mit Apples Kamerasystem zu einem simplen Prozess minimiert werden.

„Wir bilden so viel wie möglich nach, was der Fotograf in der Nachbearbeitung tun wird. Das Fotografieren hat zwei Seiten: Die Belichtung und wie Sie sie anschließend entwickeln. Im Belichtungsprozess verwenden wir viel Computerfotografie, aber zunehmend mehr in der Nachbearbeitung, die automatisch für den Nutzer abläuft. Das Ziel ist es, Fotos zu machen, die dem Leben mehr entsprechen, und zu reproduzieren, wie es tatsächlich dort war.“

Laut Jon McCormack geschieht dies über Machine Learning, um eine Szene in einfacher verständliche Teile aufzubrechen. Vor allem in der Smart HDR-Technologie von Apple hat es schon einige bedeutende Fortschritte gegeben.

„Hintergrund, Vordergrund, Augen, Lippen, Haare, Haut, Kleidung, Himmel. Wir verarbeiten all diese unabhängig voneinander wie in Lightroom mit einer Reihe lokaler Anpassungen. Wir passen Belichtung, Kontrast und Sättigung an und kombinieren sie miteinander. Es ist bekanntermaßen schwierig, den Himmel richtig abzubilden, und mit Smart HDR 3 können wir den Himmel segmentieren und völlig unabhängig behandeln und ihn dann wieder einblenden, um originalgetreuer wiederzugeben […].“

Andere schwierige Situationen für Fotografen sind Low Light-Szenen, die ohne viel natürliches Licht auskommen, beispielsweise in Restaurants oder Bars. Hier hat Apple laut Francesca Sweet dank des eigenen Night Modus, der auf Smart HDR basiert, bereits einige Erfolge erzielt. Sweet berichtet:

„Die neue Weitwinkelkamera und verbesserte Bildfusionsalgorithmen sorgen für weniger Rauschen und bessere Details. Mit dem [iPhone 12] Pro Max können wir das noch weiter ausbauen, da wir mit dem größeren Sensor mehr Licht in kürzerer Zeit erfassen können, was nachts zu einem besseren Einfrieren der Bewegung führt.“

Im Hinblick auf die Tatsache, dass Apple nur beim iPhone 12 Pro Max einen größeren Kamerasensor gab es ebenfalls eine Stellungnahme von den Apple-Managern. Jon McCormack lässt dazu verlauten:

„Sie können sich natürlich für einen größeren Sensor entscheiden, der Probleme mit dem Formfaktor aufweist, oder Sie können ihn von einem ganzen System aus betrachten, um zu fragen, ob es andere Möglichkeiten gibt, die Qualität zu erreichen. Wir denken darüber nach, was das Ziel ist – und das Ziel ist nicht, einen größeren Sensor zu haben, mit dem wir angeben können. Das Ziel ist zu fragen, wie wir unter mehr Bedingungen, in denen sich Menschen befinden, schönere Fotos aufnehmen können. Dieses Denken führte zu Deep Fusion, einem Nachtmodus und einer zeitorientierten Bildsignalverarbeitung.“

Das gesamte Interview mit Francesca Sweet und Jon McCormack lässt sich auf der Website von PetaPixel im englischen Original nachlesen.

Anzeige

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

Copyright © 2021 appgefahren.de