Home / Android Nachrichten / So verwendet Google zwei Kameras für den Hochformatmodus von Pixel 4

So verwendet Google zwei Kameras für den Hochformatmodus von Pixel 4

Das größte Verkaufsargument für Googles Pixel 4 ist die Kameraleistung. Dies ist der Fall seit dem Erscheinen des ersten Pixels im Jahr 2016, und diese Überlegenheit setzt sich Jahr für Jahr fort. Das Pixel 4 ist das erste Pixel, das mit zwei Rückfahrkameras geliefert wird, einschließlich einer 12-Megapixel-Primärkamera und einer 16-Megapixel-Telekamera.

Zusätzlich zum Zoomen von weit entfernten Motiven können Sie mit dem Teleobjektiv auch Bilder aufnehmen bessere Porträtaufnahmen. In einem kürzlich im Google AI-Blog veröffentlichten Beitrag hat Google einige Zeit gebraucht, um zu erläutern, wie die verbesserten Porträtfotos von Pixel 4 hinter den Kulissen funktionieren.

Mit Pixel 2 und Pixel 3 erzielte Google Porträtfotos mit der Bezeichnung Pixel-Autofokus. " Dies wurde verwendet, um die Tiefe zwischen Objekten zu schätzen, wobei Google ausführlicher erklärte, dass dies folgendermaßen funktioniert:

Teilen jedes Pixels in zwei Hälften, sodass jedes halbe Pixel eine andere Hälfte der Apertur der Hauptlinse sieht. Wenn Sie jedes dieser Halbpixelbilder einzeln auslesen, erhalten Sie zwei leicht unterschiedliche Ansichten der Szene.

Mit einem zweiten Objektiv im Schlepptau kann Pixel 4 wesentlich mehr Details und Informationen erfassen, um bessere Porträtbilder zu ermöglichen . Google erklärt weiter:

Die Breitbild- und Teleobjektivkameras von Pixel 4 haben einen Abstand von 13 mm, der viel größer ist als die Dual-Pixel-Grundlinie. Daher erleichtert die größere Parallaxe die Abschätzung der Tiefe ferner Objekte. In den folgenden Bildern ist die Parallaxe zwischen den Doppelpixelansichten kaum sichtbar, während sie zwischen den Doppelkameraansichten offensichtlich ist.

Google stellt außerdem fest, dass das maschinelle Lernen erweitert wurde, um "die Tiefe aus beiden Doppelpixelansichten zu schätzen". Pixel und Doppelkameras "und dass beide getrennte Encoder durchlaufen und dann einen gemeinsamen Decoder, um das endgültige Foto zu erhalten. Dies ist der Prozess, bei dem Tiefenkarten analysiert werden, um festzustellen, was das Thema und was der Hintergrund ist, und nach all dem erhalten Sie ein knusprig aussehendes Porträt.

Darüber hinaus konnte Google den Bokeh-Effekt in verbessern die Porträtbilder von Pixel 4. Laut Hersteller:

Um diesen Bokeh-Effekt zu reproduzieren, haben wir jedes Pixel im Originalbild durch eine durchscheinende Scheibe ersetzt, deren Größe von der Tiefe abhängt. In der Vergangenheit wurde dieser Unschärfevorgang nach der Tonzuordnung durchgeführt, bei der rohe Sensordaten in ein Bild konvertiert werden, das auf einem Telefonbildschirm angezeigt werden kann. Die Tonwertzuordnung komprimiert den Dynamikbereich der Daten und hellt die Schatten im Verhältnis zu den Lichtern auf.

Dieser Prozess hat den Nachteil, dass Informationen über die Helligkeit verloren gehen. Um dem entgegenzuwirken, hat Google beschlossen, das von HDR + und erzeugte zusammengeführte Rohbild zu "verwischen" Wenden Sie dann das Tone-Mapping an. Zusätzlich zu den helleren und auffälligeren Bokeh-Disks wird der Hintergrund genauso gesättigt wie der Vordergrund. "

Möglicherweise werden Sie bei Verwendung von Pixel 4 nicht darüber nachdenken, aber Das ist es, was das Kameraerlebnis des Telefons in erster Linie so überzeugend macht. Diese unglaublichen Fotos werden rausgeschmissen, und Sie müssen nur den Auslöser drücken.

About AndroidWeltEditor

Check Also

Best Samsung SSDs 2020 | Android Central

To say the Samsung 970 PRO is a fast NVMe PCIe SSD would be an …

Leave a Reply

Your email address will not be published. Required fields are marked *