Das Google Pixel 2 verfügt über eine der besten Kameras, die Sie derzeit in einem Smartphone erhalten können. Im Allgemeinen gelten diese Bewertungen für „beste Kamera“ jedoch nur für die Standard-Kamera-App. Google ändert dies dank des „Pixel Visual Core“ - eines benutzerdefinierten Bildverarbeitungschips. Aber was macht dieser Chip?

Zuerst lassen Sie uns über HDR sprechen

Um zu verstehen, warum der Visual Core so wichtig ist, müssen Sie sich mit der High Dynamic Range-Fotografie (kurz HDR) vertraut machen. Grundsätzlich hilft HDR dabei, die Beleuchtung eines Fotos auszugleichen und es natürlicher erscheinen zu lassen. Dunkelheiten sind nicht zu dunkel und Lichter sind nicht zu hell.

Dies ist vor allem in einigen Situationen ein Problem: Wenn der Hintergrund hell und der Vordergrund dunkel ist (wie ein Familienfoto bei hellem Sonnenschein) oder in Situationen mit schwachem Licht. HDR (oder wie Google es auf dem Telefon als "HDR +" bezeichnet) ist bereits seit dem Nexus 5 auf Google-Handys verfügbar, um dem entgegenzuwirken. Daher ist es seit einiger Zeit Teil der Google Camera.

Dies ist wichtig zu beachten, da HDR zwar keine neue Funktion für Pixel 2 ist, seine Verfügbarkeit jedoch nicht mehr auf die integrierte Kamera-App beschränkt ist. Aus diesem Grund gibt es den Visual Core bereits: Um App-Entwicklern von Drittanbietern die Möglichkeit zu geben, die Möglichkeiten von HDR in ihren Anwendungen einfach über die Android-Kamera-API zu nutzen.

Okay, was ist der visuelle Kern?

Kurz gesagt, der Visual Core ist ein maßgeschneiderter Prozessor, der ausschließlich in Pixel 2 und Pixel 2 XL enthalten ist. Es wurde von Google in Zusammenarbeit mit Intel entwickelt, um die Bildverarbeitungsarbeit in den Telefonen für andere Kameraanwendungen als die Standardanwendungen zu erledigen.

Noch einfacher ausgedrückt: Drittanbieter-Apps wie Instagram und Facebook können dieselben HDR-Funktionen nutzen, die bereits seit einigen Jahren in der integrierten Google Camera-App verfügbar sind. Wenn ein App-Entwickler die Android Camera API verwendet, können diese Apps von Drittanbietern jetzt dieselbe Bildqualität wie die Standard-App erhalten. Es ist toll.

Der Grund ist dies zu beachtenjetzt Der Grund hierfür ist, dass der Pixel Visual Core mit dem Start von Pixel 2 deaktiviert wurde. Google wurde im Android 8.1-Update, das derzeit für Pixel 2-Geräte verfügbar ist, gerade aktiviert. Wenn Sie es nicht auf Ihrem Gerät haben, machen Sie sich keine Sorgen. Alternativ können Sie es auch mit den Factory-Images oder ADB-Seitenlasten selbst flashen.

Der Pixel Visual Core beschleunigt die HDR-Verarbeitung außerdem erheblich - bis zu fünfmal schneller als die Bildverarbeitung auf dem Pixel 2 Snapdragon 835-Prozessor. Gleichzeitig ist es auch effizienter, da nur ein Zehntel der normalen Energie des Standard-Bildprozessors verwendet wird. Es erweitert also nicht nur die Funktionalität, sondern auch effizienter und schneller.

Und es geht sogar darüber hinaus - oder zumindest eswerden. Während der Visual Core derzeit auf Kamera-Apps von Drittanbietern beschränkt ist, handelt es sich um einen programmierbaren Chip. Es gibt also wirklich nichts, was ihn von anderen Aufgaben abhält. Das ist natürlich beabsichtigt. Google wollte, dass dieser Chip zukunftssicher ist, damit er mit dem Android-Ökosystem wachsen kann. Nicht nur für Google, sondern allgemein für Android-Entwickler. Tatsächlich gibt Google an, dass bereits an den "nächsten Anwendungen" gearbeitet wird, die den Visual Core verwenden.

Für den Moment ist dies jedoch ein Schritt in die richtige Richtung. Das Öffnen von HDR für Apps von Drittanbietern mit der bereits großartigen Kamera des Pixels ist rundum ein Gewinn. Wenn Sie nach guten Beispielen für den Visual Core bei der Arbeit suchen, hat Google in diesem Blogbeitrag einige hervorragende.

Top-Tipps:
Kommentare: