Menü

Astro-Fotografie: Google Pixel 4, iPhone 11 Pro und Huawei P30 Pro im Vergleich

Die Milchstraße ist das Ziel: Wir zeigen, wie sich das Google Pixel 4 beim Fotografieren von Sternen im Vergleich mit dem iPhone 11 Pro und P30 Pro schlägt.

Lesezeit: 6 Min.
In Pocket speichern
vorlesen Druckansicht Kommentare lesen 18 Beiträge

(Bild: heise online / Patrick Bellmer)

Von

Inhaltsverzeichnis

Auf der Suche nach Alleinstellungsmerkmalen für ihre Kamera sind die ersten Smartphone-Hersteller im Weltraum angekommen. Für das im Frühjahr 2019 vorgestellte P30 Pro verspricht Huawei beeindruckende Aufnahmen vom Mond. Google geht nun einen großen Schritt weiter: Pixel 4 und Pixel 4 XL nehmen gleich die Milchstraße ins Visier respektive in den Sucher. Apple hält sich hingegen zurück und verweist beim iPhone 11 Pro lediglich auf einen hochwertigen Nachtmodus. Wir zeigen, wie gut sich die drei Smartphones in Sachen Astro-Fotografie wirklich schlagen und was man beim Fotografieren der Sterne beachten muss.

Unabhängig davon, was die drei – und andere – Hersteller versprechen: Hinter dem Nachtmodus (Nachtsicht bei Google) verbirgt sich in erster Linie eine längere Belichtungszeit als üblich. Statt für wenige Zehntelsekunden fängt die Smartphone-Kamera mehrere Sekunden lang das wenige Licht ein. Beim iPhone 11 Pro liegt das Limit bei 28, beim P30 Pro bei 32 und beim Pixel 4 bei 16 Sekunden. Während Huawei dem Nutzer freie Hand bezüglich der Belichtungszeit gibt, setzt Apple enge Grenzen. Das Maximum von 28 Sekunden lässt sich nur dann auswählen, wenn die Kamera-Software eine solche Zeit als notwendig erachtet. Google bietet hingegen keinerlei Möglichkeit zum Eingriff. Die Software analysiert im Anschluss die Aufnahme und kümmert sich um eine – möglichst – optimale Bearbeitung. Dunkle Elemente werden hervorgehoben, helle hingegen möglichst nicht weiter verstärkt oder sogar abgeschwächt.

Das Pixel 4 XL enthält– wie auch das kleinere Pixel 4 – das SoC Snapdragon 855, 6 GByte Arbeitsspeicher, je nach Variante 64 oder 128 GByte Flash-Speicher. Bedienen lässt es sich auch über die Motion Sense genannte Radarsteuerung.

(Bild: heise online / Patrick Bellmer)

Google setzt ähnlich wie Apple aber nicht auf eine einzelne lange belichtete Aufnahme, sondern kombiniert mehrere miteinander. Insgesamt kann das Pixel 4 bis zu 15 jeweils 16 Sekunden lange Aufnahmen verrechnen, um daraus das finale Bild zu erstellen. Ein ausgeklügelter Algorithmus reduziert dabei das Bildrauschen, verrechnet Bewegungen (etwa Blätter) und korrigiert Verwackler. Im Test ließ das Pixel 4 ein Flugzeug verschwinden, dass durch die Aufnahme flog.

Immer mehr Wissen. Das digitale Abo für IT und Technik.

  • Zugriff auf alle Inhalte von heise+
  • exklusive Tests, Ratgeber & Hintergründe: unabhängig, kritisch fundiert
  • c't, iX, Technology Review, Mac & i, Make, c't Fotografie direkt im Browser lesen
  • einmal anmelden – auf allen Geräten lesen - jederzeit kündbar
  • erster Monat gratis, danach monatlich 9,95 €
  • Wöchentlicher Newsletter mit persönlichen Leseempfehlungen des Chefredakteurs
GRATIS-Monat beginnen Jetzt GRATIS-Monat beginnen Mehr Informationen zu heise+