Computational Photography – oder: revolutionäre Veränderungen in einer konservativen Branche
9. Oktober 2019Computational Photography – oder: revolutionäre Veränderungen in einer konservativen Branche
Von Horst Buchwald
Teil 1
Fotografieren Sie auch mit einem Smartphone? Oder stehen Sie auf dem Standpunkt, das ist nur Knipserei , ein professionelles Foto ist nur mit einer Profi-Kamera möglich? Kann es sein, dass diese Haltung durch den Vormarsch der KI schon recht bald in Vergessenheit gerät?
In einigen Fachzeitschriften fällt hin und wieder der Begriff „computational Photography“ auf. Viele übersehen ihn , weil es kein deutsches Pendent gibt. Zugegeben: der Begriff klingt missverständlich, denn nicht der Computer steuert die Fotografie, sondern die künstliche Intelligenz. Anders formuliert: es geht nicht darum, dem Computer mittels KI das Denken beizubringen, sondern dem Smartphone das bessere Fotografieren. Noch genauer: Auch Otto-Normalbürger soll mit einer KI- basierten Kamera professionelle Fotos machen können.
Jetzt lächelt der Profifotograph. Seine Antwort: „Keine Chance. Träumt weiter.“ Hat er Recht?
Mit Google Clips kommt demnächst der erste Streich auf den Markt. Zunächst einige Vorbemerkungen, damit Sie die neue Kamera besser verstehen können. Wie Sie wissen, ist der größte Mangel der bisherigen Smartphone – Kameras ein fehlendes Zoomobjektiv. Computational Photography ist der Versuch, einen optischen Zoom zu replizieren. Doch Google hat noch ein wichtigeres Ziel: Clips wird von einem Algorithmus gesteuert, der „unvergessliche Momente“ aufzeichnet und aufbewahrt. Das bedeutet: Clips bestimmt, welche Situationen in Ihrem Leben „unvergessliche Momente“ sind und legt los. Sie müssen also nicht auf den Auslöser drücken. Auch die nachfolgende Bildbearbeitung übernimmt die Kamera. Sie entscheidet, wo Unschärfen ausgeglichen, eine Farbbalance notwendig oder ein Ausschnitt gemacht wird.
Nun lässt sich Computational Photography auch definieren: es ist eine Fototechnik, die von Algorithmen vorbestimmte konkrete Situationen fotografiert und anschließend die Bildqualität verbessert.
Nun zurück zur Google Clips. Sie vollbringt keine Wunder. Google spricht von Schnappschüssen innerhalb der Familie. Aber auch die Überwachung zu Hause (Kinder, Tiere) soll damit möglich sein. dDas sind schon mal zwei unterschiedliche Situationen. Wenn die Kamera Schnappschüsse macht, dann nur, sobald sie eine „unvergessliche Situation“ registriert. Die Überwachung von Kind und Tieren ist aber, wie es scheint, nicht Bestandteil des Algorithmus. Oder doch? Außerdem heißt es, die Kamera reagiere nur, wenn „gute“ Schnappschüsse möglich sind. Was ist „Gut“? Darüber gehen die Meinungen häufig stark auseinander. Einmal angenommen, Google ist sich dieser Frage bewusst, was bedeutet das? Google setzt auf Deep Learning – der Algorithmus würde lernen, was die Familie X, Y. Z usw. als „gut“ einschätzen.
Deep Learning wird möglich, weil die Kamera nicht einzelne Fotos, sondern Clips von mehreren Sekunden Länge (also +-10 Fotos) anfertigt. Die Bezeichnung „Schnappschuss“ ist demnach nicht korrekt. Denn der Anwender muss nun die Clips durchsuchen und manuell die „guten“ Fotos heraussuchen.
Laut Google ist für die Kamera keine Internet-Verbindung erforderlich und es würden somit a uch keine Daten übertragen.
Zum Schluß noch einige technische Daten: die 12 – Megapixelkamera deckt mit einer 130 – Grad- Weitwinkellinse einen ausreichend großen Bereich ab. Das ist ja auch notwendig, weil niemand die Kamera ausrichtet und auf den Auslöser drückt. Ein Manko ist der Akku- er hält bei Hochbelastung wohl gerade mal drei Stunden durch. Eine weitere Einschränkung kommt hinzu: Der Zugriff auf die Fotos ist nur mit einem Smartphone möglich. Zum Start sind das nur die beiden Samsung- Modelle Galaxy S 7 und Galaxy S 8 sowie die Iphone 8 und iphone 8 Plus von Apple. Die Kamer ist nur in den USA im Angebot- für 250 Dollar. Angeblich soll sie in Deutschland nicht angeboten werden.
(wird fortgesetzt).