Mehr Kreativität in der Postproduktion

Forschung Kompakt / 2.9.2013

Im Gewusel des Filmsets müssen Kameraleute Blickwinkel, Ausschnitt und Tiefen- schärfe der Kameras festlegen. Künftig können Filmemacher solche Parameter noch in der Postproduktion ändern. Möglich macht es eine neuartige Kameratechnologie.

© Foto Fraunhofer IIS

Das Lichtfeld einfangen: 16 Kameras hat das neue Array von Fraunhofer (im Bild rechts oben). Schärfe und Blickwinkel lassen sich damit auch noch nach den Originalaufnahmen anpassen.

Und – Action! Das Filmset gleicht einem Ameisenhaufen: Es wimmelt von Schauspielern, Statisten, Kameras – und zwischen all dem ruft der Regisseur seine Anweisungen. Mittendrin muss der Kameramann die richtigen Einstellungen vornehmen, den Ablauf der Szene beachten und seine Assistenten instruieren. Welchen Blickwinkel soll welche Kamera einnehmen? Welcher Teil des Bildes soll scharf sein, welcher unscharf verschwimmen? Denn sind die Aufnahmen erst einmal im Kasten, lassen sich solche Parameter nicht mehr korrigieren. Zumindest bislang nicht. Eine Algorithmik in Kombination mit einem neuartigen Kameraarray – also einer Anordnung mehrerer Kameras – soll künftig eben dies möglich machen – und somit mehr Kreativität in die Postproduktion holen. Filmemacher können dann auch im Nachhinein noch entscheiden, welcher Bereich der Szene scharf abgebildet sein soll. Oder aber virtuell um eine Szene herumfahren, so wie bei dem Film Matrix: Der Akteur ist in der Szene eingefroren, hängt quasi bewegungslos in der Luft, während sich die Kamera um ihn bewegt und ihn von allen Seiten »einfängt«.

Viele Perspektiven statt nur einer


Möglich macht dies ein Kameraarray, das Forscher am Fraunhofer-Institut für Integrierte Schaltungen IIS in Erlangen entwickelt haben und auf der diesjährigen »International Broadcasting Convention (IBC)« von 13. bis 17. September in Amsterdam zeigen (Halle 8, Stand 8.B80). »Das Array besteht aus insgesamt 16 Kameras, die in vier Zeilen und vier Spalten angeordnet sind«, erläutert Frederik Zilly, Gruppenleiter am IIS. Statt wie üblich nur eine einzige Kamera zu haben, die die Szene von genau einer Position aufnimmt, sammeln die 16 Kameras die Lichtstrahlen an verschiedenen Punkten der Fläche ein, auf der sich die Kameras verteilen. Die Forscher sprechen davon, dass sie teilweise das Lichtfeld der Szene einfangen, statt nur einer speziellen Perspektive. Obwohl das Array aus 16 Kameras besteht, umfasst es lediglich 30 mal 30 Zentimeter. So lässt es sich auf dem Filmset und im Studio problemlos einsetzen.

Doch wie funktioniert es, dass die Aufnahmen nachträglich so viel besser bearbeitet werden können? »Für jeden Pixel, den die Kameras aufnehmen, schätzt die Software die Tiefe ab. Sie ermittelt also, wie weit das abgebildete Objekt vom Kameraarray entfernt ist. Aus dieser Tiefeninformation können in der Postproduktion Zwischenbilder errechnet werden, so dass wir virtuell die Daten nicht nur von 4 mal 4 Kameras, sondern von 100 mal 100 Kameras haben«, sagt Zilly. Filmt der Kameramann den Schauspieler, so schauen die jeweils äußeren Kameras ein wenig hinter den Akteur. Sie haben einen anderen Blick- winkel als die Kameras, die sich in der Mitte der Anordnung befinden. Dies erlaubt es den Filmemachern, virtuell um eine Person oder einen Gegenstand herumzufahren, den Blickwinkel und die Tiefenschärfe der gemachten Aufnahmen zu ändern.

Die Software, die die Aufnahmen des Kameraarrays verarbeitet, haben die Forscher bereits entwickelt. Auch die grafische Benutzeroberfläche für die Aufnahme am Filmset steht bereits. An der Benutzeroberfläche für die Nachbearbeitung dagegen arbeiten die Forscher momentan noch. Sie soll in etwa einem halben Jahr fertig sein. Dann planen die Wissenschaftler, einen Stop-Motion-Film zu drehen, der sich besonders für die Testläufe der Software eignet. »Später wollen wir ihn als Demofilm verwenden«, verrät Zilly. »So können wir Interessenten zeigen, welche Möglichkeiten sich beim Einsatz des Kameraarrays bieten.«