It's all about the Pentiums, Screenshot, © Al Yankovic

Ende der 90er fing „Weird Al“ Yankovic mit seiner Parodie auf Puff Daddys „It’s all about the Benjamins“ den damaligen Zeitgeist der gegenseitigen Überbietung in Sachen Rechnerleistung perfekt humoristisch ein. In „It’s all about the Pentiums“ heißt es unter anderem

My new computer’s got the clocks, it rocks
But it was obsolete before I opened the box.
You say you’ve had your desktop for over a week?
Throw that junk away, man, it’s an antique.

Die Sängerfigur des Songs prahlt damit, dass er 100 Gigabyte Ram und einen 40 Zoll Monitor hat und disst sein Gegenüber mit den Worten „In a 32-bit world, you’re a 2-bit user“. Heute, 15 Jahre später, sind beide Daten gar nicht mehr völlig unmöglich (wenn auch für Heimsysteme eher unpraktisch und teuer), aber bei Desktop PCs und Laptops hat sich die Konversation ohnehin verlagert. Heute ist eben nicht mehr „all about the Pentiums“, mein fast vier Jahre altes MacBook ist für meine Zwecke heute fast noch so effizient wie beim Kauf. Die Zeit der Zahlenschlachten in der Heimcomputerwelt ist vorbei, ebenso wie die Megapixel-Schlachten in der Digitalkamerawelt.

Doch das heißt nicht, dass das Rennen um die Effizienz vorbei ist. Es ist nur umgezogen. Wahrscheinlich könnte man Yankovics Song heute über Smartphones singen – oder über Orte, an denen man es gar nicht vermuten würde, etwa Kompressionsraten.

HEVC, nonchalant

Als ich im vergangenen Herbst auf dem Beyond-Festival in Karlsruhe war, um mich über die neuesten Entwicklungen in Sachen 3D zu informieren (Ergebnis unter anderem nachzulesen in der aktuellen Ausgabe von „epd film“), erwähnte einer der Redner dort, Ralf Schäfer vom Fraunhofer Henrich Hertz Institut, relativ nonchalant, dass ja nun auch ein neues Video-Format namens HEVC entwickelt worden sei, der einiges in Bewegung setzen dürfte.

Erst in späteren Recherche-Gesprächen wurde mir klar, wie wichtig HEVC werden könnte. „High Efficiency Video Coding“, wie das Kompressionsformat ausgeschrieben heißt, verbessert den bisherigen H.264/MPEG4 AVC-Standard, der für Bildkompression bei Bewegtbild eingesetzt wird, um das Doppelte. Es halbiert also die Datenmenge, die man braucht, um etwa ein Fernsehbild zu übertragen – bei gleichbleibender Qualität. Mit anderen Worten: SD-Auflösung wird quasi ein Pups in den Leitungen, die Übertragung von HD wird so einfach wie heute SD und UHD/4K-Übertragung wird auf dem gleichen Level möglich, wie HD heute.

Mein Fernseher, ein Gobelin?

„Wer will überhaupt 4K?“ mag sich der geneigte Leser jetzt fragen und in der Tat habe ich mich auch schon gefragt, wie viele Wanddurchbrüche ich machen müsste, um ein Display von der Größe eines Gobelins sinnvoll als Fernseher nutzen zu können. Aber diese Art von Effizienzgewinn bedeutet noch ganz andere Sachen als ein pures Mehr an Auflösung: Etwas so Datenlastiges wie Autostereoskopie (aka 3D ohne Brille) könnte endlich ein Thema werden und HFR (aka Hobbit-Vision) könnte sinnvoll diskutiert werden (es nervt euch vielleicht in Mittelerde, aber wie wäre es bei Sportübertragungen?). Es sind eben nicht die immer kletternden Zahlenwerte, die die entscheidende Power bringen – viel öfter sind es die cleverer werdenden Algorithmen, die plötzlich eine Verdopplung der Effizienz bringen, indem sie irgendwelche mathematischen Lücken ausnutzen. Als Laie kann man darüber nur ungläubig den Kopf schütteln.

Case in Point: „Joint Importance Sampling“, der Fachausdruck für eine neue Rendertechnik, die – zumindest behaupten das „io9“ und „fxguide“ – „eine neue Ära der Animation einläuten könnte“. Sie verfolgt grob gesagt Lichtpfade effizienter und rechnet nur jene Teile der Pfade in Bildpunkte um, die die Kamera wirklich sehen kann. So werden Renderzeiten enorm verkürzt und ganz neue Möglichkeiten eröffnet.

Revolution statt Evolution

Disney-Entwickler Wojciech Jarosz, dessen Team auch hinter „Joint Importance Sampling“ steht, hat in einer Rede, die er auf einem Render-Symposium in Spanien im Juni 2013 gehalten hat, dafür plädiert, beim Rendern von der Evolution zur Revolution zu wechseln, neu zu denken und nicht nur das Bisherige weiterzuentwickeln. Die Entwicklung des „Joint Importance Sampling“, die nur der Kamm einer größeren Welle zu sein scheint, zeigt also ebenfalls, dass man auch dort noch besser Algorithmen finden kann, wo man alle Möglichkeiten ausgereizt glaubte.

Gefährlich wird das ungläubige Staunen über solche Entwicklungen jedoch, wenn man versucht, das Prinzip aus der Welt der Chips und mathematischen Formeln auf andere Bereiche zu übertragen. Der Über-Effiziente Mensch endet im Burnout und im blinden Glauben an die ständige Verbesserung wird Moore’s Law plötzlich zu Moore’s Curse, wie der Umweltforscher Vaclav Smil etwa mit Blick auf die Energiewende festgestellt hat. Oder sind wir auch hier nur einem evolutionären Gedankengang verfallen? Vielleicht wartet hinter der nächsten Kurve doch noch die Neuentwicklung, die wieder einmal alles auf den Kopf stellt. Manchmal bin ich mir nicht sicher, ob ich darauf hoffe oder nicht.

Das „Beyond“-Festival in Karlsruhe ist wahrscheinlich das größte öffentliche Forum zum Thema 3D in Deutschland. Als es 2010 zum ersten Mal stattfand, lag die perfekte Stimmung in der Luft. Die Erinnerung an den Kassenerfolg von Avatar war noch frisch, Wim Wenders’ Pina war gerade erschienen und versprach einen Vorstoß der Ästhetik in den Arthouse-Bereich, die ganze Internationalen Funk-Ausstellung (IFA) sprach von 3D-Fernsehern. 3D-Enthusiasten wie „Beyond“-Gründer Ludger Pfanz vom Karlsruher Zentrum für Kultur und Medien strahlten es förmlich aus: Nach mehr als hundert Jahren als belächelte Jahrmarktattraktion wird sich Stereoskopie als Kunstform endlich emanzipieren.

Drei Jahre später hat das „Beyond“-Festival seinen Fokus deutlich erweitert. Gesprochen wird über 3D-Bilder in der Biomedizin und der Sprachpädagogik, über Simulationen und künstliche Intelligenz. Stereoskopische Bilder auf Kinoleinwänden und Fernsehern spielen nur noch am Rande eine Rolle. Bei der ersten Panel-Diskussion des festivalbegleitenden Symposiums sitzt Ludger Pfanz mit zwei einsamen Kämpen auf der Bühne. Und trotz des Themas „The Future of 3D“ wird wenig über 3D gesprochen, es geht eher um eine generelle Bestandsaufnahme der Produktionslandschaft.

Weiterlesen in epd medien 47/2013

© 20th Century Fox

Update: Fox hat den Report von „Ain’t it cool“ dementiert. Wahrscheinlich haben sie recht.

Was für eine großartige Art, die Woche zu beginnen, wenn man morgens in der Bahn liest, dass „Ain’t it cool News“ die Bestätigung bekommen hat, dass X-Men: Days of Future Past in HFR 3D, genauer in nativem Stereo-3D mit 48 Bildern pro Sekunde, gedreht wurde und auch 2014 so ins Kino kommen wird. Damit ist Bryan Singers Zeitreise-Generationen-Treff der Mutanten (der auch ganz neue Maßstäbe in Sachen Ensemble-Franchising setzt, dazu mehr, wenn ich den Film gesehen habe) nach Peter Jacksons Hobbit-Filmen die zweite Produktion, die sich traut, den notwendigen Schritt in Richtung Kinozukunft zu gehen.

Ich selbst bin entschiedener Fan von HFR 3D und habe im vergangenen Dezember trotzig den Backlash gegen den Hobbit abgewehrt. Doch auch ursprüngliche Gegner des Prozesses scheinen sich langsam zu bewegen. Einer der Gründe scheinen, paradoxerweise, gute 3D-Filme in 24 fps zu sein. Nach seiner Begeisterung für Gravity etwa schrieb Matt Singer auf „The Dissolve“ einen Artikel, in dem er beklagte, dass selbst Filme mit perfekt genutztem 3D eine Qual sein können, weil man seinen Kopf nicht bewegen darf. HFR 3D, bei all seinen Problemen, erlöse einen in dieser Hinsicht, gibt er zu. Der Hobbit sei in seinen Bildern „nahtlos“ gewesen.

Auch besser für 4K

Auf dem Beyond Festival in Karlsruhe, wo ich vor zwei Wochen vorbeigeschaut habe, habe ich ebenfalls ein Plädoyer für HFR gehört, und zwar von Stefan Albertz, bis vor kurzem selbst Digital-Techniker, nun hauptberuflich Dozent. Er argumentierte, dass auch für die auf den Messen dieses Jahr gehypten Ultra-HD und 4K-Displays, die die vierfache Auflösung von HD haben, dringend zu 48 fps zu raten wäre, wenn man vermeiden wolle, dass das Bild immer stärker ruckelt. (Das sei auch der Grund, meinte Albertz, warum 4K-Displays in Laden-Demos immer möglichst ruhige Bilder zeigen.) Nach seiner Ansicht sieht ein HD-Bild mit 48 fps auf einem 4K-Bildschirm besser aus als ein 4K-Bild mit 25 fps. Das Problem existiert vor allem für Kinofilme. Fernsehen überträgt ja ohnehin schon mit 50 Hertz, die Umstellung wäre also einfacher.

A propos Hertz: Ein weiterer Sprecher auf dem „The Future of 3D“-Panel war Ralf Schäfer vom Fraunhofer Heinrich-Hertz-Institut. Er stellte unter anderem neue Geräte vor, die die Produktion in 3D vereinfachen sollen – denn die Kalibrierung von Spiegel-Rigs scheint nach wie vor ein Albtraum zu sein. Neben einem automatisierten Stereo-Rig ohne Spiegel zeigte Schäfer unter anderem ein 2D-System, das mit sogenannten Witness-Cams funktioniert, aus deren Bilddaten sich später der Tiefenkanal berechnen lässt. Es wird also auch weiterhin eine Tendenz geben, 2D aufzuzeichnen und die Tiefe später hinzuzufügen. Dass das funktionieren kann, wenn man trotzdem in der Inszenierung stereografisch denkt, hat mir Star Trek Into Darkness gezeigt.

Die Suche nach dem neuen Standard

Der mutige Schritt von Bryan Singer und vor allem von Sony Fox, bei Days of Future Past die 48fps-Route zu gehen könnte auch mit dem zusammenhängen, was man im Umfeld der Konferenz so munkelte: Die großen Studios suchen einen High-End-Standard, der eine Weile Stabilität garantiert und sich nicht jedes Jahr wieder nach oben verschiebt. Wenn die Datenmengen händelbar sind, könnten das zum Beispiel 120 fps in 4K sein, die dann „eine Weile halten“ könnten und sich dennoch nach unten in die einfacheren Formate wie DVD durchreichen lassen. Wir werden sehen, ob uns hier noch eine Entscheidung bevorsteht.