Die Effekttechnologien von Industrial Light & Magic sorgen seit inzwischen über 40 Jahren allerorten für Staunen und Begeisterung, doch in der Vergangenheit fand die Arbeit von ILM in den heiligen Hallen der Firma statt, nachdem die Dreharbeiten der jeweiligen Filme bereits abgeschlossen waren. Die Zukunft aber heißt Echtzeit, und das wichtigste Werkzeug dabei sind Game-Engines, wie die Variety fasziniert berichtet:
Donald Glover hat es umgehauen. „Das ist das Coolste, was ich je getan habe”, konnte man ihn murmeln hören, nachdem er beim Dreh von Solo - A Star Wars Story zum ersten Mal mit dem Rasenden Falken in den Hyperraum gesprungen war.
Was Glover so beeindruckte, war, dass die Szene nicht vor einem Greenscreen gedreht wurde, wie es bei effektlastigen Filmen inzwischen traditionell der Fall ist, sondern vor einer aufwendigen Konstruktion aus fünf 4K-Laserprojektoren, die um das Cockpit des Falken herum aufgebaut war und die legendäre Hyperantrieb-Animation in Echtzeit zeigte. Diese Herangehensweise ermöglichte es Glover und seinen Mitschauspielern nicht nur, in einem weniger leeren Raum zu spielen, sondern die Projektoren wurden auch als einzige Lichtquelle verwendet, was zu atemberaubenden Reflexionen der blinkenden blauen Lichter in den Augen der Schauspieler führte.
Die Hyperaum-Sprung-Szene ist nur ein Beispiel für ein neues Produktionsmodell, das zu einem immer wichtigeren Teil von Lucasfilms „Star-Wars”-Filmen geworden ist. Anstatt visuelle Effekte in der Nachbearbeitungsphase hinzuzufügen, setzt das Studio verstärkt auf Echtzeit-Technologien. Und Lucasfilm ist nicht allein bei diesem Ansatz: Vom großen Filmstudio bis zum unabhängigen Produzenten setzen alle zunehmend auf Echtzeit-Produktionswerkzeuge, die die Produktion von Filmen und Fernsehsendungen verändern und Projekte ermöglichen, die es sonst nicht geben würde.
In den letzten Jahren hat ILM zu diesem Zweck eine Reihe von virtuellen Produktionswerkzeugen mit Echtzeit-Technologien entwickelt. Diese Tools, die als „Stagecraft” bezeichnet werden, umfassen den gesamten Produktionsprozess, vom frühen Kulissendesign mit Hilfe von VR-Headsets bis hin zu visuellen Effekten wie bei „Solo”.
Was viele der Tools verbindet, ist, dass sie sofort Ergebnisse liefern, die früher über Stunden oder sogar Tage hätten erstellt werden müssen, erklärt ILMs Chef und Leitender Kreativmanager Rob Bredow. „Echtzeit führt zu einer grundlegenden Änderung des Arbeitsablaufs”, konstatiert er. „Visuelle Effekte und digitale Techniken werden dadurch viel, viel früher in den Prozess einbezogen.”
Ein Beispiel: Virtuelle Sets, die früher Wochen nach den Dreharbeiten in einen Film eingefügt worden wären, können nun in Echtzeit in der Vorschau angesehen werden, noch während die entsprechenden Kameraeinstellungen vorbereitet werden. Diese Technologie hat ILM für eine weitere Szene in „Solo” eingesetzt, den Zugüberfall, bei dem Schauspieler vor einer Green-Screen mit Filmmaterial aus den italienischen Alpen kombiniert wurden. „Man bekommt so plötzlich ein Gefühl dafür, wie das Endergebnis aussehen wird”, so Bredow. „Dies ist ein wahrer Wendepunkt hinsichtlich der kreativen Entscheidungen, einem damit offenstehen.”
Der lange Weg von ILM zur Einführung von Echtzeit-Technologien begann vor etwa 20 Jahren mit Steven Spielbergs „A.I.”. Damals half das Unternehmen dem Regisseur dabei, Rogue City – eine Art glamouröser, sexbesessener Version von Las Vegas im Film –, noch beim Dreh zum Leben zu erwecken. „Die Stadt war natürlich zu groß, um sie als Set vor Ort umsetzen zu können”, erinnert sich ILM-Kreativchef John Knoll. Stattdessen baute ILM ein spezielles Tracking-System für die verwendete Kamera, das es möglich machte, quasi im Sucher mit dem Computer eine Vorschau des virtuellen Sets in Echtzeit zu sehen. So war es Spielberg möglich, Aufnahmen vor einer Bluescreen zu erstellen und gleichzeitig eine Vorschau mit einer virtuellen Fassung der gesamten Stadt zu erhalten.
Dazu verwendete ILM eine Game-Engine, also Software, die als Herzstück moderner, grafikintensiver Videospiele dazu fähig ist, Bilder live zu rendern, um die unvorhersehbaren Bewegungen der Spielerfigur abzubilden. „Das war eines der ersten Male, dass eine Game Engine zur Live-Vorschau am Set verwendet wurde”, erklärt Bredow den Prozess der Vorvisualisierung, der es Filmemachern ermöglicht zu sehen, wie effektlastige Szenen in einem Film aussehen werden, bevor sie gedreht werden.
Game Engines wurden zunächst als notwendiger technischer Unterbau von Videospielen entwickelt und sind schrittweise zu einem der beliebtesten Werkzeuge von Filmemachern geworden, die Echtzeit-Vorvisualisierungen immer öfter in ihrem Produktionsprozess nutzen möchten.
Ihr Einsatz beschränkte sich zunächst rein auf diese Vorvisualisierungsstufe, wie Spielberg und ILM dies vorgemacht hatten. Aber da die für diese Art von Echtzeit-Berechnungen optimierten Grafikverarbeitungs-Chipsätze immer leistungsfähiger werden, spielen Spiele-Engines eine immer größere Rolle im gesamten Workflow, bis hin zu dem, was Insider das letzte Pixel nennen - Bilder, die so gut aussehen, dass sie tatsächlich im Kino oder im Fernsehen gezeigt werden können.
Nickelodeon kündigte im vergangenen Jahr eine Serie mit dem Arbeitstitel „Meet the Voxels” an, die vollständig mit einer Game Engine produziert wird. Disney Television Animation veröffentlichte im September eine Reihe von Kurzfilmen namens „Baymax Dreams”, die in ähnlicher Weise produziert wurden. Und Lucasfilm fügte einen Droiden namens K-2SO in „Rogue One: A Star Wars Story” ein, der mit einer Game-Engine gerendert worden und dennoch von traditionell gerenderten Charakteren kaum zu unterscheiden war.
„Jedem in der Branche ist klar, dass die Zeit der riesigen Renderfarmen der 16stündigen Wartezeiten bis man sieht, wie das Wasser in einer Einstellung aussieht, vorbei ist", meint Isabelle Riva, die „Made With Unity” leitet, eine Abteilung des Spieleentwicklers Unity Technologies, der den Einsatz seiner Software in Hollywood und darüber hinaus vorantreibt. "Dies ist das Ende der Zeitverschendung", sagt sie.
Die Unmittelbarkeit von Echtzeit-Produktionswerkzeugen und ihre Möglichkeit, viel schneller auf Anfragen von Filmemachern zu reagieren, ist ein wichtiger Grund, warum ILM sich dieser Zukunftstechnologie geöffnet hat. „Bei visuellen Effekten dreht sich alles um die Iterationszeit”, erklärt ILM-PR-Chef Greg Grusby. „Je mehr Varianten, je mehr Durchläufe man dem Regisseur zeigen kann, desto schneller kommt man zur Endfassung.”
Und Bredow setzt hinzu: „Echtzeit gibt uns die Möglichkeit, immer früher immer näher an die letztlich verwendeten Aufnahmen heranzukommen. Und sobald das möglich ist, kann man seine gesamte Energie darauf verwenden, die genutzten Einstellungen maximal zu verfeinern und all diese subtilen Details zu optimieren, die dafür sorgen, dass eine Figur richtig atmet, dass ihre Kleidung perfekt aussieht und die Beleuchtung hundertprozentig sitzt. Sobald man weiß, dass die allgemeine Idee hinter der Einstellung gut funktioniert, kann man sich all diesen Feinheiten widmen.”
Neben der Zeitersparnis im Produktionsprozess birgt Echtzeit auch das Versprechen, viel billiger zu sein als herkömmliche Produktionstechnologien. Dies eröffnet einer neuen Generation von Filmemachern die Möglichkeit, Hollywood-ähnliches Material mit deutlich geringeren Budgets zu produzieren, insbesondere im Bereich der Animation. Ein gutes Beispiel dafür ist „Sonder”, der im vergangenen Jahr beim Los Angeles Independent Film Festival als bester animierter Kurzfilm ausgezeichnet wurde.
„Sonder”-Regisseur Neth Nom hatte an einigen Videospielen gearbeitet, sowie an einigen Virtual-Reality-Projekten für Unternehmen wie Google und Baobab Studios. Nachdem er so die Leistungsfähigkeit von Game-Engines erlebt hatte, entschied er sich, sich bei der Produktion seines Films auf diese Technologie zu stützen. „Ich habe das Potenzial gesehen, bei der Produktion viel Zeit zu sparen”, berichtet er.
Die Verwendung einer Game Engine für einen Film - insbesondere die Suche nach den richtigen Leuten für den Job - war nicht immer einfach. Zu Beginn des Projekts ging Nom zu einer Reihe von Unity-Meetings, die er gerne mit Speed-Dating-Netzwerken für Entwickler vergleicht, inklusive der Möglichkeit, am Ende der Nacht enttäuscht ohne ein Date dazustehen. „Ich habe etwa einmal pro Monat versucht, mir Unity-Ingenieure anzulachen, aber niemand war interessiert”, erinnert er sich. „Das waren alles nur Hardcore-Gamer.”
Schließlich fanden Nom und „Sonder”-Produzentin Sara Sampson ein Team aus 240 Personen, das aus Liebe zur Sache an dem Projekt mitarbeitete und das oft über erhebliche räumliche Entfernungen und mit der Bereitschaft zu spontanen Änderungen, die über Google-Hangout-Videokonferenzen abgestimmt wurden. „Unsere Leute saßen in allen möglichen Ländern”, erzählt Nom. „Und damit muss man sich schon die Frage stellen: Braucht man Studios überhaupt noch, wenn man ein Projekt auch aus dem Wohnzimmer umsetzen kann?”
„Große Geschichten können von überall her kommen”, stimmt Riva zu. Game-Engines, argumentiert sie, könnten den unabhängigen Kreativen helfen, viel von dem umzusetzen, was Studios seit Jahren mit teuren Werkzeugen und riesigen Renderfarmen tun, leistungsstarken Computerclustern, die speziell für die Erzeugung visueller Effekte für Film und Fernsehen entwickelt wurden. „Dieses Komplettsetup der Studios braucht man faktisch nicht.”
Aber die großen Studios sind noch nicht bereit, ihre bestehenden Produktionstechnologien auf dem Müllhaufen der Geschichte zu entsorgen. So konzentriert sich ILM beispielsweise nach wie vor auf die Interoperabilität seiner verschiedenen Werkzeuge. Die Firma setzt dabei immer noch auf traditionelle Software, aber in einigen Fällen stützt sie sich eben auch auf eine angepasste Version der Unreal Engine, der Game-Engine von Epic, dem Entwickler des beliebten Titels „Fortnite”. Zusätzlich verfügt ILM über eine eigene Echtzeit-Engine namens Helios, die auf der bei Pixar entwickelten Technologie basiert.
„Als wir vor fünf oder sechs Jahren mit der Produktion von Star-Wars-Filmen begannen, war klar, dass wir viele Ressourcen immer wieder verwenden würden”, erklärt Bredow. Aus diesem Grund hat ILM eine Möglichkeit entwickelt, die gleichen Ressourcen in jedem seiner Toolsets verwenden zu können. „Einmal erstellen, überall einsetzen”, fasst Grusby die Herangehensweise zusammen.
Dieser Ansatz half ILM auch bei der Arbeit an „Rogue One”. Knoll erinnert sich, dass EA bereits einige Ressourcen für seine Spiele gebaut hatte, die ILM auch für den Film benötigte, darunter den legendären AT-ST-Kampfläufer, jenes imperiale Kriegsgerät, das Fans der Reihe zuerst in „Das Imperium schlägt zurück” zu sehen bekommen hatten. „Wir haben ein paar Ressourcen von dort übernommen, und weil die Echtzeit-Tools so gut sind wie jetzt, mussten wir nicht viel daran herumbauen, um das EA-Material in unserem Spielfilm verwenden zu können”, sagt er.
Da Game-Engines immer beliebter werden, läuft diese Art des Austauschs künftig in beide Richtungen. Filmstudios können so Filmmaterial in Videospielen einsetzen, aber auch in VR-Angeboten und anderen Produkten. „Die Universals, die Paramounts, die Foxes, die Warner Bros. - sie interessieren sich alle nicht allein für effektlastige Filme”, so Riva, ”sondern eben auch für alles andere: Konsumgüter, Fahrgeschäfte, Spiele, Filme, alles.”
Und da Studios Spiele-Engines für Filme nutzen, erhalten sie auch Zugriff auf eine neue Generation von Künstlern, erklärt Bredow. „Wir haben uns zweifellos dafür entschieden, Filmemacher mit Leuten zusammenzubringen, die eher aus dem Gaming- oder Echtzeit-Technologie-Bereich kommen”, erzählt er. „Dies gibt uns die Chance, unser Fachpersonal aus einer größeren Menge an Leuten mit unterschiedlichen Talenten zu rekrutieren.”
Letztendlich hängt die Geschwindigkeit, mit der Hollywood die Echtzeit-Technologie einsetzt, davon ab, wie bereit Filmemacher sind, mit Kollegen aus der Videospielewelt und den Produktionswerkzeugen, die sie mitbringen, zusammenzuarbeiten. Einige Regisseure sind den bestehenden Workflows noch stark verhaftet, andere nehmen die neue Welt der Echtzeit mit ganzem Herzen an.
Bredow erinnert sich, wie einer von ILMs Effektverantwortlichen, Grady Cofer, im September 2015 Steven Spielberg eines der ersten Echtzeit-Tools von ILM demonstrierte: ILMs „Stagecraft Magic Mirror”, ein maßgeschneidertes Motion-Capturing-Tool, das es Schauspielern erlaubt, sich selbst in ihrer von visuellen Effekten überlagerten Form in Echtzeit auf einem großen LED-Bildschirm zu beobachten, als ob sie in einen Spiegel schauen würden.
Spielberg arbeitete damals an „Ready Player One”, und Cofer wollte dem Regisseur an diesem Tag einfach zeigen, wozu die Technologie fähig war. Spielberg schnappte sich jedoch sofort eine virtuelle Kamera und fing an, Aufnahmen zu machen, in denen Figuren aus „Ready Player One” wie Art3mis und Parzival auf dem Bildschirm des Magic Mirrors zum Leben erweckt wurden.
„Aus einer einfachen Technologie-Vorstellung wurde im Handumdrehen eine kreative Brainstorming-Session mit ihm und seinen Schauspielern”, erinnert sich Bredow. „Das ist es, was uns wirklich begeistert, wenn die Technologie faktisch verschwindet und es einfach nur ums Filmemachen geht. Wann immer das geschieht, wissen wir, dass wir ins Schwarze getroffen haben.”
Seite 1
@Ben Knobi 91
Also wenn diese Effekte nicht praktisch sind, dann weiß ich's auch nicht mehr.
Das Geniale daran ist, dass etwas Virtuelles mit realen Schauspielern und realen Kulissen abgefilmt wird und so selbst real wird. Make virtuality real! Phänomenal.
(zuletzt geändert am 17.05.2019 um 22:20 Uhr)
StarWarsMan
Lord of Chaos
Wer tiefer in die Materie eintauchen will:
https://www.youtube.com/watch?v=pnigQTOig8k
Kennt wer das Video ab ca. 5:00 min (ist von 2014)?
Interessant ist auch der Render-Vergleich ab ca. 11 min.
Kaero
Seite 1
RSS-Feed für diesen Kommentarthread abonnieren
RSS-Feed für alle Kommentare