Update
Inzwischen hat das gezeigte Demo-Video seinen Weg ins Netz gefunden:
Ob Anthony Daniels für die Sequels dann auf sein unbequemes Kostüm verzichten und stattdessen mit einem Performance-Capture-Anzug herumlaufen kann?
Danke an Dominic für den Hinweis!
Originalmeldung vom 21. September, 11:53 Uhr
LucasArts mag nur noch ein Publisher sein, aber das Erbe des Spieleentwicklers lebt weiter. Zu Gast beim Technologieforum der Britischen Akademie für Film und Fernsehen, BAFTA, stellte der Effektchef von LucasArts Kim Libreri die Vision des Unternehmens für die Zukunft der Effektbranche vor. Und ein altbekanntes Projekt, das wir längst für tot hielten, spielte dabei eine wichtige Rolle:
Libreri erklärte, Lucasfilm sei es gelungen, mit den Entwicklungen im CG-Bereich Videospielressourcen in die Filmproduktion zu verlagern. Echtzeit-Motion-Capturing und Spiele-Engines würden zunehmend im Filmbereich eingesetzt, so Libreri, wodurch die ehemalige Nachbearbeitung in Echtzeit bei den Dreharbeiten vorgenommen werden könne. Durch diese Echtzeit-Darstellung von CG-Effekten wird es z.B. möglich, effektiv in virtuellen Kulissen zu drehen und den Nachbearbeitungsprozess deutlich zu verkürzen.
"Jeder weiß, was wir bei Filmen zu tun in der Lage sind. Ich denke, die meisten Menschen werden mir zustimmen, wenn ich sage, dass die Videospielebranche besonders mit Blick auf die nächste Generation von Konsolenspielen deutlich aufgeholt hat. Deshalb bin ich mir ziemlich sicher, dass wir innerhalb der nächsten zehn Jahre erleben werden, wie es bei den traditionellen visuellen Effekten zu einer völligen Verschmelzung der beiden Bereiche kommen wird. Realistische Feuereffekte, CG-Wesen und -Umgebungen werden dann völlig interaktiv produziert werden können.
Wir glauben, dass wir im Bereich der Echtzeit-Computergrafik einen so hohen Realismusgrad erreichen werden, dass es in den nächsten 10 Jahren möglich wird, aus der Nachbearbeitung eine Live-Bearbeitung zu machen. Man wird dann am Ende eines Drehtags eine CG-reiche Szene so gut wie im Kasten haben", so Libreri.
Dieses Konzept der Live-Nachbearbeitung wurde von ILM bereits an einigen Prototypen getestet. Der erste davon, ein Kurzfilm, der innerhalb von 8 Wochen in Zusammenarbeit von Lucasfilm und ILM auf Basis der massiv überarbeiteten LucasArts-Spiele-Engine entstand, reduzierte die Rendering-Zeit von 10 Stunden pro Einzelbild auf 24 Einzelbilder pro Sekunde, d.h. 41 Millisekunden pro Einzelbild.
"Der Prototyp hat unsere Vision für die Zukunft von ILM deutlich gemacht. Gleichzeitig haben wir damit gezeigt, wie LucasArts in der nächsten Konsolengeneration performen wird."
Nach dem Kurzfilm wurde das System auch an einem Spiel getestet: 1313, ein Krieg der Sterne-Spiel, das erstmals auf der E3 2012 der Öffentlichkeit vorgestellt wurde. Das Spiel, das seit etwa zwei Jahren entwickelt wird, setzt auf Hardware von Nvidia und überzeugte Lucasfilm davon, dass Videospieleengines für Filme verwendet werden und eines Tages den Nachbearbeitungsprozess ersetzen könnten.
"Der aktuelle Produktionsprozess im Film verläuft phasenweise und entfernt sich damit von der eigentlich sehr organischen Natur eines Filmsets oder eines Außendrehs. Ich hoffe, dass es uns mit der Live-Nachbearbeitung gelingen wird, die kreativen Möglichkeiten der wahren Welt wieder verstärkt zum Einsatz zu bringen. Der künstlerische Anspruch, den wir in eine Effekteinstellung einbringen, wird deshalb nicht wegfallen, aber ganz normale Bluescreen-Ersetzungen können dann interaktiv beim Dreh vorgenommen werden."
Lucasfilm ist zudem der Ansicht, dass es binnen der nächsten 10 Jahren möglich werden wird, dieses Konzept so weit auszubauen, dass Zuschauer Filme in Echtzeit anpassen können. Ein Disney-Trickfilm könnte dann aus der Cloud auf ein iPad gestreamt werden und es jedem ermöglichen, einer Prinzessin ein anderes Kleid zu verpassen oder einen Freund in den Hintergrund einzupassen.
"Wenn man die Technik hinter Videospielen in den Filmbereich überträgt, kann man unglaublich weitreichende Prozesse mit mehreren Anwendern gestalten. Es wird dann möglich, in Echzeit zu animieren, zu schneiden und die einzelnen Teilebenen zusammenzuführen, und damit werden digitale Effekte wieder zu einer kreativen Erfahrung.
Am Ende seiner Präsentation zeigte Libreri ein Video, das die Leistung des Performance-Capture-Studios von Lucasfilm unter Beweis stellte und die Spieleengine von 1313 einsetzte, das sich noch immer in Produktion befindet.
Womit man nun vermuten kann, dass genau diese Entwicklung der Trumpf war, den George Lucas einst bei der Umsetzung der Realserie mit einem bloßen TV-Budget ausspielen wollte...
Seite 1 2 3
« vorherige Seite nächste Seite »
Seite 1 2 3
« vorherige Seite nächste Seite »
RSS-Feed für diesen Kommentarthread abonnieren
RSS-Feed für alle Kommentare