In der Star-Wars-Show haben wir den Vorgeschmack bekommen, nun gibt's die komplette Dröhnung vom ILMxLAB, ILMs Zukunftslabor, in dem seit 2015 die Technologien der nächsten Unterhaltungsgeneration entwickelt, verfeinert und ausgebaut werden: Virtual und Augmented Reality, Echtzeit-Kino, neue Freizeitpark-Technologien und vieles weitere mehr. Das Zukunftslabor hat diesmal beeindruckende Demo im Gepäck, die bei der Game Developers Conference in Zusammenarbeit mit Epic Games und Nvidia gezeigt wurde. Zu sehen ist hier Raytracing in Echtzeit, der – wie ILM schreibt – „heilige Gral für Schöpfer von kinotauglichen Bildern”:
ILM schreibt weiter:
Diese experimentelle Demo, für die Figuren aus Star Wars: Das Erwachen der Macht und Star Wars: Die letzten Jedi mit der Unreal Engine 4 erzeugt wurden, markiert einen Sprung nach vorn bei der Annäherung von Filmen und Spielen.
Technisch nutzt die Demo die RTX-Technik für Volta-GPUs von Nvidia, die über Microsofts DirectX Ray Tracing API (DXR) verfügbar ist. Ein iPad mit ARKit dient als virtuelle Kamera, um die Details für die Nahaufnahmen herauszuarbeiten.
In der Techdemo verändert sich das Licht in der Szene interaktiv, und die Raytracing-Effekte – einschließlich der Schatten und fotorealistischen Reflexionen – werden in Echtzeit berechnet. Auf diesem Niveau und mit dieser Detailgenauigkeit wurden noch nie hochreflexive Oberflächen und weiche Schatteneffekte in der Unreal Engine umgesetzt.
Um Darth Vader zu zitieren: Beeindruckend. Höchst beeindruckend.
Seite 1
Schön das sich was in dem Bereich tut.
Ist aber in der UE4 gerendert. Nicht dass hier jemand denkt, Videospiele können heutzutage genauso aussehen.
Dennoch ne feine Sache! So kann man höchst hochwertige Cinematics erstellen!
Hach, wenn doch nur EA ein so tolles Spiel mal veröffentlichen würde. Mit Singleplayer Fokus.
Kyle07
LinQ
Das sieht pre-rendered aus. So wie z. B. ein Film mit dem Source Filmmaker:
Hier ein Beispiel mit dem Source Filmmaker:
https://www.youtube.com/watch?v=mngbim7PYhE
Die Engine die dafür benutzt wird, hat ganz alte Wurzeln. Die Source Engine feierte ja 2004 mit Half-Life 2 ihr debut. Und da sieht man der Engine ihr Alter an. So paar Filmchen vorzurendern ist dann ganz was anderes.
Korrigiert mich, wenn ich Stuss schreibe, aber so ist das wie ich die Lage einschätze.
Kyle07
Redav Htrad
ilikesand
McSpain
Das verlinkte Video ist eine pre-rendered Variante ihrer neuen Technologie. Bei der (ansonsten auch sehr interessanten) Unreal 4 Präsentation haben sie aber auch eine Live Variante gezeigt. Die Frage ist nur was für einen Prozessor/Grafikkarte sie dafür brauchten :
https://youtu.be/jwKeLsTG12A?t=36m20s
Tyularik
Redakteur
@Tyularik
Sie nutzen dafür eine Nvidia DGX Station, in der aktuell 4 Tesla V100 GPUs werkeln. Stückpreis für eine DGX Workstation rund 60000 Dollar.
https://www.nvidia.com/en-us/data-center/dgx-station/
http://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/Specials/Tesla-GV100-Volta-Spezifikationen-1227617/
(zuletzt geändert am 22.03.2018 um 15:12 Uhr)
Deerool
Deerool
Die Grafik von Computerspielen hat schon wirklich enorme Sprünge gemacht, keine Frage. Das Video hier ist einmal mehr ein tolles Beispiel.
Leider haben meiner Meinung nach die Spiele dafür in Sachen Spielwitz, Kreativität und Innovation auch einige Rückschritte vollzogen - wobei es sicher Ausnahmen gibt.
TiiN
In dem Zusammenhang noch diese Videos:
https://www.youtube.com/watch?v=LXo0WdlELJk
https://www.youtube.com/watch?v=81E9yVU-KB8
StarWarsMan
Lustiges Video .
Und tolle Grafik . Vom Material her könnte man schon meinen, dass es echt gefilmt wäre. Ein Manko bleibt aber leider dennoch, die Animation selbst, sprich die Bewegung. Ich persönlich finde, man merkt sehr deutlich, dass die Darsteller nicht wirklich in Rüstungen steckten , aber das ist Meckern auf hohem Niveau .
Darth Salkin97
Seite 1
RSS-Feed für diesen Kommentarthread abonnieren
RSS-Feed für alle Kommentare