Unreal Engine 4-Spiele mit Ray-Tracing DXR werden in späten 2018 Release

Unreal Engine 4 DXR

Ninja Theorie Hellblade war für bestimmte Spieler vielleicht die beste Wahl, aber eines war eindeutig und unbestreitbar bemerkenswert: Die Möglichkeit, die Leistungserfassung mit Grafiken in Kinoqualität direkt in die Echtzeit-Laufzeit der Unreal Engine zu übersetzen 4s Design- und Animations-Pipeline.

In einfachen Worten, anstatt ein riesiges Hollywood-Studio zu haben, gehen Sie durch alle Sprach- und Motion-Capture-Prozeduren in einem separaten Studio, erfassen Sie die Daten und senden Sie sie an das Animationsteam, um es zu bereinigen und zu implementieren Das Spiel in einem anderen Studio, Ninja Theorie gelang es, die gesamte cinematische Performance Capture im Haus zu machen und es direkt in die Unreal Engine 4 aufzuzeichnen, ohne dass eine Säuberung, Änderung oder Modifikation durch Dritte erforderlich wäre.

Die Bedeutung dieses Schrittes ist, dass die Arbeit, die Ninja Theory in Zusammenarbeit mit dem Bau eines Injektors für die Unreal Engine unternahm 3Lateral und Cubic Motion erlaubte ihnen, ein Spiel wie zu bauen Hellblade auf einem viel kleineren Budget aber mit der gleichen Art von cinematischer Qualität, die normalerweise in AAA-Spielen mit $ 100 Millionen-Dollar-Budgets gefunden wird. Alles für einen Bruchteil der Kosten und keinen Verlust an visueller Wiedergabetreue.

Nun, Epic hätte die Gelegenheit verpasst, diese Technologie für die Unreal Engine 4 zu nutzen und zu erweitern. Während der diesjährigen Spieleentwicklerkonferenz stellte das Studio neue Partnerschaften mit Tencent, Vicon, 3Lateral und Cubic Motion vor, um den kreativen Designfluss in der Unreal Engine 4 zu verbessern, mit dem Entwickler Performances in der Unreal Engine 4 einfach und bequem in Echtzeit erfassen können -Zeit bei 60 Frames pro Sekunde. Dies wurde demonstriert mit Mysterious Mermaids, ein naturgetreues asiatisches Modell mit CG-Qualität, das zur Laufzeit der Unreal Engine 4 in Echtzeit mit einer ununterbrochenen 60-Bildrate pro Sekunde ausgeführt wird. Sie können die Demonstration unten mit freundlicher Genehmigung von sehen Engadget.

Wie im Video gezeigt, funktioniert das Facial Rigging im Einklang mit der prozeduralen Animationspipeline, damit Personen, die nicht wie das 3D-Modell aussehen, anstelle des Modells, das ursprünglich für die Verwendung im Projekt gescannt wurde, agieren und auftreten können. Zuvor mussten der Schauspieler und das gescannte 3D-Modell dieselbe Person sein, um Bewegungsdifferenzen zwischen dem manipulierten Modell und dem realen Schauspieler zu vermeiden.

Die neue Technologie bedeutet, dass Sie technisch einen Schauspieler haben können, der für mehrere lebensähnliche Charaktere ohne dimorphe Inkongruenzen im letzten Animationsdurchgang auftritt. Sie können eine ununterbrochene Version des Mysterious Mermaids Demo unten.

Wie von Epic Games erklärt, wurde, um die lange und mühsame Reise aus dem unheimlichen Tal fortzusetzen, dank Cubic Motion und 3Lateral in Zusammenarbeit mit Epic eine Menge Arbeit für das High-End-Rendering in das Modell selbst gesteckt, um die Art und Weise der Wiedergabe zu verbessern Modell wird in der Unreal Engine gerendert. Dazu gehören eine verbesserte Rückstreuung unter der Oberfläche, damit dünnere Hautpartien unter bestimmten Lichtbedingungen durchscheinend sind, sowie doppelte Spiegelreflexionen für eine weichere Wiedergabe von Lichtverläufen von hartem zu weichem Licht über das Gesicht eines Charakters und eine Bestrahlung des Bildschirmbereichs, um die Nullung zu unterstützen der Dead-Fish-Eye-Effekt.

Epic ermöglicht es Designern und Künstlern, Vicon-Animationsdaten aus der Performance-Aufnahme direkt in die Animationspipeline der Unreal Engine zu streamen. Wenn Sie also verschiedene echte Thespianer mit 3D-Akteuren kombinieren und anpassen möchten, können Sie dies tun, ohne den Prozess des Hin- und Hertransportierens der Daten an die Animationscrew durchgehen zu müssen, um es aufzuräumen und dann auf die Engine-Pipeline anzuwenden nach der Studioarbeit. Sie können die Ergebnisse direkt während der Dreharbeiten in der Unreal Engine sehen.

Die Fortschritte bei diesen Performance-Capture-Techniken wurden mit einer Performance des Veteranen Hollywood-Darstellers Andy Serkis demonstriert, der eine Performance von Macbeth gab.

Mithilfe der High-Fidelity-Ziele für Echtzeit-Komprimierung und Muskelkontraktion von 3Lateral können Animatoren die Leistung eines Schauspielers mithilfe des Echtzeit-Animations-Toolsets Unreal Engine 4 ändern.

Es ist möglich, die Animationsdatensätze für jedes ordnungsgemäß manipulierte Modell zu verwenden, auch wenn das Modell selbst für den Schauspieler überhaupt keinen Anschein hat. Dies knüpft an das an, was zuvor über die adaptiven Animationstools erwähnt wurde, die Vicon und Tencent für das asiatische Modell verwendeten, auch wenn die reale Schauspielerin nicht wie das gescannte 3D-Modell aussah. Epic verwendete die erfassten Daten aus Andy Serkis 'Macbeth-Performance und wandte sie auf eine fiktive Alien-Figur an, die ordnungsgemäß manipuliert wurde, um sie aus den Datensätzen zu lesen. Die Ergebnisse sind sehr beeindruckend.

Einige der Updates für die Unreal Engine 4, die viele dieser Funktionen enthalten, werden ab April 20th verfügbar sein.

Dies gilt auch für Epics tiefes Eintauchen in das Ray-Trace-Rendering.

Nach Hayssam Keilany gelang es, Echtzeit-Pfadverfolgungstechniken in Shadern für Spiele wie GTA IV Vor einem halben Jahrzehnt hat Epic endlich ihr Spiel intensiviert und es geschafft, durch Ray-Tracing für mehrstufige Lichtquellen und Schatten eine lebensechte Echtzeit-Beleuchtung zu erreichen.

Epic demonstrierte diese Technik mit einem Kurzfilm mit star Wars.

Raytracing in Echtzeit kann sehr kostenintensiv sein. Daher hat Epic gemeinsam mit Nvidia und Microsoft eine neue API namens DXR entwickelt, eine DirectX-Ray-Tracing-Pipeline, die direkt mit der GPU kommuniziert, um komplexe Beleuchtungs- und Shader-Aufgaben mit Hardware auszuführen -Technologie namens RTX.

Nach Angaben von Epic Games werden im Laufe dieses Jahres einige Spiele veröffentlicht, die die DXR-Technologie von Microsoft und die neuen Ray-Tracing-Pipelines von Epic Games verwenden.