Wie war der Artikel?

Branchen-News
2018/03

Unreal Engine 4-Spiele mit Ray-Tracing DXR werden Ende 2018 veröffentlicht

Ninja Theorie Hellblade Vielleicht war es für bestimmte Gamer das Ding, aber eines war eindeutig und unbestreitbar bemerkenswert an dem Projekt: die Fähigkeit, Performance-Capture mit Grafiken in Kinoqualität direkt in die Echtzeit-In-Engine-Laufzeit der Unreal Engine zu übersetzen 4s Design- und Animationspipeline.

Einfach ausgedrückt: Anstatt ein riesiges Performance-Capture-Studio im Hollywood-Stil zu haben, durchlaufen Sie alle Sprach- und Motion-Capture-Verfahren in einem separaten Studio, erfassen dann die Daten und senden sie an das Animationsteam, um sie zu bereinigen und umzusetzen Während Ninja Theory das Spiel in einem anderen Studio produzierte, gelang es Ninja Theory, die gesamte filmische Performance-Erfassung intern durchzuführen und sie direkt in der Unreal Engine 4 aufzuzeichnen, ohne dass eine Bereinigung, Änderungen oder Modifikationen durch Dritte erforderlich waren.

Die Bedeutung dieses Schritts besteht darin, dass Ninja Theory in Zusammenarbeit mit Ninja Theory einen Injektor für die Unreal Engine gebaut hat 3Laterale und kubische Bewegung erlaubte ihnen, ein Spiel wie zu entwickeln Hellblade mit einem viel kleineren Budget aber mit genau der gleichen filmischen Qualität, die normalerweise in AAA-Spielen mit einem Budget von 100 Millionen Dollar zu finden ist. Alles zu einem Bruchteil der Kosten und ohne Verlust der visuellen Wiedergabetreue.

Nun, Epic hätte sich die Gelegenheit nicht entgehen lassen, diese Technologie für die Unreal Engine 4 zu nutzen und zu erweitern. Während der diesjährigen Game Developers Conference stellte das Studio neue Partnerschaften mit Tencent, Vicon, 3Lateral und Cubic Motion vor, um zur Verbesserung beizutragen der kreative Designfluss innerhalb der Unreal Engine 4, der es Entwicklern ermöglicht, Performances innerhalb der Unreal Engine 4 einfach und bequem in Echtzeit mit 60 Bildern pro Sekunde zu erfassen. Dies wurde mit demonstriert Mysterious Mermaids, ein lebensechtes asiatisches Modell mit CG-Qualität, das in Echtzeit innerhalb der Laufzeit der Unreal Engine 4 mit ununterbrochenen 60 Bildern pro Sekunde läuft. Sie können sich die Demonstration unten ansehen, mit freundlicher Genehmigung von Engadget.

Wie im Video gezeigt, arbeitet die Gesichtsmanipulation im Einklang mit der prozeduralen Animationspipeline, um es Personen, die nicht wie das 3D-Modell aussehen, zu ermöglichen, anstelle des Modells zu agieren und aufzutreten, das ursprünglich für die Verwendung im Projekt gescannt wurde. Bisher mussten der Schauspieler und das gescannte 3D-Modell dieselbe Person sein, um Bewegungsdiskrepanzen zwischen dem manipulierten Modell und dem realen Schauspieler zu vermeiden.

Die neue Technologie bedeutet, dass Sie technisch gesehen einen Schauspieler für mehrere lebensechte Charaktere auftreten lassen könnten, ohne dass im letzten Animationsdurchgang dimorphe Inkongruenzen auftauchen. Sie können sich eine ununterbrochene Version davon ansehen Mysterious Mermaids Demonstration unten.

Wie von Epic Games erklärt, wurde, um die lange und beschwerliche Reise aus dem unheimlichen Tal fortzusetzen, viel Arbeit in das Modell selbst für High-End-Rendering gesteckt, dank der Zusammenarbeit von Cubic Motion und 3Lateral mit Epic, um die Art und Weise zu verbessern Das Modell wird in der Unreal Engine gerendert. Dazu gehört eine verbesserte Rückstreuung unter der Oberfläche, sodass dünnere Hautpartien unter bestimmten Lichtverhältnissen durchscheinend sind, sowie doppelte Spiegelreflexionen für eine weichere Wiedergabe von Lichtverläufen von hartem zu weichem Licht über dem Gesicht einer Figur und eine Bildschirmraumbestrahlungsstärke, die bei der Nullung hilft der Dead-Fish-Eye-Effekt.

Epic ermöglicht es Designern und Künstlern, Vicon-Animationsdaten aus der Leistungserfassung direkt in die Animationspipeline der Unreal Engine zu streamen. Wenn Sie also verschiedene echte Schauspieler mit 3D-Schauspielern kombinieren möchten, können Sie dies tun, ohne den Hin- und Her-Prozess durchlaufen zu müssen, bei dem die Daten zum Animationsteam weitergeleitet, bereinigt und dann auf die Engine-Pipeline angewendet werden nach der Studioarbeit. Sie können die Ergebnisse direkt während der Dreharbeiten in der Unreal Engine sehen.

Die Fortschritte bei diesen Performance-Capture-Techniken wurden mit einem Auftritt des erfahrenen Hollywood-Schauspielers Andy Serkis demonstriert, der eine Darbietung von Macbeth vorführte.

Mithilfe der Echtzeit-Komprimierungs- und Muskelkontraktions-High-Fidelity-Ziele von 3Lateral haben Animatoren die Möglichkeit, die Leistung eines Schauspielers mithilfe des Echtzeit-Animations-Toolset Unreal Engine 4 zu modifizieren.

Es ist möglich, die Animationsdatensätze für jedes ordnungsgemäß manipulierte Modell zu verwenden, auch wenn das Modell selbst keinerlei Ähnlichkeit mit dem Schauspieler hat. Dies hängt mit dem zusammen, was zuvor über die adaptiven Animationstools erwähnt wurde, die Vicon und Tencent für das asiatische Modell verwendeten, selbst wenn die echte Schauspielerin überhaupt nicht wie das gescannte 3D-Modell aussah. Epic nutzte die erfassten Daten von Andy Serkis‘ Macbeth-Auftritt und wandte sie auf eine fiktive außerirdische Figur an, die entsprechend manipuliert war, um aus den Datensätzen zu lesen. Die Ergebnisse sind durchaus beeindruckend.

Einige der Updates für die Unreal Engine 4, die viele dieser Funktionen enthalten, werden ab dem 20. April verfügbar sein.

Dies gilt auch für Epics tiefen Einblick in das Raytrace-Rendering.

Nachdem es Hayssam Keilany gelungen war, Echtzeit-Pfadverfolgungstechniken in Shader für Spiele wie zu implementieren GTA IV Vor einem halben Jahrzehnt hat Epic endlich einen Schritt weiter gemacht und es geschafft, durch Raytracing für Multi-Pass-Lichtquellen und Schatten eine lebensechte Echtzeitbeleuchtung zu erzielen.

Epic demonstrierte diese Technik mit einem Kurzfilm star Wars.

Echtzeit-Raytracing kann sehr anstrengend sein. Deshalb hat Epic mit Nvidia und Microsoft zusammengearbeitet, um eine neue API namens DXR zu entwickeln, eine DirectX-Raytracing-Pipeline, die direkt mit der GPU kommuniziert, um mithilfe von Hardware komplexe Beleuchtungs- und Shader-Aufgaben auszuführen -abhängige Technologie namens RTX.

Laut Epic Games werden später in diesem Jahr einige Spiele veröffentlicht, die die DXR-Technologie von Microsoft und die neuen Raytracing-Pipelines von Epic Games nutzen.

Andere Branchennachrichten