Unreal Engine 4-Spiele mit Ray-Tracing DXR werden in späten 2018 Release
Unreal Engine 4 DXR

Ninja Theorie Hellblade Vielleicht war es für bestimmte Spieler der Tee oder auch nicht, aber eines war eindeutig und unbestreitbar bemerkenswert an dem Projekt: die Fähigkeit, Performance-Capture mit cineastisch hochwertigen Grafiken direkt in die Echtzeit-Engine-Laufzeit der Unreal Engine zu übersetzen Die Design- und Animationspipeline von 4.

In einfachen Worten, anstatt ein riesiges Hollywood-Studio zu haben, gehen Sie durch alle Sprach- und Motion-Capture-Prozeduren in einem separaten Studio, erfassen Sie die Daten und senden Sie sie an das Animationsteam, um es zu bereinigen und zu implementieren Das Spiel in einem anderen Studio, Ninja Theorie gelang es, die gesamte cinematische Performance Capture im Haus zu machen und es direkt in die Unreal Engine 4 aufzuzeichnen, ohne dass eine Säuberung, Änderung oder Modifikation durch Dritte erforderlich wäre.

Die Bedeutung dieses Schrittes ist, dass die Arbeit, die Ninja Theory in Zusammenarbeit mit dem Bau eines Injektors für die Unreal Engine unternahm 3Lateral und Cubic Motion erlaubte ihnen, ein Spiel wie zu bauen Hellblade auf einem viel kleineren Budget aber mit der gleichen Art von cinematischer Qualität, die normalerweise in AAA-Spielen mit $ 100 Millionen-Dollar-Budgets gefunden wird. Alles für einen Bruchteil der Kosten und keinen Verlust an visueller Wiedergabetreue.

Nun, Epic wäre nachlässig gewesen, eine Gelegenheit auszulassen, diese Technologie für die Unreal Engine 4 zu übernehmen und auszubauen. Während der diesjährigen Game Developers Conference stellte das Studio neue Partnerschaften mit Tencent, Vicon, 3Lateral und Cubic Motion vor, um den kreativen Design-Flow innerhalb der Unreal Engine 4 zu verbessern und Entwicklern die Performance der Unreal Engine 4 in Echtzeit zu ermöglichen -Zeit bei 60-Frames pro Sekunde. Dies wurde mit demonstriert Mysterious Mermaidsein lebensechtes asiatisches Modell mit CG-Qualitätstreue, das in Echtzeit in der Laufzeit der Unreal Engine 4 mit ununterbrochenen 60-Frames pro Sekunde abläuft. Sie können die Demonstration unten mit freundlicher Genehmigung von sehen Engadget.

Wie in dem Video gezeigt, arbeitet das Facial Rigging im Einklang mit der prozeduralen Animations-Pipeline, damit Personen, die nicht wie das 3D-Modell aussehen, anstelle des Modells, das ursprünglich für die Verwendung im Projekt gescannt wurde, agieren und arbeiten. Bisher mussten der Akteur und das gescannte 3D-Modell dieselbe Person sein, um Bewegungsdiskrepanzen zwischen dem manipulierten Modell und dem realen Schauspieler zu vermeiden.

Die neue Technologie bedeutet, dass Sie technisch einen Schauspieler haben können, der für mehrere lebensähnliche Charaktere ohne dimorphe Inkongruenzen im letzten Animationsdurchgang auftritt. Sie können eine ununterbrochene Version des Mysterious Mermaids Demo unten.

Wie von Epic Games erklärt, wurde, um die lange und mühsame Reise aus dem unheimlichen Tal fortzusetzen, viel Arbeit in das Modell selbst für High-End-Rendering dank Cubic Motion und 3Lateral mit Epic arbeiten, um die Art und Weise zu verbessern Das Modell wird in der Unreal Engine gerendert. Dies beinhaltet eine verbesserte Untergrund-Rückstreuung, so dass dünnere Hautpartien unter bestimmten Lichtbedingungen durchscheinend sind, sowie doppelte Spiegelreflexionen für eine weichere Wiedergabe von Lichtgradienten von harten zu weichen Lichtern über das Gesicht eines Charakters und die Bestrahlungsstärke des Bildschirms zur Unterstützung des Nullabgleichs der tote Fischaugeneffekt.

Epic ermöglicht es Designern und Künstlern, Vicon-Animationsdaten aus der Performance-Aufnahme direkt in die Animationspipeline der Unreal Engine zu streamen. Wenn Sie also verschiedene echte Thespianer mit 3D-Akteuren kombinieren und anpassen möchten, können Sie dies tun, ohne den Prozess des Hin- und Hertransportierens der Daten an die Animationscrew durchgehen zu müssen, um es aufzuräumen und dann auf die Engine-Pipeline anzuwenden nach der Studioarbeit. Sie können die Ergebnisse direkt während der Dreharbeiten in der Unreal Engine sehen.

Die Fortschritte bei diesen Performance-Capture-Techniken wurden mit einer Performance des Veteranen Hollywood-Darstellers Andy Serkis demonstriert, der eine Performance von Macbeth gab.

Mit 3Laterals Echtzeit-Kompressions- und Muskelkontraktions-High-Fidelity-Zielen können Animatoren die Leistung eines Akteurs mithilfe des Echtzeit-Unreal Engine 4-Animations-Toolsets ändern.

Es ist möglich, die Animationsdatensätze für jedes korrekt manipulierte Modell zu verwenden, selbst wenn das Modell selbst keine Ähnlichkeit mit dem Darsteller hat. Dies bezieht sich auf das, was bereits erwähnt wurde, über die adaptiven Animationswerkzeuge, die Vicon und Tencent für das asiatische Modell verwendeten, selbst wenn die echte Schauspielerin nicht wie das gescannte 3D-Modell aussah. Epic verwendete die aufgenommenen Daten von Andy Serkis 'Macbeth-Performance und wendete sie auf einen fiktiven Alien-Charakter an, der korrekt aus den Datensätzen ausgelesen wurde. Die Ergebnisse sind ziemlich beeindruckend.

Einige der Updates für die Unreal Engine 4, die viele dieser Funktionen enthalten, werden ab April 20th verfügbar sein.

Dies gilt auch für Epics tiefes Eintauchen in Ray-Trace-Rendering.

Nach Hayssam Keilany gelang es, Echtzeit-Pfadverfolgungstechniken in Shadern für Spiele wie GTA IV Vor einem halben Jahrzehnt hat Epic endlich ihr Spiel intensiviert und es geschafft, durch Ray-Tracing für mehrstufige Lichtquellen und Schatten eine lebensechte Echtzeit-Beleuchtung zu erreichen.

Epic demonstrierte diese Technik mit einem Kurzfilm mit star Wars.

Raytracing in Echtzeit kann sehr kostenintensiv sein. Daher hat Epic gemeinsam mit Nvidia und Microsoft eine neue API namens DXR entwickelt, eine DirectX-Ray-Tracing-Pipeline, die direkt mit der GPU kommuniziert, um komplexe Beleuchtungs- und Shader-Aufgaben mit Hardware auszuführen -Technologie namens RTX.

Laut Epic Games werden wir einige Spiele sehen, die später in diesem Jahr veröffentlicht werden und die Microsofts DXR-Technologie und die neuen Ray-Tracing-Pipelines von Epic Games nutzen.

Über uns

Billy wurde Jimmies seit Jahren Rascheln Videospiele abdeckt, Technologie und digitale Trends in der Elektronik-Entertainment-Bereich. Die GJP weinte und ihre Tränen wurde sein Milchshake. Benötigen Sie in Kontakt zu treten? Versuchen Sie, die Kontaktseite.

Folgen Sie diesem Link nicht oder Sie werden von der Seite verboten!