Bei Unity führen wir Forschungsarbeiten in den Bereichen Grafik, KI, Leistungssteigerung und vielem mehr durch. Unsere Forschungsergebnisse teilen wir mit Ihnen und unserer Community in Gesprächsrunden, Konferenzen und Journalen. Schauen Sie sich unten unsere aktuellen Publikationen an.


A Sliced Wasserstein Loss for Neural Texture Synthesis

Eric Heitz, Kenneth Vanhoey, Thomas Chambon, Laurent Belcour - To appear in CVPR 2021

We address the problem of computing a textural loss based on the statistics extracted from the feature activations of a convolutional neural network optimized for object recognition (e.g. VGG-19). The underlying mathematical problem is the measure of the distance between two distributions in feature space. The Gram-matrix loss is the ubiquitous approximation for this problem but it is subject to several shortcomings. Our goal is to promote the Sliced Wasserstein Distance as a replacement for it. It is theoretically proven,practical, simple to implement, and achieves results that are visually superior for texture synthesis by optimization or training generative neural networks.


Improved Shader and Texture Level of Detail Using Ray Cones

Tomas Akenine-Möller, Cyril Crassin, Jakub Boksansky, Laurent Belcour, Alexey Panteleev, Oli Wright - Published in Journal of Computer Graphics Techniques (JCGT)

In real-time ray tracing, texture filtering is an important technique to increase image quality. Current games, such as Minecraft with RTX on Windows 10, use ray cones to determine texture-filtering footprints. In this paper, we present several improvements to the ray-cones algorithm that improve image quality and performance and make it easier to adopt in game engines. We show that the total time per frame can decrease by around 10% in a GPU-based path tracer, and we provide a public-domain implementation.


Bringing an Accurate Fresnel to Real-Time Rendering: a Preintegrable Decomposition

Laurent Belcour, Megane Bati, Pascal Barla - Published in ACM SIGGRAPH 2020 Talks and Courses

We introduce a new approximate Fresnel reflectance model that enables the accurate reproduction of ground-truth reflectance in real-time rendering engines. Our method is based on an empirical decomposition of the space of possible Fresnel curves. It is compatible with the preintegration of image-based lighting and area lights used in real-time engines. Our work permits to use a reflectance parametrization [Gulbrandsen 2014] that was previously restricted to offline rendering.

Veröffentlichung Video

Concurrent Binary Trees

Jonathan Dupuy - HPG 2020

We introduce the concurrent binary tree (CBT), a novel concurrent representation to build and update arbitrary binary trees in parallel. Fundamentally, our representation consists of a binary heap, i.e., a 1D array, that explicitly stores the sum-reduction tree of a bitfield. In this bitfield, each one-valued bit represents a leaf node of the binary tree encoded by the CBT, which we locate algorithmically using a binary-search over the sum-reduction. We show that this construction allows to dispatch down to one thread per leaf node and that, in turn, these threads can safely split and/or remove nodes concurrently via simple bitwise operations over the bitfield. The practical benefit of CBTs lies in their ability to accelerate binary-tree-based algorithms with parallel processors. To support this claim, we leverage our representation to accelerate a longest-edgebisection-based algorithm that computes and renders adaptive geometry for large-scale terrains entirely on the GPU. For this specific algorithm, the CBT accelerates processing speed linearly with the number of processors.

Veröffentlichung Video

Can’t Invert the CDF? The Triangle-Cut Parameterization of the Region under the Curve

Eric Heitz - EGSR 2020

We present an exact, analytic and deterministic method for sampling densities whose Cumulative Distribution Functions (CDFs) cannot be inverted analytically. Indeed, the inverse-CDF method is often considered the way to go for sampling non-uniform densities. If the CDF is not analytically invertible, the typical fallback solutions are either approximate, numerical, or nondeterministic such as acceptance-rejection. To overcome this problem, we show how to compute an analytic area-preserving parameterization of the region under the curve of the target density. We use it to generate random points uniformly distributed under the curve of the target density and their abscissae are thus distributed with the target density. Technically, our idea is to use an approximate analytic parameterization whose error can be represented geometrically as a triangle that is simple to cut out. This triangle-cut parameterization yields exact and analytic solutions to sampling problems that were presumably not analytically resolvable.

Veröffentlichung Video

Rendering Layered Materials with Anisotropic Interfaces

Philippe Weier, Laurent Belcour - Published in Journal of Computer Graphics Techniques (JCGT)

We present a lightweight and efficient method to render layered materials with anisotropic interfaces. Our work extends our previously published statistical framework to handle anisotropic microfacet models. A key insight to our work is that when projected on the tangent plane, BRDF lobes from an anisotropic GGX distribution are well approximated by ellipsoidal distributions aligned with the tangent frame: its covariance matrix is diagonal in this space. We leverage this property and perform the isotropic layered algorithm on each anisotropy axis independently. We further update the mapping of roughness to directional variance and the evaluation of the average reflectance to account for anisotropy.


Integration and Simulation of Bivariate Projective-Cauchy Distributions within Arbitrary Polygonal Domains

Jonathan Dupuy, Laurent Belcour & Eric Heitz - Technical Report 2019

Consider a uniform variate on the unit upper-half sphere of dimension d. It is known that the straight-line projection through the center of the unit sphere onto the plane above it distributes this variate according to a d-dimensional projective-Cauchy distribution. In this work, we leverage the geometry of this construction in dimension d=2 to derive new properties for the bivariate projective-Cauchy distribution. Specifically, we reveal via geometric intuitions that integrating and simulating a bivariate projective-Cauchy distribution within an arbitrary domain translates into respectively measuring and sampling the solid angle subtended by the geometry of this domain as seen from the origin of the unit sphere. To make this result practical for, e.g., generating truncated variants of the bivariate projective-Cauchy distribution, we extend it in two respects. First, we provide a generalization to Cauchy distributions parameterized by location-scale-correlation coefficients. Second, we provide a specialization to polygonal-domains, which leads to closed-form expressions. We provide a complete MATLAB implementation for the case of triangular domains, and briefly discuss the case of elliptical domains and how to further extend our results to bivariate Student distributions.


Surface Gradient Based Bump Mapping Framework

Morten Mikkelsen 2020

In dieser Veröffentlichung wird ein neues Framework für das Layering/Compositing von Bump Maps/Normal Maps mit Unterstützung sowohl für mehrere Sets von Texturkoordinaten als auch für prozedural generierte Texturkoordinaten und Geometrie empfohlen. Darüber hinaus bieten wir geeignete Unterstützung und Integration für Bumpmaps, die über Volumen wie Decal-Projektoren, triplanare Projektionen oder rauschbasierten Funktionen definiert sind.


Multi-Stylization of Video Games in Real-Time guided by G-buffer Information

Adèle Saint-Denis, Kenneth Vanhoey, Thomas Deliot HPG 2019

We investigate how to take advantage of modern neural style transfer techniques to modify the style of video games at runtime. Recent style transfer neural networks are pre-trained, and allow for fast style transfer of any style at runtime. However, a single style applies globally, over the full image, whereas we would like to provide finer authoring tools to the user. In this work, we allow the user to assign styles (by means of a style image) to various physical quantities found in the G-buffer of a deferred rendering pipeline, like depth, normals, or object ID. Our algorithm then interpolates those styles smoothly according to the scene to be rendered: e.g., a different style arises for different objects, depths, or orientations.


Distributing Monte Carlo Errors as a Blue Noise in Screen Space by Permuting Pixel Seeds Between Frames

Eric Heitz, Laurent Belcour – EGSR  2019

We introduce a sampler that generates per-pixel samples achieving high visual quality thanks to two key properties related to the Monte Carlo errors that it produces. First, the sequence of each pixel is an Owen-scrambled Sobol sequence that has state-of-the-art convergence properties. The Monte Carlo errors have thus low magnitudes. Second, these errors are distributed as a blue noise in screen space. This makes them visually even more acceptable. Our sam-pler is lightweight and fast. We implement it with a small texture and two xor operations. Our supplemental material provides comparisons against previous work for different scenes and sample counts.

Ergänzende Materialien

A Low-Discrepancy Sampler that Distributes Monte Carlo Errors as a Blue Noise in Screen Space

Eric Heitz, Laurent Belcour – ACM SIGGRAPH Talk 2019

Wir führen einen Sampler ein, der Pro-Pixel-Sample generiert und dank zwei wesentlicher Eigenschaften in Zusammenhang mit den erzeugten Monte-Carlo-Fehlern eine hohe Grafikqualität erreicht. Erstens ist die Sequenz jedes Pixels eine Sobol-Sequenz mit Owen Scrambling, die erstklassige Konvergenzeigenschaften aufweist. Die Monte-Carlo-Fehler haben demnach eine geringe Größenordnung. Zweitens werden diese Fehler als blaues Rauschen über die Bildschirmfläche verteilt. Das macht sie visuell noch angenehmer. Unser Sampler ist schlank und schnell. Wir implementieren ihn mit einer kleinen Struktur und zwei XOR-Operationen. Unsere ergänzenden Materialien bieten Vergleiche mit vorherigen Arbeiten für verschiedene Szenen und Sample-Zahlen.

Ergänzende Materialien

A Low-Distortion Map Between Triangle and Square

Eric Heitz – Tech Report 2019

We introduce a low-distortion map between triangle and square. This mapping yields an area-preserving parameterization that can be used for sampling random points with a uniform density in arbitrary triangles. This parameterization presents two advantages compared to the square-root param-eterization typically used for triangle sampling. First, it has lower distortions and better preserves the blue-noise properties of the input samples. Second, its computation relies only on arithmetic operations (+, *), which makes it faster to evaluate.


Sampling der GGX-Verteilung sichtbarer Normals

Eric Heitz – JCGT 2018

Importance Sampling von Mikrofacetten-BSDF mittels ihrer Verteilung von sichtbaren Normals (Distribution of Visible Normals (VNDF)) bringt beträchtliche Varianzverringerung beim Monte-Carlo-Rendering. In diesem Artikel beschreiben wir eine effiziente und präzise Sampling-Routine für die VNDF der GGX-Mikrofacettenverteilung. Die Routine nutzt dafür die Eigenschaft, dass die GGX die Verteilung der Normals eines abgeschnittenen Ellipsoids ist, und das Sampling der GGX VNDF äquivalent zum Sampling einer 2D-Projektion dieses abgeschnittenen Ellipsoids darstellt. Dazu vereinfachten wir das Problem mittels linearer Transformation, die das abgeschnittene Ellipsoid auf einer Halbkugel abbildet. Da lineare Transformationen die Uniformität der abgebildeten Bereiche erhalten, erzeugt das Sampling in einer Halbkugelkonfiguration und Transformation der Samples zurück in die Ellipsoidkonfiguration korrekte Samples von den GGX VNDF.


Analytische Berechnung eines Raumwinkels, der von einem beliebig gesetzten Ellipsoid bei einer Punktquelle geschnitten wird

Eric Heitz –  Kerntechnische Messgeräte und -methoden in der Physikforschung 2018

Wir präsentieren ein geometrisches Verfahren für die Berechnung einer Ellipse, die denselben Raumwinkelbereich wie ein beliebig gesetztes Ellipsoid schneidet. Damit wird es möglich, existierende analytische Raumwinkelberechnungen von Ellipsen auf Ellipsoide anzuwenden. Unser Ansatz besteht in der Anwendung linearer Transformation am Ellipsoid, sodass dieses zu einer Kugel umgeformt wird, von welcher eine Scheibe berechnet werden kann, die denselben Raumwinkel einnimmt. Wir demonstrieren, wie die Anwendung einer invertierten linearen Transformation auf diese Scheibe eine Ellipse erzeugt, die denselben Raumwinkelbereich wie das Ellipsoid schneidet. Wie stellen eine MATLAB-Implementierung unseres Algorithmus bereit und können ihn mathematisch validieren.

Kostenlose Autorendruckversion

A note on track-length sampling with non-exponential distributions

Eric Heitz, Laurent Belcour - Tech Report 2018

Beim Streckenlängen-Sampling handelt es sich um den Vorgang des Samplings zufälliger Intervalle gemäß einer bestimmten Entfernungsverteilung. Das bedeutet, dass keine punktuelle Entfernung von der Entfernungsverteilung bestimmt wird, sondern ein Intervall möglicher Entfernungen. Der Streckenlängen-Sampling-Prozess ist korrekt, wenn die erwarteten Intervalle der Zielentfernungsverteilung entsprechen. Anders ausgedrückt: Der Durchschnittswert der Sample-Intervalle sollte zum Wert der Entfernungsverteilung tendieren, je mehr Sample-Intervalle bestimmt werden. Hier muss deutlich angemerkt werden, dass die Entfernungsverteilung, die für die Bestimmung von punktuellen Entfernungs-Samples verwendet wird, und die Streckenlängenverteilung, die für die Bestimmung von Sample-Intervallen verwendet wird, nicht dasselbe sind. Der Unterschied kann überraschend sein. Unseres Wissens nach wurde das Streckenlängen-Sampling hauptsächlich im Transportwesen studiert, wo die Entfernungsverteilung exponentiell ist: In diesem Fall ist sowohl die Entfernungsverteilung als auch die Streckenlängenverteilung dieselbe exponentielle Verteilung. Im Allgemeinen sind sie jedoch nicht gleich, wenn die Verteilung nicht exponentiell ist.


Kombination analytischer Direktbeleuchtung und stochastischer Schatten

Eric Heitz, Stephen Hill (Lucasfilm), Morgan McGuire (NVIDIA) - I3D 2018 (Short Paper) (Preis für beste Paper-Präsentation)

In diesem Paper schlagen wir einen Verhältniskalkulator für die Direktbeleuchtungsgleichung vor, mit dem wir analytische Beleuchtungstechniken mit stochastischen Raytracing-Schatten kombinieren und deren Korrektheit aufrechterhalten können. Unser Hauptbeitrag dazu besteht darin, zu zeigen, dass die Schattenbeleuchtung in das Produkt der unbeschatteten Beleuchtung und beleuchtungsgewichteten Schatten aufgeteilt werden kann. Diese Terme können separat berechnet werden, möglicherweise sogar mit unterschiedlichen Verfahren, ohne die Genauigkeit des finalen Ergebnisses, das aus deren Produkt entsteht, zu beeinträchtigen. Die Formulierung erweitert den Einsatzbereich analytischer Beleuchtungstechniken auf Raytracing-Anwendungen, wo deren Einsatz bisher vermieden wurde, da sie keine Schatten umfassten. Wir nutzen solche Methoden, die zu scharfen und rauschfreien Schatten im Bild mit unbeschatteter Beleuchtung führen, und wir berechnen das Bild mit gewichteten Schatten durch stochastisches Raytracing. Der Vorteil der Beschränkung der stochastischen Berechnung auf das Bild mit gewichteten Schatten liegt darin, dass im finalen Ergebnis ein Rauschen nur im Schattenbereich sichtbar ist. Weiterhin entfernen wir Rauschen in einem separaten Prozess von beleuchteten Bereichen, sodass auch aggressive Rauschentfernung nur die Schatten übermäßig weichzeichnet, hochfrequente Schattendetails (Texturen, Normal-Maps, usw.) aber unangetastet lässt.

Code + Demo

Nicht-periodische Kachelung von prozeduralen Rauschfunktionen

Aleksandr Kirillov – HPG 2018

Funktionen für prozedurales Rauschen haben viele Anwendungen in der Computergrafik von Textursynthese bis hin zur Simulation atmosphärischer Effekte und Landschaftssymmetriespezifizierung. Rauschen kann man entweder im Vorausberechnen und als Werte in der Textur speichern oder direkt während der Nutzung der Anwendung ermitteln lassen. Diese Möglichkeit bietet einen Kompromiss zwischen Bildvarianz, Speicherverbrauch und Leistung.

Fortschrittliche Kachelungsalgorithmen können dazu verwendet werden, visuelle Musterwiederholung zu verringern. Mit der Wang-Kachelung kann eine Ebene auch mit wenigen Texturen nicht-periodisch in verschiedene Kacheln unterteilt werden. Die Kacheln können auf einer einzigen Texturkarte angeordnet werden, damit die GPU Hardware-Filterung nutzen kann.

In dieser Veröffentlichung stellen wir Modifikationen an mehreren gängigen prozeduralen Rauschfunktionen vor, die direkt Texturkarten mit dem kleinsten kompletten Wang-Kachelsatz erzeugen. Die in diesem Beitrag vorgestellten Ergebnisse ermöglichen eine nicht-periodische Kachelung dieser Rauschfunktionen und darauf aufbauenden Texturen, sowohl zur Laufzeit als auch als Vorverarbeitungsschritt. Diese Ergebnisse ermöglichen es auch, die Wiederholung von rauschbasierten Effekten in computergenerierten Bildern bei geringen Leistungskosten zu reduzieren und gleichzeitig den Speicherverbrauch zu erhalten oder sogar zu reduzieren.



Leistungsfähiges Nach-Beispiel-Rauschen durch Einsatz eines Histogramm-erhaltenden Blending-Operators

Eric Heitz, Fabrice Neyret (Inria) – HPG 2018 (Preis für bestes Paper)

Wir schlagen einen neuen Nach-Beispiel Rauschen-Algorithmus vor, der als Eingabe nur eine kleine Beispielanzahl von stochastischen Texturen benötigt, und daraus unendlich viele Ausgaben mit demselben Erscheinungsbild synthetisiert. Der Algorithmus funktioniert bei beliebigen Zufallsphasen-Eingaben und vielen Nicht-Zufallsphasen-Eingaben, die aber stochastischer und nicht-periodischer Natur sind (typischerweise Texturen aus der Natur wie Moos, Granit, Sand, Rinde und so weiter). Unser Algorithmus erstellt hochwertige Ergebnisse, die vergleichbar sind mit aktuellen Techniken zur Erstellung von prozeduralem Rauschen. Dabei ist er allerdings mehr als 20 Mal so schnell.


Nichtüberwachte intrinsische Einzelbild-Tiefendekomposition mit Bildsequenzen variierender Illumination

Louis Lettry (ETH Zürich), Kenneth Vanhoey, Luc Van Gool (ETH Zürich) – Pacific Graphics 2018 / Computer Graphics Forum

Intrinsische Dekomposition zerlegt eine fotografierte Szene in Albedo- und Schattierungs-Werte. Durch Entfernen von Schatten können Bilder „entlichtet“ werden, um sie dann für virtuelle Beleuchtungsszenen zu verwenden. Wir schlagen eine nichtüberwachte Lernmethode vor, um dieses Problem zu lösen.

Aktuelle Techniken setzen auf überwachtes Lernen: Dafür werden riesige Mengen an bekannten Dekompositionen benötigt, die schwer zu beschaffen sind. Wir trainieren stattdessen mit unmarkierten Bildern, die wir aus Zeitrafferaufnahmen von statischen Webcams erhalten. Wir setzen dabei voraus, dass Albedo per Definition ein statischer Wert ist und die Schattierung je nach Beleuchtung variieren. Diesen Sachverhalt übertragen wir in ein eng verknüpftes Training für Deep Learning.

Zusätzlicher Code


Effizientes Rendern von geschichteten Materialien mittels atomischer Dekomposition mit statistischen Operatoren

Laurent Belcour – ACM SIGGRAPH 2018

Wir haben einen neuartigen Arbeitsrahmen für die effiziente Analyse und Berechnung des Lichttransports in geschichteten Materialien abgeleitet. Unsere Ableitung besteht aus zwei Schritten: Zuerst zerlegen wir den Lichttransport in ein Set aus atomischen Operatoren, die auf den direktionalen Statistikwerten des Lichts basierend agieren. Im Speziellen bestehen unsere Operatoren aus Reflexion, Brechung, Streuung und Absorption. Die Kombination aus diesen Werten ermöglicht die Beschreibung der mehrfachen Lichtbrechung in geschichteten Materialien. Wir zeigen, dass die ersten drei direktionalen Momentumwerte (Energie, Mittelwert und Varianz) bereits eine zufriedenstellend genaue Zusammenfassung zulassen. Zweitens erweitern wir die Verdopplung-hinzufügen-Methode so, dass sie willkürliche Kombinationen dieser Operationen effizient zulässt. Während der Schattierung erfassen wir die direktionalen Momentumswerte in BSDF-Körpern. Wir verifizieren auf effiziente Weise, dass die entstehenden BSDF weitestgehend mit den tatsächlichen Körpern übereinstimmen. Im Gegensatz zu früheren Methoden unterstützen wir eine willkürliche Anzahl an Texturebenen und können auch das praktisch anwendbare und präzise Rendern von geschichteten Materialien sowohl in Offline- als auch Echtzeit-Implementierungen demonstrieren, die keine Vormaterialvorberechnung benötigen.

Zusätzlicher Code

An Adaptive Parameterization for Material Acquisition and Rendering

Jonathan Dupuy and Wenzel Jakob (EPFL) – ACM SIGGRAPH Asia 2018

Eines der Schlüsselelemente für Physik-basierte Render-Systeme ist die detaillierte Spezifikationscharakterisierung der Interaktion von Licht und Materie für alle Materialien in einer Szene. Das wird typischerweise mit einer Bidirectional Reflectance Distribution Function (BRDF) erreicht. Trotz deren Vielseitigkeit bleibt der Zugang zu BRDF-Datensätzen aus der realen Welt begrenzt: Das liegt unter anderem daran, dass die Messungen das Scannen einer Domäne in 4 Dimensionen und in ausreichend hoher Auflösung erfordern. Ein sehr aufwendiger und oftmals unmöglich zeitraubender Prozess. Wir schlagen eine neue Parametrisierung vor, die sich automatisch an das Materialverhalten anpasst und die zugrundeliegende 4D-Domäne so verzerrt, sodass fast das gesamte Volumen in Regionen übertragen werden kann, in denen BRDF nicht-vernachlässigbare Werte annimmt und irrelevante Regionen stark komprimiert werden. Die Adaption erfordert lediglich eine schnelle 1D- oder 2D-Messung der retroreflektiven Werte der Materialien. Unsere Parametrisierung ist vereinheitlicht, da sie verschiedene Schritte kombiniert, die früher mehrfache Datenumwandlung erforderten: Dieselbe Kartierung kann gleichzeitig für die BRDF-Beschaffung, Speicherung verwendet werden und unterstützt Monte-Carlo-Beispielerzeugung.

Datenset Isotropes BRDF
Datenset Anisotropes BRDF
C++ und Python-Code

Stochastische Schatten

Eric Heitz, Stephen Hill (Lucasfilm), Morgan McGuire (NVIDIA) 

In dieser Veröffentlichung schlagen wir einen Verhältniskalkulator für die Direktbeleuchtungsgleichung vor, mit dem wir analytische Beleuchtungstechniken mit stochastischen Raytracing-Schatten kombinieren und deren Korrektheit aufrechterhalten können. Unser Hauptbeitrag dazu besteht darin, zu zeigen, dass die Schattenbeleuchtung in das Produkt der unbeschatteten Beleuchtung und beleuchtungsgewichteten Schatten aufgeteilt werden kann. Diese Terme können separat berechnet werden, möglicherweise sogar mit unterschiedlichen Verfahren, ohne die Genauigkeit des finalen Ergebnisses, das aus deren Produkt entsteht, zu beeinträchtigen.

Die Formulierung erweitert den Einsatzbereich analytischer Beleuchtungstechniken auf Raytracing-Anwendungen, wo deren Einsatz bisher vermieden wurde, da sie keine Schatten umfassten. Wir nutzen solche Methoden, die zu scharfen und rauschfreien Schatten im Bild mit unbeschatteter Beleuchtung führen, und wir berechnen das Bild mit gewichteten Schatten durch stochastisches Raytracing. Der Vorteil der Beschränkung der stochastischen Berechnung auf das Bild mit gewichteten Schatten liegt darin, dass im finalen Ergebnis ein Rauschen nur im Schattenbereich sichtbar ist. Weiterhin entfernen wir Rauschen in einem separaten Prozess von beleuchteten Bereichen, sodass auch aggressive Rauschentfernung nur die Schatten übermäßig weichzeichnet, hochfrequente Schattendetails (Texturen, Normal-Maps, usw.) aber unangetastet lässt.


Adaptive GPU Tessellation with Compute Shaders

Jad Khoury, Jonathan Dupuy, and Christophe Riccio - GPU Zen 2

GPU rasterizers are most efficient when primitives project into more than a few pixels. Below this limit, the Z-buffer starts aliasing, and shading rate decreases dramatically [Riccio 12]; this makes the rendering of geometrically-complex scenes challenging, as any moderately distant polygon will project to sub-pixel size. In order to minimize such sub-pixel projections, a simple solution consists in procedurally refining coarse meshes as they get closer to the camera. In this chapter, we are interested in deriving such a procedural refinement technique for arbitrary polygon meshes.


Linien- und Scheiben-Licht-Schatten-Effekte in Echtzeit mit linear transformiertem Cosinus

Eric Heitz (Unity Technologies) and Stephen Hill (Lucasfilm) – ACM SIGGRAPH Courses 2017

Vor Kurzem haben wir eine neue Echtzeit-Schattierungstechnik bei Flächenbeleuchtung vorgestellt, die bestimmt war für Lichter mit polygonen Formen. In dieser Gesprächsrunde wollen wir diese Flächenbeleuchtungsarbeitsumgebung erweitern, damit sie auch Lichter in Linien-, Kugel-, und Scheibenformen unterstützen kann.

WebGL Demo fürQuadrat,Linie und Scheibenlichter

Mikrofacetten-Normal-Mapping für robustes Monte Carlo Path Tracing

Vincent Schüssler (KIT), Eric Heitz (Unity Technologies), Johannes Hanika (KIT) and Carsten Dachsbacher (KIT) – ACM SIGGRAPH Asien 2017

Normal-Mapping imitiert visuelle Details auf Oberflächen durch Verwendung von unechten Schatten-Normals. Das daraus entstehende Oberflächenmodell ist allerdings geometrisch unmöglich, weshalb Normal-Mapping oftmals als fundamental falscher Ansatz mit unvermeidbaren Problemen für das Monte-Carlo-Pathtracing betrachtet wird: Es zerstört entweder das Erscheinungsbild (schwarze Ränder, Energieverlust) oder den Integrator (unterschiedlicher Lichttransport nach vorn und nach hinten). In dieser Veröffentlichung präsentieren wir Normal-Mapping basierend auf Mikrofacetten, einem alternativen Weg, um geometrische Details vorzutäuschen, ohne die Robustheit des Monte-Carlo-Pathtracing zu beeinträchtigen, wodurch die genannten Probleme vermieden werden.


Ein sphärisches, cap-erhaltendes Parametrisierungsverfahren für sphärische Verteilung

Jonathan Dupuy, Eric Heitz and Laurent Belcour – ACM SIGGRAPH 2017

Wir stellen ein neuartiges Parametrisierungsverfahren für sphärische Verteilung vor, das von einem Punkt innerhalb der Sphäre ausgeht, dem sogenannten Pivot. Der Pivot dient als zentraler Punkt für eine geradlinige Projektion, die solide Winkel auf die andere Seite der Sphäre projiziert. Durch diese sphärische Verteilung können wir eine neuartige parametrische Sphärenverteilung ableiten, die mittels einfacher, geschlossener Ausdrücke anhand der originalen Verteilung ausgewertet und durch Importance Sampling geprüft werden kann. Weiterhin zeigen wir, dass im Falle der erfolgreichen Beispielerzeugung und Integration der Originalverteilung über ein sphärisches Cap auch die transformierte Verteilung so gehandhabt werden kann. Wir nutzen dafür die Eigenschaften unserer Parametrisierung aus, um effiziente sphärische Beleuchtungstechniken abzuleiten, die robust, schnell und einfach zu implementieren sind und qualitativ hochwertigere Ergebnisse als frühere Arbeiten erzielen.


Eine praktische Erweiterung der Mikrofacetten-Theorie für die Modellierung variierender Schillereffekte

Laurent Belcour (Unity), Pascal Barla (Inria) – ACM SIGGRAPH 2017

Dünnfilm-Schillereffekte erlauben die Reproduktion der Lichteffekte von Leder. Für diese Theorie ist allerdings eine spektrale Render-Engine (zum Beispiel Maxwell Render) erforderlich, um die korrekte Integration der Erscheinungsbildänderungen abhängig vom Blickwinkel (dem sogenannten Goniochromatismus) sicherzustellen. Das liegt an der Kantenentstehung in der Spektraldomäne, da Echtzeit-Rendern nur mit drei Komponenten (RGB) für die gesamte Bandbreite des sichtbaren Lichts funktioniert. In dieser Arbeit zeigen wir, wie Sie Kanten von einem Dünnfilm-Modell entfernen, wie Sie die Mikrofacetten-Theorie einbinden und wie Sie alles in eine Echtzeit-Rendering-Engine integrieren. Damit wird die Anzahl reproduzierbarer Erscheinungsbilder mit dem Mikrofacettenmodell erweitert.

Zusätzliches Material

Lineare Licht-Schatten-Effekte mit linear transformiertem Cosinus

Eric Heitz, Stephen Hill (Lucasfilm) – GPU Zen (Buch)

In diesem Buchkapitel erweitern wir unsere Flächenbeleuchtungsarbeitsumgebung, die auf linear transformiertem Cosinus basiert, sodass sie auch lineare Lichter (oder Linienlichter) unterstützt. Linienlichter sind eine gute Annäherung an zylindrische Lichter mit einem kleinen, aber nicht vollständigem Null-Radius. Wir beschreiben, wie die Annäherung an diese Lichter mit linearen Lichtern erreicht wird, die eine ähnliche Leistungsfähigkeit haben und ähnliche Schatteneffekte erzeugen. Weiterhin diskutieren wir die Validität dieser Annäherung.


Eine praktische Einführung in die Frequenzanalyse des Lichtteilchentransports

Laurent Belcour – ACM SIGGRAPH Courses 2016

Frequenzanalyse des Lichtteilchentransports ist Teil des physikbasierten Renderns (PBR) mit Singalverarbeitungswerkzeugen. Daher ist es darauf ausgerichtet, die Sampling-Rate vorauszusehen, Entrauschen durchzuführen, Kantenglättung durchzuführen und so weiter. Viele Methoden wurden vorgeschlagen, um spezifische Fälle des Lichtteilchentransports (Bewegung, Linsen usw.) anzugehen. Dieser Kurs zielt darauf ab, Konzepte vorzustellen und praktische Anwendungsszenarien für die Frequenzanalyse des Lichtteilchentransports in einem einheitlichen Kontext zu präsentieren. Für ein einfacheres Verständnis der Theorie wird die Frequenzanalyse gekoppelt mit praktischer Implementierung vorgestellt.


Real-Time Polygonal-Light Shading with Linearly Transformed Cosines

Eric Heitz, Jonathan Dupuy, Stephen Hill (Ubisoft), David Neubelt (Ready at Dawn Studios) – ACM SIGGRAPH 2016

Shading mit Flächenbeleuchtung verleiht CG-Rendern ungeahnt realistische Effekte. Dazu müssen allerdings sphärische Gleichungen verwendet werden, die für Echtzeit-Rendering eine Herausforderung darstellen. In diesem Projekt entwickeln wir eine neue sphärische Verteilung, die es uns erlaubt physikalische Materialien mit polygonalen Lichtern in Echtzeit zu schattieren.

Plots und Validierung
Vergleich mit der Technicolor-Technik
BRDF-fähiger Code

Additional Progress Towards the Unification of Microfacet and Microflake Theories

Jonathan Dupuy and Eric Heitz – EGSR 2016 (E&I)

Wir studieren die Verbindungen zwischen Mikrofacetten- und Mikroschuppen-Theorien aus der Perspektive der linearen Transporttheorie. Auf diese Weise können wir zusätzliche Einblicke gewinnen, mehrere Vereinfachungen identifizieren, verschiedene noch ungeklärte Fragen angehen und mögliche Wege in die Zukunft aufzeigen mit der Erweiterung der Vereinigung von Oberflächen- und Volumen-Streuungsmodellen. Zuerst stellen wir ein halb-unendliches, homogenes, Exponential-Freipfad-Medium vor, das (a) exakt denselben Lichttransport wie das Smith-Mikrooberflächenmodell und das inhomogene Smith-Medium produziert, welche kürzlich von Heitz et al. vorgestellt wurden, und (b) es uns erlaubt alle Smith-Maskierungs- und Schatteneffektfunktionen auf einfachere Weise abzuleiten. Zweitens untersuchen wir detailliert, welche neuen Aspekte der linearen Transporttheorie ein Volumen ermöglichen, das sich wie eine raue Oberfläche verhält. Wir zeigen, dass dies hauptsächlich aufgrund der Verwendung von asymmetrischen Verteilungen der Normals geschieht und erkunden, wie die Nichteinhaltung der Symmetrie den Lichtteilchentransport im Mikroschuppenvolumen beeinflusst, ohne die globale Wechselwirkung zu zerstören. Abschließend argumentieren wir, dass die Oberflächenprofile, die mit sehr rauen Smith-Mikrooberflächen konsistent wären, geometrisch unplausible Formen hätten. Um das zu überwinden, diskutieren wir eine Erweiterung der Smith-Theorie in den Volumenbereich, die NDF auf der gesamten Sphäre einschließt, um so ein einheitliches Reflexionsmodell zu erschaffen, das alles beschreiben kann von glatten Spiegeloberflächen bis hin zu halb-unendlichen, isotropen Streuungsmedien mit geringer und starker Rauheit.


Wir verwenden Cookies, damit wir Ihnen die beste Erfahrung auf unserer Website bieten können. In unseren Cookie-Richtlinien erhalten Sie weitere Informationen.