Am 14. September 2017 haben wir eine überarbeitete Fassung unserer Datenschutzrichtlinie veröffentlicht. Wenn Sie video2brain.com weiterhin nutzen, erklären Sie sich mit diesem überarbeiteten Dokument einverstanden. Bitte lesen Sie es deshalb sorgfältig durch.

Cinema 4D R19: Neue Funktionen

Finales Rendering mit ProRender

LinkedIn Learning kostenlos und unverbindlich testen!

Jetzt testen Alle Abonnements anzeigen
Die Einstellungen für das finale Rendering mit ProRender ähneln stark den Parametern für das Vorschau-Rendering. Sie lernen ein paar zusätzliche Optionen kennen, z. B. zur Vermeidung von Fireflies.

Transkript

Wir haben nun bereits gesehen, wie man den ProRender in der Editor-Ansicht startet und welche Voreinstellungen es da für die entsprechende Qualität gibt, welche Verfahren wir hier auswählen können und das Gleiche wiederholt sich jetzt noch einmal für den Offline-Modus. Wobei wir hier noch einige zusätzliche Optionen finden. Ich denke, wir werden aber relativ zügig über viele Parameter hinweggehen können, da wir die schon im Bereich Vorschau erläutert haben. So gibt es hier genau die gleichen drei Rendermodi. Wir haben auch hier die Möglichkeit mit Schärfentiefe zu arbeiten, hier die Anzahl der Reflexionen einzustellen über die Strahltiefe, Ambient Occlusion, Strahllänge falls man im entsprechenden Modus ist. Auch alles, was mit dem Sampling und dem Raster, also der Unterteilung der Pixel und der Berechnungsschritte pro Subpixel zu tun hat, genauso wie die Filtereinstellungen. Das bleibt alles identisch. Die Strahldichte kennen wir auch schon, um diese Hotspots, diese FireFlies und diese extrem hellen Pixel ausfiltern zu können, indem wir einfach die maximale Helligkeit hier über diesen Wert beschneiden, die über Samples erfasst werden kann, so dass also im Zusammenrechnen dann, im Interpolieren mit anderen Messergebnissen sich das Ganze dann etwas mildert. Was jetzt hier neu ist, ist nochmal ein separater FireFly-Filter. Und das Wort Filter sagt es schon, hier haben wir es mit etwas zu tun, was wie ein Posteffekt-Filter funktioniert. Das heißt, während dieser obere Teil mit dem Beschneiden der Dichte, also praktisch Helligkeiten funktioniert, können wir über den Filter dann nochmal das finale Bild drübergehen und dort einfach Helligkeitsunterschiede rausinterpolieren lassen. Das heißt, wenn dieser Filter aktiv ist, dann kann hier über den Schwellwert praktisch alles herausgerechnet werden, wo einzelstehende Pixel einen höheren Kontrast zu ihren Nachbarn haben, als dieser Schwellwert hier. Das Ganze hat aber auch eine Kehrseite, denn darüber fallen eventuell dann auch Details weg, die man vielleicht behalten wollte. Denken Sie nur an feine kaustische Linien, die durchaus eben sehr dünn und vom Kontrast her sehr intensiv sein können. Die würden dann eventuell hierdurch auch geglättet. Also von daher macht es keinen Sinn hier zu große Werte zu verwenden, lieber etwas dezent einsetzen, falls überhaupt das Problem mit diesen hellen Ausreißerpunkten besteht. Dann haben wir hier das wieder, was wir auch aus Cinema kennen, die Detailstufe. Ein Wert, der normalerweise in den Optionen von Cinema-Renderern zu finden war. Also einfach nur ein Prozentwert für die Anzahl der Segmente bei parametrischen Objekten schon zum Beispiel. Oder auch bei Objekten, die mit Splints zusammenarbeiten. Diese Detailstufe kann prozedural auch per Darstellungs-Tag vergeben werden, deswegen auch hier die Option. Wenn man das pro Objekt unterschiedlich handhaben möchte, lässt sich das hier auch aktivieren, eben die Auswertung der Darstellungs-Tags. Headup Display rendern, also wenn Sie zusätzliche Informationen, wie zum Beispiel die Art der Perspektive oder auch statistische Angaben, wie zum Beispiel die Bildnummer einer Animation oder ähnliches mitgerendert haben wollen, aktivieren Sie HUD rendern, genauso wie Doodle rendern. Doodles waren ja die Skizzen in der Regel, die man hier mit dem entsprechenden Doodle-Pinsel auf dem Bild angeben konnte, um zum Beispiel irgendwelche Markierungen dort zu hinterlassen. Dann gabs hier die Möglichkeit das ebenfalls rendern zu lassen. Ja, damit ist dieser qualitative Blog im Prinzip beendet, gefolgt von den Einstellungen der Endbedingung. Auch hier viele Bekannte. Wir können hier die Iterationszahl, also die Anzahl der Rechendurchgänge, wieder einen Zeitpunkt oder auch keine Grenze vorgeben. Wobei keine nicht ganz richtig ist, da wir ja beim finalen Rendering irgendwann den Zeitpunkt erwischen wollen, wo dann das Bild auch mal gesichert wird, selbst wenn wir nicht danebensitzen. Deswegen gibt es hier eine Obergrenze, die man eintragen kann. Im Prinzip eigentlich das Gleiche, wie die Iterationsanzahl, nur standardmäßig ein sehr viel höherer Wert. Und dann gibt es hier einen Schwellwert, den man angeben kann, der einfach einen Vergleich anstellt nach jedem Durchgang zwischen der bereits berechneten Farbe und der neu berechneten Farbe eines Pixels. Und wenn dann eben Veränderungen nur noch wahrgenommen werden, die unterhalb dieses Schwellwerts liegen, dann geht man davon aus, dass man die Berechnung einfach stoppen kann. Das ist so ähnlich wie der (unverständlich), den wir auch aus den Optionen von Cinema 4D kennen, wo man dann einfach ab dem Erreichen geringster Unterschiede den Renderprozess beenden kann. Ist natürlich im Vorfeld etwas schwierig abzuschätzen, wo diese Grenze am sinnvollsten platziert wird, deswegen wird es wahrscheinlich in vielen Fällen darauf hinauslaufen, dass man mit den Iterationen arbeitet, weil man über die Vorschauqualität hier schon eine ganz gute Idee davon hat, wieviel Durchgänge wohl sinnvoll sein können, um ein einigermaßen rauschfreies und von der Kantenglättung her angenehmes Ergebnis zu erzielen. Ja, auch der nächste Blog dreht sich um Intervalle, allerdings diesmal nur die Aktualisierung der Ansicht. Das heißt, es hat mit dem eigentlichen Rendering und irgendwelchen Qualitäten gar nichts zu tun, sondern hier geht es nur darum in welchen Zeitabständen die Ansicht des Bild-Managers aktualisiert wird. Das heißt, wenn wir hier ein Iterationsintervall von 10 vorgegeben haben, bedeutet das, dass einfach nur jeder zehnte Durchgang dann automatisch zu einer Aktualisierung der Darstellung im Ansichtsfenster, beziehungsweise im Bild-Manager führt, denn da wird ja normalerweise dieser Offline-Modus verwendet. Das heißt, wenn wir jetzt hier mal bei der normalen Auflösungsgröße bleiben, ich lasse es jetzt mal offline rendern. Man sieht jetzt hier die Iterationen. Aber Sie sehen im Prinzip die Iterationen nicht live, sondern erst bei dem zehnten Schritt haben Sie jetzt gesehen, aktualisiert sich die Ansicht. Das nächste Mal beim zwanzigsten Schritt und so weiter. Sie sehen, dann hat man etwas Zeit gespart für eben diese Aktualisierung und deswegen gibt es diesen Grenzwert hier, den man dort verwenden kann. Ebenso ließe sich auch ein Zeitintervall definieren, was aber in der Regel nicht perfekt eingehalten werden kann und es wird immer nur nach Abschluss eines Durchgangs die Möglichkeit bestehen, die Ansicht zu aktualisieren. Das heißt, es kann durchaus sein, dass das dann auch etwas nach diesen 10 Sekunden erst ist, bevor die Aktualisierung stattfindet. Ja, es kommt gar nicht mehr so viel. Neu ist jetzt hier nur das Rendern in Buckets. Ich hatte bereits angesprochen, dass beim Grafikkartenrendering eigentlich nur die Schwierigkeit besteht, die gesamte Szene mit samt aller Texturen, Shader und so weiter, alle in den Speicher der Grafikkarte bekommen zu müssen. Das kann eben bei sehr komplexen Szenen zu Problemen führen oder eben auch, wenn man etwas ältere Hardware benutzt. Dann kann helfen, dass man hier das sogenannte Bucket-Rendering verwendet, was aber nicht ganz vergleichbar ist mit dem Bucket-Rendering, was wir vom physikalischen Renderer her zum Beispiel kennen oder auch vom Team-Renderer. Denn die Buckets hier können sehr viel größer sein, als wir das gewohnt sind. Sie sehen hier die Standardgröße, es beträgt schon 512 Pixel in Quadrat. Es geht hier also eher darum den Speicherbedarf zu optimieren, indem man eben dann nicht die gesamte Auflösung auf der Grafikkarte vorhalten muss des Renderings, sondern eben nur einen kleinen Teil davon und dann im Zuge der Buckets, die dann nach und nach gerendert werden, das Bild zusammensetzt. Das ist wieder ein Parameter hier die Bucket-Reihenfolge, den wir bereits kennen. Wo man einfach festlegt von wo aus diese Buckets beginnen sollen. Hat also auch nichts mit der Berechnung als solcher zu tun, sondern legt eigentlich nur fest, wo das erste Bucket erscheint und dann wird in der Regel im Uhrzeigersinn mit den weiteren Buckets fortgefahren. Also das ist eigentlich nur nötig, wenn Sie Probleme beobachten, dass die Szene mit ihrer Hardware nicht gerendert werden kann. Bevor Sie dann auf CPU-Rendering ausweichen, versuchen Sie doch einfach mal hier mit dem Bucket zu rendern. Und auch hier wieder Einstellungen für die Texturgröße, also für das Backen hauptsächlich der Shader. Auch das ist hier wieder nötig. Ja, bleibt nur noch die allgemeine Einstellungsseite, wo wir jetzt auch gar nicht mehr so viel finden. Im Prinzip nur die Lichtautomatik. Etwas, was wir aus den Optionen von Cinema 4D schon kennen. Also wenn keine Lichtquelle verwendet wird in der Szene, würde normalerweise eben die Standardlichtquelle anspringen und meine Objekte von vorne frontal beleuchten. Das möchte man in der Regel nicht. Vor allen Dingen nicht, wenn "GI" berechnet werden sollen, dann können ja auch leuchtende Oberflächen in der Szene vorhanden sein oder ein Himmelobjekt mit HDR. Dann möchte man dieses Standardlicht natürlich nicht haben. Da sorgt diese Lichtautomatik automatisch dafür, dass dieses Standardlicht dann ausgeschaltet bleibt. Ja Noise, das Thema Noise, ist natürlich gerade bei diesen Unbuyest-Rendern immer wieder präsent. Im Prinzip diese Rauschstruktur, die wir hier haben, die sich nur verfeinern lässt durch immer mehr Samples. Andererseits ist es so, dass das vielleicht im Standbild noch etwas störend wirkt, wenn man jetzt die Rechenzeit optimieren möchte und nicht ganz bis zum Ende immer Rendern möchte. In Animationen ist es allerdings viel weniger ein Problem. Das heißt, wenn sich die Motive bewegen, dann wirkt dieses Rauschmuster eher wie eine Art Filmkorn. Gar nicht mehr so störend, sondern eher natürlich. So wie wir das von alten Filmen gewohnt sind und da ist es nun mal so, dass dieses Filmkorn, dieses Rauschen, in jedem Bild der Animation etwas anders ausfallen kann, was in der Regel auch gewollt ist, damit das nicht aussieht, als würde man durch eine Art Raster schauen auf die Objekte. Das heißt, eigentlich brauchen wir diesen statischen Noise hier nicht, sondern er soll sich ruhig von Bild zu Bild etwas anders anordnen und bewegen. Das ist völlig in Ordnung, aber wenn man aus irgendwelchen Gründen den Noise statisch halten möchte, dann kann man das hier aktivieren, dann ist er in jedem Rendering, in jedem Bild, immer gleich strukturiert. Ja und Strahlepsilon ist etwas, wa ein bisschen abzielt auf das, was ich in einem anderen Video schon erläutert habe, dass nämlich die Oberflächennormalen eine große Rolle spielen und daher Krümmungen möglichst hoch unterteilt werden sollten. Wenn ich jetzt mal zu der Standardunterteilung hier zurückkehre an meiner Figur, dann sieht man eben sehr schön diese Trennungen zwischen den Polygonen, die normalerweise beim Standard- oder Physikalischen-Renderer überhaupt keine Rolle spielen, weil da das Fon-Shading solche Dinge gut ausgleicht. Wenn man das hier aber im Rendering beobachtet, könnte man versuchen, wenn das jetzt keine Option ist mit der Unterteilung zum Beispiel hier mit dem Epsilon-Wert zu arbeiten, den anzuheben. Das ist praktisch die Distanz von der Oberfläche aus ab der eine Kollision berechnet wird, mit der Oberfläche erkannt wird und da können dann größere Werte einfach dazu führen, dass man solche Probleme eventuell in den Griff bekommt. Mal eben schauen. Ja, es ist hier aber einfach so grob, dass in solchen Fällen tatsächlich die Unterteilung der einfachere Weg wäre, etwas in der Art zu beheben. Ansonsten können Sie sich dieses Epsilon vielleicht vorstellen, wie den Bias-Wert oder Bias-wert, den wir bei weichen Schatten an Lichtquellen finden können. Also da wird einfach eine gewisse Distanz aufaddiert auf die Oberflächen, um dann eben eine Sicherheitslücke zu haben, um solche Kanten dann eventuell nicht mehr im Rendering sehen zu müssen. Das ist schon alles, was an allgemeinen Einstellungen hier ist. In der Regel wird man das so belassen können. Dadrunter folgt noch einmal eine Hardware-Kategorie. Genau die gleichen Einstellungen, die wir bereits in den Cinema 4D-Voreinstellungen schon gesehen haben. Das heißt, hier könnte man jetzt noch einmal diese Einstellungen überschreiben, wenn man mag, um zum Beispiel kurzfristig dann für einen Renderjob nur eine Grafikkarte oder nur die CPU oder eine andere Kombination von Grafikkarten, wenn man mehrere verbraucht hat, zu verwenden. Ansonsten, sobald das ausgeschaltet ist, werden eben die Voreinstellungen aus den Cinema 4D-Programmvoreinstellungen hier verwendet. Da haben wir schon gesehen hier unter Renderer ProRenderer findet man genau die gleichen Einstellmöglichkeiten. Ja, das sind sie bereits die Qualitätseinstellungen und Modi, die wir hier zur Verfügung haben für den ProRender. Davon abgesehen, haben wir schon gesehen, dass man den ProRender eben hier im Offline-Modus meistens einfach aktivieren kann über das entsprechende ProRender-Menü. Die Art und Weise der Aktualisierung kann dann mit den Icons hier ebenfalls in diesem Menü konkretisiert werden. Also hier hätte man jetzt auch nochmal die Möglichkeit zwischen dem Offline-Rendering und dem Vorschau-Rendering hin- und herzuschalten. Und wir haben hier Optionen, wo dann die Aktualisierung ausgelöst wird, also zum Beispiel, wenn sich die Kamera bewegt, wenn sich ein Material verändert, ein Licht verändert oder wenn sich die Geometrie verändert, dann könnte man das entsprechend dort neu zeichnen lassen, was ja standardmäßig eh alles schon aktiviert ist. Ja, An Bild-Manager senden, da haben wir jetzt hier die Möglichkeit das Ganze aus dem OpenGL-Speicher praktisch direkt hier in unseren Bild-Manager zu schicken und von hier aus dann auch direkt speichern zu lassen, wenn man mag. Ja, ich denke, dann haben wir alles wichtige gesehen, was den ProRenderer angeht. Wichtig, wie gesagt, die Einschränkungen zu kennen, dass also viele, eigentlich fast alle der Shader gebacken werden müssen als Textur, um mit ProRender zu funktionieren. Es gibt nur wenige Ausnahmen, wie einige Noises. Den Fresnel-Shader zum Beispiel und einfache Farbe-Shader. Komplexere Shader, wie Ambient Occlusion, Subsurface Scattering Rücklicht-Shader, et cetera oder Dünnfilm-Shader, sind praktisch nicht benutzbar aktuell, da diese blickabhängig sind. Das heißt, ich kann die zwar theoretisch backen lassen, aber dann ist das Ergebnis ja eingefroren. Also würde sich dann auch nicht mehr mit der Veränderung der Lichtsituation oder einer Animation des Objekts anpassen. Das heißt, diese Shader werden nicht gut funktionieren, beziehungsweise lassen sich einfach auch nicht backen. Da müssen wir etwas uns einfach mit der Zukunft trösten. Da wird es sicherlich dann aktualisierte Möglichkeiten geben, die dann auch mit ProRender funktionieren. Die Shader müssen im Prinzip angepasst werden auf OpenCL-Programmierung und dann direkt auf der Grafikkarte ausgeführt werden, was dann natürlich hier eine extreme Beschleunigung dann auch zu Folge hätte. Aber da müssen wir uns einfach noch etwas gedulden. Das ist halt die erste Implementation, die wir hier sehen, die auch auf Grund der Einschränkungen, die wir bei Multipass gesehen haben und dadurch, dass wir zum Beispiel auch Render-Tags nur ganz eingeschränkt nutzen können zur Steuerung des Renderings. Aus diesen Gründen ist Momentan der ProRenderer eher im Bereich der Test-Renderings sicherlich anzusiedeln, aber durchaus einen Versuch Wert auch mal in seine normalen finalen Renderings vielleicht hier und da einzubauen, wenn man jetzt nicht unbedingt viele Masken oder Passes benötigt.

Cinema 4D R19: Neue Funktionen

Sehen und verstehen Sie die neuen Funktionen von Maxons Cinema 4D Release 19.

6 Std. 4 min (40 Videos)
Derzeit sind keine Feedbacks vorhanden...
 
Hersteller:
Software:
CINEMA 4D CINEMA 4D R19
Exklusiv für Abo-Kunden
Erscheinungsdatum:08.09.2017

Dieser Online-Kurs ist als Download und als Streaming-Video verfügbar. Die gute Nachricht: Sie müssen sich nicht entscheiden - sobald Sie das Training erwerben, erhalten Sie Zugang zu beiden Optionen!

Der Download ermöglicht Ihnen die Offline-Nutzung des Trainings und bietet die Vorteile einer benutzerfreundlichen Abspielumgebung. Wenn Sie an verschiedenen Computern arbeiten, oder nicht den ganzen Kurs auf einmal herunterladen möchten, loggen Sie sich auf dieser Seite ein, um alle Videos des Trainings als Streaming-Video anzusehen.

Wir hoffen, dass Sie viel Freude und Erfolg mit diesem Video-Training haben werden. Falls Sie irgendwelche Fragen haben, zögern Sie nicht uns zu kontaktieren!