Cinema 4D R19: Neue Funktionen

ProRender-Einstellungen für Testrenderings

LinkedIn Learning kostenlos und unverbindlich testen!

Jetzt testen Alle Abonnements anzeigen
Da es sich bei ProRender um einen unbiased Renderer handelt, halten sich die notwendigen Einstellungen in Grenzen. Es geht bei der Konfiguration hauptsächlich um die Menge an Samples und die Definition eines Abbruchkriteriums.

Transkript

Wir haben nun gesehen, wie man ein Testrendering mit dem ProRender starten und stoppen kann hier in der Ansicht oder einer separaten 3D-Ansicht im Interface. Daher ist es jetzt sicher der richtige Zeitpunkt sich mit den möglichen Qualitätsstufen zu beschäftigen und wie überhaupt diese Bilder zu Stande kommen. Das heißt, wir gehen in die Render-Voreinstellungen und dort auf die ProRender-Kategorie. Da sehen wir drei Kategorien, drei Rubriken. Einmal für das Offline-Rendering, das ist der Modus mit der in der Regel höchsten Qualität für die Ausgabe. Dann hier die Einstellungen für den Vorschaumodus und dann nochmal allgemeine Optionen. Insgesamt hält sich das aber sehr in Grenzen, was wir einzustellen haben, denn der ProRender ist ein sogenannter unbuyest und physikalisch basierter Renderer. Das bedeutet, dass es eigentlich kaum bis gar keine Tricksereien in dem Sinne gibt, dass wir Einschränkungen machen können, was die Qualitätsstufen angeht, dass wir individuelle Vorgaben pro Shader, pro Material, pro Objekt machen können über Render-Tags zum Beispiel. All das, was wir also gewohnt sind in dem Physikalischen- und in dem Standardrenderer in Cinema 4D fällt hier von vorherein weg. Es wird hier also immer nach dem gleichen Schema jedes Objekt, jede Oberfläche gleich berechnet. Unbuyest bedeutet dabei eben genau das, dass nämlich die Strahlen in jeden Pixel hineingesendet werden und dass eben keine Interpolationen über größere Strecken hinweg generiert werden, so wie wir das zum Beispiel beim (unverständlich) bei der alten Globalen Illumination sehen, wo man dann natürlich dadurch die Rechenzeit ordentlich optimieren kann, indem dann eben die Berechnung nicht für jeden Pixel gleich, sondern nur für eine Auswahl von Pixeln durchgeführt werden. Gut, schauen wir mal, welche Rendermodi es hier überhaupt gibt. Das ist gleich das erste Menü, was wir oben anfinden. Da gibt es drei verschiedene Modi von denen der Global Illumination-Modus eigentlich der ist, den man normalerweise für das normale finale Rendering verwendet. Global Illumination heißt hier einfach nur, dass die Lichtstrahlen von den Oberflächen abprallen können und praktisch die Oberflächen miteinander interagieren. Das schließt aber auch so Effekte, wie zum Beispiel Kaustiks automatisch mit ein. Flächen, Schatten und natürlich auch direktes Licht, das ist alles hier in dieser Global Illumination automatisch enthalten. Deswegen sehen wir jetzt hier auch, wenn wir uns die Figur ansehen und selbst wenn ich jetzt von dem Himmel mal dieses HDR-Bild herunternehme, Sie sehen, dann wird es zwar etwas dunkler, weil der Himmel dann nicht mehr zur Beleuchtung beiträgt, aber wir sehen hier auf jeden Fall Flächenschatten von unserem Licht und das Licht prallt von der Ebene auch auf die Rückseite der Figur. Wenn wir jetzt den zweiten Modus nehmen Direktes Licht ohne Schatten sehen wir, dass jetzt hier in dem Fall der Schattenwurf natürlich wegfällt ohne Schatten und dass wir nur die direkte Lichtwirkung haben. Das heißt, das Licht unserer physikalischen Lichtquelle beleuchtet natürlich die direkt einsehbaren Oberflächen, aber prallt dann zum Beispiel hier von der Rückseite nicht mehr zurück auf die Figur, sondern das, was wir hier sehen, ist im Prinzip die Spiegelung, die ja in dem physikalischen Material enthalten ist. Von daher ist der Unterschied jetzt gar nicht mal so groß, wenn eben überall physikalische Materialien verwendet werden. Die tauschen ja durch Reflektion dann auch nochmal untereinander aus. Hängt natürlich alles zusammen mit der Strahltiefe. Das heißt, wenn wir jetzt hier die Strahltiefe heruntersetzen, dann hat es durchaus auch Einfluß auf die Spiegelung zwischen den Objekten, die dann eben nicht mehr so tief gehen. Vor allen Dingen aber auch bei der globalen Illumination sieht man natürlich, dass hier Helligkeit dann auf jeden Fall verloren geht. Ich schmeiße jetzt einfach mal das Himmelobjekt noch einmal aus der Szene raus, dann wird der Unterschied noch deutlicher, weil dann einmal reflektiertes Licht auf keinen Fall wieder zurückkommen kann. Das wäre jetzt eine Strahltiefe von eins. Da hätten wir schon zwei. Da sieht man dann, dass also das Licht hier auf jeden Fall auf die Rückseite ordentlich zurückprallen kann. Wenn wir jetzt hier auf den kleinsten Wert gehen, auf eins, bedeutet das also bezogen auf die Lichter, dass wir nur das direkte Licht haben. Deswegen sehen wir die direkt von der Lichtquelle beleuchteten Oberflächen natürlich auch hell. Wir haben den Schattenwurf, es fehlt praktisch nur das zurückgeprallte Licht und es fehlen auch die Reflexionen. Das hätte man jetzt hier mit einer Strahltiefe von eins. Das wäre also so ein bisschen ähnlich, wie direktes Licht ohne Schatten. Sie sehen das Resultat, Von der Schattierung her ist genau das Gleiche, es fehlt hier nur der Schattenwurf. Das heißt, man kann hier also die globale Illumination im Prinzip durch eine Reduzierung der Strahltiefe so verändern, dass es einfach aussieht, wie nur direktes Licht, aber eben dann mit den klassischen Schattenwürfen zusätzlich dabei. Der dritte Modus, den wir hier haben, ist einfach nur die Ambient Occlusion. Das heißt, hier spiel die Beleuchtung gar keine Rolle mehr, auch die Spiegelung zwischen den Objekten, denn es geht hier einfach nur um die Abschattung zwischen den Oberflächen, die über den Wert für die Ambient Occlusion-Strahllänge hier konkretisiert werden können, also je nachdem, wie der Maßstab der Szene ist und wie weit diese Ambient Occlusion-Schattenberechnung reichen soll. Ob man es jetzt nur ganz nah an der Stellfläche haben möchte oder an den Berührstellen, dann kann man diesen Wert entsprechend ein bisschen kleiner machen oder man sieht es hier zwischen den Beinen. Die Distanz ist ja dann doch schon relativ groß, aber das reicht auf jeden Fall auf diese Abschattung auf der Innenseite der Beine. Das ist also ein separater Rendermodus, kein Effekt, so wie wir es normalerweise gewohnt waren. Das wäre also erst einmal die eigentliche Auswahl der Rendermethode oder der Qualität, wenn man so möchte, des Algorithmus. Zusätzlich ließe sich hier auch noch die Schärfentiefe miteinbringen. Bedeutet dass an der Kamera selbst dann natürlich die entsprechenden Einstellungen für die Fokusebene mitherangezogen werden. Man kann es jetzt hier schon grob erkennen, wenn ich mal an der Kamera die Fokusentfernung hier auf die Hand lege. Sie sehen schon hier hinten, wie es da unscharf wird und Sie können nachwievor hier die physikalische Rubrik nutzen. Das heißt, wenn man jetzt hier mit einer entsprechenden größeren Blendenöffnung, also einem kleineren Blendenwert arbeitet, sehen Sie, wie im Hintergrund die Teile unschärfer werden und hier vorne das scharf bleibt. Das macht die Schärfentiefe. Ja und dann geht es um die Qualität. Der Begriff Samples, der ist ja nicht neu, der taucht ja auch in Standard- und Physikalischen-Renderern in Cinema 4D auf. Das heißt, da geht es einfach um die Berechnungsschritte pro Pixel oder Subpixeln. Das hängt dann von dem Raster ab, dem nächsten Wert, den wir hier finden. Aber die Einstellung, die jetzt hier gewählt ist, dass man sagt keine Samples, ist ein bisschen missdeutig, denn keine Samples würde ja kein Ergebnis bringen, sondern wir haben ein Sample, der dann aber zentriert ist auf das Raster, was hier im zweiten Schritt ausgewählt ist. Das Raster definiert, wie fein jedes Pixel geteilt werden soll für das Rendering. Das heißt, 1x1 bedeutet, dass jeder Pixel nicht geteilt wird, nur als Ganzes verwendet wird und dass praktisch durch diesen Wert 0 nur ein Strahl, ein Sample, praktisch in die Mitte geschickt wird, um dort den Farbwert zu ermitteln. Deswegen sieht man auch hier, dass das dann doch relativ rauschig ist und dass eben auch Treppenstufen hier verbleiben, weil eben keine Interpolation, kein Antialiasing berechnet wird in dieser Einstellung. In dem Moment, wo man mehr als ein Sample verwendet, also über den Wert 0 hinausgeht, sehen wir sofort, wie sich hier qualitativ die Kantenglättung, das Antialiasing verbessert. Das liegt daran, dass jetzt zwar bei der Einstellung eins immer noch nur ein Sample pro Pixel verwendet wird, dieser eine Sample aber zufällig in der Fläche des Pixels verteilt wird, also von Pixel zu Pixel unterschiedlich und dass dieser Messwert interpoliert wird über den Filter. Filter kennen wir auch von den normalen Renderern von Cinema 4D. Das ist so eine Art Kurve, die angewendet wird auf die Helligkeiten und Farben, die die Samples ermitteln, so dass eben auch benachbarte Messergebnisse dann praktisch unter einen Deckel gebracht werden, interpoliert werden. Und da gibt es hier verschiedene Filtereinstellungen von denen wir einige aus den Standardeinstellungen der Standard- und Physikalischen-Renderern in Cinema schon kennen, wie zum Beispiel Dreieck, Box und Gauss. Da gibts halt ein paar Neue, wie Lanczos. Mitchell gabs glaube ich in Cinema in dem Standard auch schon als Kurve. Blackman-Harris ist wieder neu, aber eigentlich sind die alle recht ähnlich denen, die wir schon kennen. Das heißt, die Gauss-Kurve, wissen wir bereits, dass die eher für Weichzeichnung steht. Etwas was man bei Animationen gut nutzen kann und dieses Lanczos oder auch das Blackman-Harris, das sind dann eher Kurven, die eher scharfzeichnend wirken und dann eher für Standbilder geeignet sind. Wenn Sie genau wissen wollen, wie diese Kurven aussehen, führen Sie einfach einen Rechtsklick auf den Begriff Filter aus, dann öffnet sich der entsprechende Bereich in der Online-Hilfe und Sie sehen hier diese Kurven. Da sieht man schon bei Lanczos, das ist auch eine relativ breite Kurve, ähnlich Gauss, eigentlich noch extremer als Gauss. Das heißt, wir haben hier schon eine ziemliche Weichzeichnung im Ergebnis und das heißt, diese beiden würden sich für Animationen gut eignen. Die Mitchell-Kurve ist rechts geschärft. Die können wir sehr gut für Standbilder benutzen. Blackman-Harris liegt so ein bisschen zwischen Mitchell und Gauss. Wäre also ein guter Kompromiss, wenn man vielleicht nicht genau weiß, ob man jetzt eher scharf oder weichzeichnen möchte. Die beiden anderen sind eher simpel. Also Box würde jetzt einfach alles gleich weichzeichnen, egal wo der der Subpixel jetzt im Radius liegt und Dreieck ist dann einfach ein lineares Verhalten in der Zusammenrechnung. In der Regel wirken dann die Kurven dann doch etwas natürlicher. Das Problem, was wir jetzt hier nicht haben, ist ein Unterschwingen, was es noch bei den Standardkurven in Cinema sonst gab. Also diese Geschichte, wo man dann den negativen Anteil abschneiden konnte. Also die Gefahr des Überschärfens ist bei diesen Kurven hier nicht so gegeben. Nun gut, bleiben wir vielleicht hier mal bei der Mitchell-Kurve für scharfe Ergebnisse. Dann sehen wir hier die Filtergröße. Das ist prinzipiell Radius in Pixeln gemessen, je nachdem wieviel Subpixel man jetzt zusammenrechnen möchte. Je größer dieser Wert wird, desto weicher wird dann automatisch auch das Ergebnis. Das heißt, man kann auch mit eigentlich scharfzeichnenden Kurven dann natürlich hier relativ weiche Ergebnisse erzielen. Sie sehen das hier schon, obwohl ich keine Unschärfe, keine Schärfentiefe berechnet habe, kriegen wir hier auf jeden Fall eine Weichzeichnung in das Bild hinein und wenn ich jetzt hier kleiner werde, dann kriegen wir auf jeden Fall ein schärferes Ergebnis. Gut, was haben wir hier noch als nächstes? Hier geht es im Prinzip um einen Effekt, der sich mit sogenannten FireFlies oder Hotspots beschäftigt. Ich versuche hier mal vielleicht einen Bereich aufzuspüren. Das ist nicht ganz so einfach. Es sind in der Regel Pixel. Wenn ich jetzt hier mal mein Material vielleicht in der Hinsicht etwas verändere, sind in der Regel Pixel, die extrem hell sind, im Vergleich zu den benachbarten Pixeln, das heißt, wenn wir jetzt hier mal die Glanzschicht da runternehmen, dann mal schauen, ob wir vielleicht Glück haben irgendwo einen dieser Übeltäter zu finden meistens so im Randbereich. Es wird natürlich jetzt hier schon gefiltert, deswegen mache ich das vielleicht mal aus, weil vielleicht eine Gelegenheit irgendwo eine Stelle zu entdecken. Ist jetzt ja auch in dem kleinen Fenster etwas schwierig, sonst wenn es nicht gelingen sollte, hoffe ich, dass Sie mir das glauben. Da ist jetzt in dem Fall tatsächlich grade keiner direkt zu sehen. Das Prinzip ist aber oder der Effekt ist einfach der, dass es prinzipbedingt manchmal Stellen gibt, wo dann, gerade wenn man nur wenige Strahlen verwendet, dieser eine Strahl dann vielleicht direkt eine sehr intensive Lichtquelle oder eine andere leuchtende Fläche trifft, dann entsprechend weiß oder noch heller als weiß berechnet wird, die umliegenden Pixel aber vielleicht in andere Richtungen ihre Strahlen schicken und eben eine gedämpftere Schattierung erhalten, dann kann es eben dazu kommen. Also hier wäre vielleicht so eine Stelle, wo man es erahnen kann. Einfach Bereiche, wo wir extrem kontraststarke Pixel erhalten. Und diese Bereiche lassen sich ausfiltern, indem man einfach sagt, ich ziehe eine Obergrenze ein für die Helligkeit, die so ein Pixel bekommen kann. Und das wäre jetzt hier praktisch die zehnfache Helligkeit. Dadurch dass man normalerweise hier nicht nur mit einem Sample arbeitet pro Pixel, sondern mit mehreren, interpoliert sich das, glättet sich das dann automatisch mit den anderen Messergebnissen, so dass man auf die Art und Weise relativ sicher gehen kann, diese extremen Ausreißer eindämmen zu können. Also im Normalfall, wenn wir jetzt nicht nur auf schnelle Vorschau aus wären, würde man eben mit dem Antialiasing Raster das etwas höher einstellen und genau, wie beim besten Antialiasing in Cinema einfach an, wieviele Subpixel ich haben möchte. Also hier würden praktisch neun Zellen in jedem Pixel entstehen und in jede Zelle, in jede dieser neuen Zellen würde ein Strahl geschickt oder eben auch zwei oder je nachdem wieviel man hier einträgt. Dementsprechend verbessert sich dann natürlich die Schattierung, weil man immer mehr Informationen sammelt über die Schattierung eines Pixels. Das wäre also einfach, wenn Sie solche Stellen finden, dann eine Option diese Ausreißer zu korrigieren. Ist vielleicht jetzt hier für Testrenderings auch noch nicht ganz so kritisch, dass da es nicht so schlimm wäre, wenn wir jetzt hier ein, zwei weiße Pixel dazwischen hätten. Aber für das finale Rendering natürlich etwas, was man möglichst vermeiden möchte. Gut, was Sie jetzt hier vielleicht schon erahnen können, ist dass es Schattierungsprobleme geben kann, wenn wir relativ niedrig aufgelöste Geometrie haben. Das ist auch etwas, was prinzipbedingt ist bei dieser Art Renderer, dass die Oberflächennormale, dann doch eine ganz entscheidende Rolle spielt. Das heißt, die müssten etwas stärker geglättet sein für bessere Ergebnisse. Würde jetzt bei der Figur bedeuten, dass wir hier einfach mit der Segmentanzahl nach oben müssen. Und Sie sehen dann entschärft sich dieses Problem. Das ist dann also einfach etwas, was prinzipbedingt ist. Die Oberflächen sollten ganz genau kontrolliert werden, ob wirklich die normalen alle vernünftig ausgerichtet sind und Sie sollten mit einer möglichst hohen Unterteilung in Krümmungen arbeiten, damit wir eine qualitativ gute Schattierung erreichen können. Ja, im Prinzip ist es das schon, was die Qualität angeht. Sie sehen es ist sehr übersichtlich. Eigentlich gehts nur um die Anzahl der Samples. Daraus ergibt sich dann automatisch die Kantenglättung und die Qualität der Schattierung. Das Ganze, dadurch dass es ein Unbuyest-Renderer ist, der also beliebig viele Samples in jede Zelle hineinschicken kann, ist es ein Prozess, der eigentlich nie endet, der kein Ende kennt, keinen finalen Zustand, sondern ich kann natürlich beliebig viele Samples in jedes Pixel hineinschicken und dann immer genauer werden. Allerdings ist es prinzipbedingt natürlich so, dass ich ab einer gewissen Anzahl so viele Informationen über meine Umgebung gesammelt habe, dass dann jeder zusätzliche Strahl eigentlich keine Verbesserung oder Veränderung mehr mit sich bringt, deswegen haben wir hier Endbedingungen bei den Renderer, die wir definieren können. Auch das kennen wir bereits vom progressivem Rendern, vom physikalischen Renderer, da gabs das ja auch. Da gibt es jetzt drei Kriterien. Wir können einmal eine feste Anzahl an Durchgängen festlegen. Das heißt, diese Samples, die wir hier angegeben haben, die werden pro Durchgang berechnet. Also zwei Samples pro diesen neuen Zellen in jedem Pixel. Und dann wird am Ende eben dieser Filter da draufgelegt und dann käme die nächste Iteration. Das zählt bis zu einer Grenze von 100 hoch, was in der Regel ausreicht, um abschätzen zu können, wie die Materialien und wie das Licht miteinander interagieren. Sie können aber diesen Wert beliebig anpassen, wenn man einfach den Schlusspunkt setzt. Ebenso könnte man eine Zeit vorgeben, die in Sekunden gemessen ist. In dem Fall jetzt hier eine Minute. Entsprechend verändert sich hier der Fortschritt und die Iterationsanzeige so, man hat jetzt halt keine feste Grenze mehr für die Anzahl der Iterationen, sondern es wird einfach so lange gerechnet bis diese Zeit abgelaufen ist. Dritte Modus nennt sich Keine. Das heißt, es wird einfach endlos weitergerendert, was hier im Ansichtsfenster völlig in Ordnung ist, weil man hier in der Regel immer wieder den Prozess unterbricht, indem man navigiert, mit seinen Objekten arbeitet, Materialien verändert, et cetera. Das heißt, man lässt einfach den Renderer die ganze Zeit über das Ergebnis weiter verfeinern, was natürlich jetzt keine sinnvolle Einstellung wäre für das finale Rendering. Deswegen ist das auch ein Modus, der jetzt nur in der Vorschau zu haben ist. Wenn wir jetzt die Vorschau navigieren, oder die Ansicht navigieren, sehen Sie, dass das Ganze etwas gröber aufgepixelt wird und wenn ich dann die Maus stehen lasse, dann verfeinert sich das. Das ist etwas, was wir hier in der Vorschauauflösung vorgeben können, nämlich die minimale Auflösung. Das ist praktisch der Pixelfaktor. Wenn ich jetzt auf ein Sechzehntel gehe, die etwas navigiere, sehen Sie, wie grob die Pixel dargestellt werden, damit wir noch schneller zumindest die Umrisse der Objekte und grob die Beleuchtung erkennen können. Dann wenn wir loslassen, verfeinert sich das Ganze bis wir eben zu der Eins-Auflösung kommen. Das heißt, die Pixel in Originalgröße dargestellt werden. Das heißt, diese Minauflösung greift immer nur dann, wenn wir jetzt hier interaktiv im Ansichtfenster irgendwas machen, also Objekte verschieben oder die Kamera verschieben, dann wäre das die entsprechende Auflösung. Ja und schließlich haben wir hier noch eine Texturgröße. Warum das? Nun das ist gemeint für alle Shader, die wir verwenden oder für einen Großteil der Shader, denn die meisten Shader, die wir in Cinema 4D benutzen, die werden nicht in OpenCL übersetzt, zumindest zum aktuellen Zeitpunkt noch nicht. Es gibt nur ganz wenige Ausnahmen, wie zum Beispiel den Fresnel-Shader und es gibt einige Noice-Shader, die schon direkt unterstützt werden. Aber alle anderen Shader, die müssen in Texturen gebacken werden, also in Bitmaps gebacken werden, bevor das Rendering starten kann. Und da können wir jetzt hier die Auflösung einstellen für diesen Backen-Prozess und auch die Bit-Tiefe, die wir da verwenden möchten Das Ganze macht deswegen Sinn, weil wir ja die gesamte Szene samt Texturen auf die Grafikkarte laden müssen. Deswegen kann natürlich bei einer großen Anzahl von Shadern und Materialien, dieser Speicherplatz dann doch recht beansprucht werden, deswegen hat man hier eben die Möglichkeit relativ kleine Texturgrößen zu verwenden. Wenn ich also zum Beispiel in mein Material hinein in die Farbe einen Oberfläche-Shader nehme. Was nehme ich mal? Zum Beispiel Marmor. Dann sehen Sie, das funktioniert hier wunderbar, aber relativ weich gezeichnet und das liegt eben daran, dass wir hier diese kleine Auflösung von 128 verwenden. Das heißt, wenn ich jetzt hier mal einfach eine 0 dranhänge, dann startet in der Regel der Renderer beim nächsten Prozess so, dass er jetzt eine höher aufgelöste Version verwendet. Und man sieht hier auf jeden Fall mehr Details, als das vorher der Fall war. Das ist praktisch eine Vorgabe, die ich aber lokal noch überschreiben kann. Ich habe hier also in meinem Shader, wenn ich dort auf die Basisseite wechsle, eine neue Kategorie für den ProRender, wo ich jetzt das Ganze überschreiben kann und dann sehen Sie, hätte ich jetzt meine eigentlich hohe Standardauflösung für das Backen von Texturen hier überschrieben. Wenn ichs mal extrem mache, sehen Sie, dann bleibt hier praktisch nur so ein ganz diffuses Grau übrig. Wenn man eben sehr kleine Werte nimmt, dann wird es eben sehr matschig weichgezeichnet als Textur. Aber das kann ich eben pro Material oder beziehungsweise pro Shader verwenden, um eventuell gezielt dann einzelne Shader nochmal exakter oder eben auch gröber backen zu lassen für die Verwendung mit ProRender. Das wären alle Einstellungen für den Vorschaumodus, wo wir die Qualität und den eigentlichen Rendermodus hier wählen können. Wir werden gleich in einem weiteren Video uns den Offline-Modus auch nochmal anschauen und feststellen, dass dort natürlich sehr viele dieser Einstellungen einfach nochmal wieder auftauchen. Im Prinzip bleibt praktisch diese ganze Qualitätseinstellung dort identisch.

Cinema 4D R19: Neue Funktionen

Sehen und verstehen Sie die neuen Funktionen von Maxons Cinema 4D Release 19.

6 Std. 4 min (40 Videos)
Derzeit sind keine Feedbacks vorhanden...
Hersteller:
Software:
Exklusiv für Abo-Kunden
Erscheinungsdatum:08.09.2017

Dieser Online-Kurs ist als Download und als Streaming-Video verfügbar. Die gute Nachricht: Sie müssen sich nicht entscheiden - sobald Sie das Training erwerben, erhalten Sie Zugang zu beiden Optionen!

Der Download ermöglicht Ihnen die Offline-Nutzung des Trainings und bietet die Vorteile einer benutzerfreundlichen Abspielumgebung. Wenn Sie an verschiedenen Computern arbeiten, oder nicht den ganzen Kurs auf einmal herunterladen möchten, loggen Sie sich auf dieser Seite ein, um alle Videos des Trainings als Streaming-Video anzusehen.

Wir hoffen, dass Sie viel Freude und Erfolg mit diesem Video-Training haben werden. Falls Sie irgendwelche Fragen haben, zögern Sie nicht uns zu kontaktieren!