Technische Planung

Wenn die Charakter-Design-Checkliste auf produktionsrelevante Informationen überprüft und ausgewertet wurde, sollte man sich nun Gedanken über die technische Umsetzung der digitalen Lebensform machen.

Eine technische Planung kann beispielsweise im Falle eines Echtzeit-Statisten, der eine große Entfernung zur Kamera beibehält, in wenigen Augenblicken abgeschlossen werden. Sie könnte lauten: “Mapping-Koordinaten für 256er Texture-Page vergeben. Weil Verformung wegen Distanz nicht erkennbar, ist Physique überflüssig. Einzelteile des Lowpoly-Characters an entsprechenden Teilen des Bipeds linken. Animation über importierte Motion-Capture-Daten.” Fertig! So schnell kann es unter Umständen gehen, aber leider ist das Ganze nicht immer so einfach! Mit zunehmender Komplexität wird immer mehr Überblick benötigt und eine Planbarkeit zunehmend schwieriger, da es bei den Arbeitsschritten einzelner Produktionsphasen sowie bei den dafür benötigten Grundlagen häufig zu Überlappungen kommt. Daher resultieren aus Änderungen oft komplette Neubearbeitungen bereits erledigter Produktionsschritte.

Ineinandergreifende Produktionsphasen

Die Deformationsfähigkeit eines Mesh erst während der Physique-Justierung, also in der Regel nach Fertigstellung der Texturphase, zu testen, macht bezüglich der Bereichszugehörigkeit Sinn, kommt aber produktionstechnisch gesehen zu spät. Wenn das Modell zwecks einer Verbesserung der Verformungsergebnisse verändert werden müsste, wären alle Arbeitsschritte der Modelldefinition erneut auszuführen. Die ineinander greifenden Produktionsphasen sind der größte Stolperstein in der technischen Planung. In unserem Fall markiert erst die zu erzielende Dehnbarkeit, nur durch einen vorgezogenen Testexkurs in die Rigging-Phase überprüfbar, den Abschluss der Modellierungsphase. Erst nach diesem Ergebnis wird das Modell durch die Vergabe von Texturkoordinaten und Material-IDs definiert. Es folgt das Surfacing, dann das Rigging und daraufhin die Secondary-Animation.

Als weiteres Beispiel für ineinander greifende Produktionsphasen ist Shag Hair anzuführen (siehe Workshop “Shag Hair”), dessen Basis auf elegante Weise bereits während der Modelldefinition in Form von Material-IDs angelegt und dessen Wirkungsbereiche anschließend in der Texturierungsphase durch Maps gesteuert werden. All das passiert lange, bevor wir zur Secondary Animation kommen, wo die eigentliche Arbeit in diesem komplexen Plugin verrichtet wird. Da sich also, wie bereits angeführt, digitale Lebensformen in ihren Fähigkeiten und damit dem einhergehenden Setup stark voneinander unterscheiden können, ist es schwierig, eine allgemein gültige Reihenfolge aufzustellen. Deshalb hilft hier tatsächlich nichts anderes, als folgenden Satz zum Leitmotto zu erheben:

“Plan your work – work your plan!” (Doug Kelly)

Nicht umsonst ist der Ausspruch “Jeder Tag Planung spart zehn Tage in der Produktion” ein geflügeltes Wort im Projektalltag.
Um das Angeführte weiter zu veranschaulichen, möchte ich noch einen Fall darstellen, der im weiteren Verlauf des Buches in mehreren thematisch getrennten Workshops (Modellierung, Modelldefinition) erarbeitet werden kann.

Als Übungsprojekt will ich in Phase 1 meinen Kopf realistisch nachbauen, mit Shadern oder Bitmaps texturieren und danach mit Haaren versehen. In Phase 2 sollte das erarbeitete Konstrukt dann in Character Studio mit einem Körper versehen und mit Kleidungssimulation sowie mit Soft-Bodies abgerundet werden. Klingt zunächst nicht weiter kompliziert und ganz bestimmt auch nicht nach Zauberei. Aber wie fängt man am besten an? Es erfordert eben doch ein bisschen Planung.

Modularer Aufbau vs. Single Mesh

Muss der Charakter als Single Mesh aufgebaut werden, oder kann man ihn in sinnvolle Teilbereiche (wie z. B. in oben erwähnte Phase 1 und Phase 2) unterteilen? Die Untergliederung in Kopf, Oberkörper, Unterkörper und Kleidung wird häufig verwendet. Hintergrund für diesen Ansatz ist die mehrfach angesprochene Vielzahl von Vorarbeiten, die am Mesh zu leisten sind, um die Grundlagen für verschiedenste Produktionsphasen zu schaffen. Man könnte sagen, dass es sich hierbei um eine Art von Sicherungsmechanismus im Setup handelt, der verhindern kann, dass Änderungen in Teilbereichen nicht das gesamte Rigging der virtuellen Persönlichkeit zunichte machen können. Ferner kann durch die Deaktivierung einzelner Module die Animierbarkeit der anderen erheblich gesteigert werden. Wenn man etwa die Animation der Mimik bearbeitet, aber für das richtige Timing gleichzeitig die Gestik des Biped sehen muss, ist die Ausblendung des restlichen Körpers gleichbedeutend mit annähernder Echtzeit im Viewport.

Die mögliche Skalierbarkeit im Hinblick auf Modellierung und technischen Setup ist der zweite wichtige Aspekt dieser Vorgehensweise. Sie gestattet es dem Benutzer, einzelne Teile des Charakters zu verändern, wegzunehmen oder neue hinzuzufügen, ohne für andere Teile benötigte Grundlagen anzugreifen.

Ein humanoider Single-Mesh-Digitaler soll beispielsweise nach längerer Medienpräsenz für eine zweite Kampagne optisch verändert werden. Frisur, Hemd und Hose sollen ihm zu einem neuen Image verhelfen. Und in diesem Moment explodiert sein Setup. Unter Verwendung eines modularen Aufbaus wären gewünschte Änderungen mit weit weniger Aufwand verbunden. Die arbeitsintensiven Bereiche, wie etwa der mit Mimik versehene Kopf oder der unter der Kleidung liegende Oberkörper (samt funktionierender Physique- Parameter), würden unberührt bleiben.

Strukturgramm

Die vorangegangene Problematik von ineinander greifenden Produktionsphasen in der technischen Planung sowie ein modularer Aufbau sind »on the fly« nur schwer abzuschätzen. Verschiedene Produktionsphasen sowie Zusammenhänge im Setup und daraus resultierende Arbeitsschritte lassen sich wunderbar durch ein Strukturgramm im Stil des internen “Schematic View” visualisieren. So wird im Vorfeld der nötige Überblick geschaffen, um Überflüssiges Arbeiten zu vermeiden. Denn wenn man den Aufbau des Charakters einmal skizziert hat, sei es für sich selbst oder für Teamkollegen, wird sichergestellt, dass das Vorgehen im Vorfeld durchdacht und auf Fehler überprüft wurde.

Performance

Die Modellierung ist nur der erste von vielen Schritten und sollte immer im Hinblick auf den zweiten, die Belebung des digitalen Wesens, erfolgen. Ein optisch perfekter High-End-Charakter ist nutzlos, wenn die Vorgaben Bewegung beinhalten, dieser aber aufgrund einer zu hohen Auflösung oder eines unpraktikablen Setups nicht animierbar ist.

Performance-Optimierung, Viewport- und Render-Kontrolle sind also für diejenigen unter uns Alltag, die ständig einen Kompromiss zwischen gewünschtem Ergebnis und vorhandener Rechenpower eingehen müssen.

Die vorherrschende Meinung, dass man nur mit einem High-End-System zu optimalen Ergebnissen kommen kann, stimmt und hinkt gleichermaßen. Sie stimmt in dem Sinne, dass eine ideale Systemumgebung den Workflow beschleunigt und dem Operator dadurch mehr Möglichkeiten, wie beispielsweise eine höhere Fehlertoleranz oder mehr Testphasen, einräumt. Widerlegt wird sie durch unerklärliche Phänomene wie etwa 3D-Artists, die mit einem uralten Single-CPU-System und maximal 128 MB RAM Bilder erzeugen, die am eigenen Können zweifeln lassen. Not macht eben erfinderisch und nötigt es dem User ab, seine ihm zur Verfügung stehenden Mittel genauestens kennen und optimal ausnutzen zu lernen.

»The biggest bug in a hardware-software compilation sits 90 cm in front of the monitor.«

Ein Power-User freut sich über ein schnelles System, ist jedoch nicht von diesem abhängig. Aus diesem Grund werden wir uns in den nachfolgenden, praxisorientierten Kapiteln ausgiebig mit den zur Verfügung stehenden Mitteln auseinander setzen.