frimTV – 3/3 Animation und Compositing

Zuletzt zeige ich euch einen der drei fertigen Clips aus meinem Semesterprojekt.

Es handelt sich dabei um einen Channel ID (oder auch Ident), welcher den Sender wiedererkennbar und dessen Programm-Schwerpunkt deutlich machen soll. Falls man mit dieser Beschreibung nichts anfangen kann oder ein Sammlung mit Clips dieser Art sucht, sei hier auf The Ident Gallery verwiesen. Eine weitere erwähnenswerte Plattform ist Watch The Titles. Neben dem Ident sollte noch ein AdBreaker (Übergang zur Werbung und zurück zum Programm, 3-10 sek.) sowie ein Promo (Ankündigung von Filmen und Serien, 15-30 sek.) hergestellt werden.

Der Weg zu solchen Clips beginnt beim Modellieren und Texturieren von 3D-Objekten, geht weiter über deren Animation und führt schließlich zum Zusammensetzen einzelner Szenen, dem sogenannten PostProcessing bzw. Compositing. In professionellen Filmstudios werden diese Arbeitsbereiche/-schritte oft noch weiter aufgeteilt und von jeweiligen Experten und spezieller Software bearbeitet. Bei mir kam dafür nur das 3D-Grafikprogramm Blender zum Einsatz. Zwar gibt es in Sachen Videoschnitt auch spezielle Anwendungen wie Cinelerra oder LiVES, aber waren diese für meine kleinen Clips überdimensioniert. Außerdem war ich neugierig auf dieses neuere Feature (Stichwort: Visual Sequence Editor, kurz VSE) von Blender.

Warum Blender?

Bis man an diesen Punkt angelangt, muss man allerdings erstmal verstehen wie Blender funktioniert und wie Szenen bzw. Sequenzen darin erstellt werden. Zunächst sei gesagt, dass es in erster Linie ein Grafikprogramm zur Modellierung, Texturierung und dem Rendering von 3D-Objekten ist und dank Open Source unter Windows, Mac und Linux läuft 🙂 Es war für mich daher notwendige Alternative zum kommerziellen und propräitären Adobe After Effects, welches vom Dozenten angepriesen wurde. Letzteres ist mit Sicherheit eher für Videobearbeitung und -effekte gedacht, allerdings gibt es mittlerweile viele Projekte, die gezeigt haben, dass das und noch viel mehr ebenso mit Blender möglich ist. Dabei hat mich schon das erste Projekt namens Elephants Dream von 2006 sehr beeindruckt.

Bedienung & Grafik in 3D

Doch kommen wir nun zum praktischen Arbeiten mit Blender. Wenn man die Anwendung startet erscheint der Standard-Würfel im Zentrum des virtuellen dreidimensionallen Raums. Versucht man ihn zu bewegen, wird man schnell merken, dass das Bedienkonzept auf eine 3-Tasten Maus mit Scrollrad und eine Standard-Tastatur mit Nummerblock ausgelegt ist. Das Auswählen von Objekten geschieht dabei vorwiegend mit der rechten Maustaste und die mittlere Maustaste sowie das Rad dienen zum Bewegen und Zoomen der Ansicht. Daran gilt es natürlich sich zu gewöhnen. Doch diese Hürde ist schnell genommen und die vorbildliche Dokumentation dient als idealer Begleiter bei den ersten Schritten.

Animation mit Keyframes

Das Erlernen der Bedienung sowie das Entdecken des Funktionsumfangs passiert i.d.R. während der Umsetzung von Animationen. Diese werden mit sogenannten Keyframes (Schlüsselbildern) gesteuert und die Zwischenbilder werden dann interpoliert. Wem das noch nichts sagt, der sollte sich erstmal das Wissen über die Grundlagen der 3D-Grafik aneignen. Um dann Objekte in Blender zu bewegen helfen einem wie üblich Tutorials. Die Seite FilmmakerIQ hat hier ganze Arbeit geleistet und sagenhafte 555 Tutorials zusammengetragen. Dort habe ich anfangs erstmal sondiert was überhaupt alles in dieser Software steckt und bin zu dem Schluss gekommen, dass es gibt kaum etwas im Bereich 3D-Grafik und Animation gibt, was sich mit Blender nicht realisieren lässt. Ich bin jedenfalls noch nicht an die Grenzen gestoßen, wohl aber an die meiner Hardware, wie sich nachher beim Rendern herausstellte 😛

Da es bei meinen Clips besonders um das Zusammenspiel zwischen Musik und Animation ging, kamen natürlich auch Tools für deren Synchronisation zum Einsatz. Empfehlen kann ich in diesem Bereich das Add-on Audio Analysis. Es gibt aber auch Möglichkeiten mit den integrierten Funktionen Bewegungen durch Sound zu steuern (Stichworte: Graph Editor, F-Curve, Sound driven motion). Mit Hilfe der Rigid Body Simulation können Objekte sogar den physikalischen Gegebenheiten entsprechend bewegt und z.B. in Verbindung mit dem Cell Fracture Add-on zu spektakulären Zerstörungs-Animationen werden. Die deutsche Seite Blenderhilfe.de hat dazu eine ganze Tutorialserie gemacht: Physics and Destruction.

PostProcessing mit dem VSE

Hat man die Animationen gebacken und ist beim Compositing angekommen, kann man sich dem integrierten VSE (Visual Sequence Editor) bedienen und seine einzelnen Animations-Sequenzen arrangieren. Das geschieht ähnlich wie in anderen Videoschnitt-Programmen mit einem Mehrspureditor. Allerdings ist das Einbinden von Überblendeffekten nicht so einfach wie in anderen Anwendungen, dafür aber um so flexibler. So kann beispielsweise ein Fadeout bzw. Fade to Black in jede beliebige Farbe überblenden. Blenderhilfe.de ist da wieder einen Besuch zum Tutorial anschauen wert.

Rendering

Geht es dann im finalen Schritt an das Rendern, wird man feststellen, dass es je nach Anzahl der Objekte sehr lange dauern kann. In diesem Zusammenhang gibt es einen Artikel zum Reduzieren der Rendering Dauer von BlenderGuru. Bei dem 21 Sekunden Ident-Clip konnte ich so von 16 auf knappe 12 Stunden Rendering-Zeit kommen. Mit aktueller High-End Hardware würde man sicher noch schneller zum Ziel kommen, aber wenn man im Audio-Bereich unterwegs ist, investiert man eher in ein gutes Soundinterface, Monitorboxen oder andere Studio-Hardware anstatt in den neusten Rechner mit i7.493.251 und GeForce GTX 2.674.329 😉

Damit endet die Beitragsreihe zu meinem Semesterprojekt frimTV. Weiterführende Links zu diesem Teil findet ihr wieder in der rechten Seitenleiste oder in der Linksammlung bei 3D-Grafik und Animation.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.