outro

[altgriechisch: φαινόμενον, phainómenon Erscheinung und τόπος tópos „Ort“]

04

OUTRO

Zusammenfassung der Ergebnisse

04_1

Nach intensiven Monaten der Entwicklung und Konzeption blicke ich auf ein Framework, das die ursprünglichen Anforderungen nicht nur erfüllt, sondern in seiner praktischen Anwendung im Club-Kontext bestätigt hat. Das zentrale Ergebnis ist ein funktionsfähiges, modulares Open-Source Lichtsteuerungs-Framework für TouchDesigner, das speziell für die Anforderungen von Klangräumen wie dem Club „fi“ entwickelt wurde. In einem mehrstündigen Live-Test während einer realen Partynacht konnte das System seine Stabilität unter Beweis stellen. Es gab keine Ausfälle oder kritischen Situationen; das Framework lief soweit ohne Probleme. Eine wichtige Erkenntnis aus diesem Stresstest war jedoch, dass die Performance stark von der Hardware des Host-Rechners abhängt. Besonders berechnungsintensive Visuals und komplexe Effekte müssen gezielt auf Performanz optimiert oder ausgetauscht werden, um eine flüssige Show zu garantieren – ein Punkt, der für zukünftige Setups eine zentrale Rolle spielen wird.

Das Feedback meiner Kolleg:innen vor Ort war für mich der wichtigste Indikator für den Erfolg. Robin, der technische Leiter im „fi“, hob besonders das neue Farbmanagement hervor. Die Möglichkeit, komplexe Farbverläufe intuitiv auszuwählen, eröffnet ganz neue gestalterische Möglichkeiten, die mit der vorherigen Lösung nicht möglich waren. Das Kernproblem der alten Automation – das unkontrollierte „Dauerfeuer“ in ruhigen musikalischen Passagen – konnte durch die implementierte Sound-Reaktivität gelöst werden. Darío (Techniker im fi) bestätigte zusätzlich den Nutzen der Semi-Automatik: Sie diene als enorme Arbeitserleichterung, wenn andere Aufgaben wie die Überwachung des Sounds oder die Kontrolle der Laser im Fokus stehen.

Mein Framework bietet zwar nicht die anfangs geplante “magische” Vollautomatik, die jede Entscheidung autonom trifft, aber es löst das Problem des richtigen Timings für Parameteränderungen. Durch die Beat-Detection und den Step-Sequencer passieren die Änderungen im musikalischen Raster. Das System übernimmt die rhythmischen Grundaufgaben, während gleichzeitig Raum für die kreative Gestaltung der richtigen Stimmung durch Farben und Intensitäten bleibt. Damit habe ich ein Werkzeug geschaffen, welches die operierende Person nicht ersetzt, sondern ihr Zugriff auf ein intelligentes System verschafft, das sowohl im aktiv gesteuerten Betrieb als auch als autonome Hintergrund-Lösung überzeugt.

04_2

Reflexion des Prozesses

Der Weg zum fertigen Framework war alles andere als geradlinig und von diversen technischen wie organisatorischen Hürden geprägt. Eine der größten technischen Herausforderungen lag in der Infrastruktur des Clubs selbst: Da keine Dokumentation der DMX-Adressen für die vorhandenen Fixtures existierte, glich die initiale Einrichtung einer archäologischen Spurensuche. Um mir die eigene Arbeit zu erleichtern, habe ich die fehlende Dokumentation schließlich selbst angefertigt und meinen Kolleg:innen zur Verfügung gestellt. Auch das Thema Netzwerk und die Port-Konfiguration waren „nervige Begleiter“, die viel Zeit für die Fehlersuche beanspruchten. Mit wachsender Komplexität des TouchDesigner-Netzwerks traten zudem Performance-Probleme und algorithmische Schleifen auf, etwa bei der bidirektionalen Spiegelung der Werte zwischen TouchDesigner und der Open Stage Control UI. Ein besonderes „Rabbit Hole“ war die Integration externer Python-Bibliotheken wie madmom. Hier habe ich viel Zeit investiert, um die Audioanalyse-Bibliothek ans Laufen zu bringen.

Parallel zur Softwareentwicklung war die Produktion des Dokumentarfilms eine zeitintensive Aufgabe. Es war herausfordernd, ausreichend Interviewpartner:innen vor meine Kamera zu bekommen; Zusagen verliefen im Sande und die strikten „No-Photo“-Policies vieler Clubs erschwerten die visuellen Aufnahmen massiv. Deshalb gibt es z.B. auch keine Aufnahmen vom unteren Floor aus dem fi im Betrieb. Auch im Open Ground in Wuppertal führte ich zwar eine Art Vorgespräch, doch es wollte niemand mit mir vor der Kamera sprechen. Das Gespräch mit Christine war trotzdem sehr angenehm und ich lernte viel über ihre Sound-first Philosophie. Somit floss das Gespräch zumindest als wertvolle Anregung in meine Arbeit ein. Letztlich war es eine intensive Aufgabe für sich, fünf Interviews zu führen, eine Menge Schnittbilder zu drehen, Sprechertexte zu schreiben und daraus eine 60-minütige Dokumentation zu schneiden. Ich habe zwar einige Erfahrungen in der Filmproduktion, doch es war mein Debüt in der Produktion eines Langfilms.

Mein persönlicher Erkenntnis-Moment war das Umdenken in Sachen Automation und die Abkehr von der anfänglichen Idee einer “super smarten Vollautomatik”. Während der Interviews wurde mir klar: Licht in Klangräumen soll subtil führen. Es soll die Erfahrung unterstützen, ohne sich in den Vordergrund zu drängen. Die Erkenntnis, dass Licht im Idealfall fast unbemerkt den Raum hält und transformiert, hat meinen Blick für eine minimalistische Lichtgestaltung geschärft. Heutige KI-Tools können uns zwar in unserer Arbeit unterstützen, sie ersetzen aber wohl kaum die menschliche Kreativität, die sich eben auch dadurch auszeichnet, unvorhersehbar und mit authentischen Fehlern versehen zu sein.

Technisch habe ich eine enorme Entwicklung gemacht: Der sichere Umgang mit Python in TouchDesigner, die Architektur komplexer Mediensysteme und das intensive Studium von Open Stage Control als Tool für mächtige UIs haben mein professionelles Profil geschärft.

Die Auseinandersetzung mit Foucaults Heterotopien und den vielfältigen Abhandlungen zum Themenfeld Visual Music im Werk „Audiovisual Breakthrough“ hat mir zudem ein neues und vielfältiges Verständnis für den Raum Club und die Tätigkeit des VJings verschafft.

Ausblick

04_3

Das Framework in seinem jetzigen Zustand ist ein mächtiges Fundament für vielfältige Anwendungen. Doch hätte ich drei weitere Monate Zeit, stünde die Integration einer echten Track-Segmentierung ganz oben auf meiner Liste. Die Software könnte dann nicht nur auf Beats reagieren, sondern auch auf die Änderungen in Songparts und so die Parameter entsprechend noch “musikalischer” wechseln. Auch eine Key-Analyse zur automatischen Farbauswahl basierend auf der Tonart wäre ein spannendes Feature – vorausgesetzt, man findet ein schlüssiges System für die Synästhesie von Tonart und Farbe. Darüber hinaus fände ich eine Art „Mal-Schnittstelle“ auf dem Tablet reizvoll, mit der man die Bewegungsabläufe der Moving Heads oder die Visuals live zeichnen und als Presets speichern kann.

Ein technischer Meilenstein für die nahe Zukunft wird der Umstieg auf die neue „POP“-Operator-Familie (Point Operators) in TouchDesigner sein, die Ende 2025 veröffentlicht wurde. Die Auslagerung der DMX-Kanal-Berechnungen von der CPU auf die GPU wird einen massiven Performance-Schub bringen und das System noch stabiler für komplexe Setups machen. Diese Anpassung habe ich für die Bachelorarbeit aus Stabilitätsgründen bewusst ausgelassen und die Migration steht als nächster Schritt an.

Für meine Lichtsteuerung wünsche ich mir echte Sichtbarkeit in der TouchDesigner Community. Dafür möchte ich noch mehr und vor allem englische Video-Tutorials zum Framework, aber auch zur generellen Arbeit mit Licht in TouchDesigner erstellen. Auch eine umfassende schriftliche Dokumentation für Entwickler:innen hätte einen Nutzen.

Für meine eigene Arbeit in der Festival-Produktion ist das System schon jetzt ein unersetzliches Werkzeug, besonders wenn unter Zeitdruck temporäre Bühnen bespielt werden müssen. Doch ob das Framework je in einem anderen Club zum Einsatz kommt? Da muss ich wohl noch ein bisschen Werbung machen. Ich würde mich auf jeden Fall freuen!