[altgriechisch: φαινόμενον, phainómenon „Erscheinung“ und τόπος tópos „Ort“]
tutorial-5




03
PRAXIS
Tutorial 5 – Sound‑Reaktivität & Show-Auto-mation
03_2_5
Zu finden unter: https://youtu.be/U_CqcXZpUPI
Soundanalyse: RMS-Analyse als “Power”-Indikator
In diesem Tutorial führe ich durch die Sound‑Module im unteren Teil des Frameworks. Ich zeige zunächst das Setup für den Sound-Input und erkläre die klassische RMS‑Analyse (Root-Mean-Square): Ein sehr dynamisches Audiosignal wird in einen trägeren “Power”‑Wert (von mir “Step” genannt) überführt, der sich zuverlässig weiterverarbeiten lässt. Dieser Wert kann anschließend skaliert und modifiziert werden (inkl. negativer Werte), um Visuals und Bewegung der Moving Heads sound-reaktiv zu steuern. Aus dem “Step”‑Wert entsteht intern außerdem ein kontinuierlicher Wert (von mir “Flow” genannt), der sich z. B. ideal als Variable für die Transformation in Noise-OPs anbietet.
Kick‑Detektion: Upgrade der Standardlösung aus der Palette
Im zweiten Teil zeige ich, warum die algorithmische Standardlösung für die Kick-Detection aus der Palette in TouchDesigner nicht immer sauber funktioniert (häufige Doppelschläge) und welche Alternative ich dafür gebaut habe. Meine Kick‑Detektion arbeitet ebenso mit einem Tiefpassfilter und anschließender RMS/Envelope‑Glättung, setzt dann aber auf die Berechnung der Ableitungswerte, um starke Transienten als Kick‑Ereignisse zu erkennen. Ich skizziere auch, welche kreativen Anwendungen daraus entstehen könnten (z. B. zusätzliche Trigger im Visual), ohne das an dieser Stelle vollständig auszubauen.
Semi‑Automatik: Step‑Sequencer und madmom‑ Integration als Beat‑Quelle
Zum Schluss zeige ich meinen Ansatz für eine Semi‑Automatik: Ein Beat-Signal, das entweder über einen BPM-Tapper oder die automatische Kick-Detection (algorithmisch oder KI) erzeugt wird, treibt einen Step‑Sequencer an, der ausgewählte Parameter im eingestellten Rhythmus verändert. Auswählbare Parameter sind Farben, Visuals, Blend Mode, FX sowie die Moving‑Head Position und Bewegung. Dadurch lassen sich gezielt rhythmische Muster setzen, wodurch die Parameter nur auf bestimmte Takte verändert werden. Anschließend erläutere ich die madmom‑Integration: Ein Machine-Learning-Tool zur Analyse von Sound-Signalen. Die Installation findet in einem Python Virtual Environment statt. Das Tool lässt sich sehr einfach über zwei Knöpfe starten und stoppen. Im Hintergrund laufen alle nötigen Python Scripte automatisch ab. Ich zeige die Auswahl zwischen purem Beat‑Signal oder zusätzlicher BPM‑Berechnung und gehe darauf ein, dass das Ergebnis nicht immer perfekt ist, aber als robuste Beat‑Basis für den Sequencer bereits gut funktioniert.
