Seite 1 von 1

Audio-Signalwege

Verfasst: 29. Mai 2013, 16:30
von herw
Ich habe hier mal auf Nachfrage von MvKeinen ein sehr einfaches kleines Beispiel zusammengestellt, um zu zeigen, wie man über shared Audio-Tabellen Signalwege steuern kann.
audio3.jpg
Ich denke mit ein bisschen gutem Willen ist das Ensemble selbst erklärend, sonst fragt nach!
audio4.jpg
Mit den ReadX-Reglern kann man jeweils eine Quelle auswählen. Alle Quellen sind festen Komponenten zugeordnet.
audio.jpg
Es gibt eine Dreiecksquelle, die man synchronisieren kann, eine Rechteckquelle, die man frequenzmodulieren kann und ein Makro, mit dem man die Summe zweier Quellen erzeugt.
Im Bild sieht man die Dreiecksschwingung, die die Rechteckschwingung synchonisiert. Ganz oben ist die Summe der Schwingungen.
noch ein anderer Signalweg: der Dreieck wird vom Rechteck synchronisiert (pitch vom Rechteck z.B. 0, pitch vom Dreieck 58).
audio2.jpg
Ich denke, es ist sehr leicht, dieses Beispiel zu erweitern und verändern. Interessant wird die Sache natürlich erst dann, wenn man die Auswahl der Quellen (Modulatiosquellen) über internal connections durchführt. Gleichzeitiges Lesen und Schreiben auch unterschiedlicher Signale (Komponenten) ist mit einer Audioquelle möglich (bringt aber nicht so viel).
audio.ens.zip
ciao herw

Re: Audio-Signalwege

Verfasst: 30. Mai 2013, 20:33
von MvKeinen
Wow, das sieht ziemlich ergiebig und interessant aus. Ich habs mir bisher nur kurz angeschaut, da ich grad viel arbeiten muss, Nächste woche hab ich mehr Zeit, freu mich schon drauf.

Vielen Dank!!

Re: Audio-Signalwege

Verfasst: 30. Mai 2013, 21:13
von herw
MvKeinen hat geschrieben:Wow, das sieht ziemlich ergiebig und interessant aus. Ich habs mir bisher nur kurz angeschaut, da ich grad viel arbeiten muss, Nächste woche hab ich mehr Zeit, freu mich schon drauf.

Vielen Dank!!
naja - ergiebig ist das nicht, da sind viel mehr interessante Dinge möglich:
- Schreib- und Lesezugriff auf denselben client können auch gleichzeitig auf verschiedene Komponenten erfolgen
- man kann sogar über eine audiocore cell eine Rückopplung (mit einem sampletick Versatz) auf dieselbe Audiotable zurückführen
- Steuerung der Komponentenadresse dynamisch gestalten
- polyphone Übertragung auf ein anderes Instrument sogar mit unterschiedlicher Voice-Zahl

ein interessantes Studienobjekt!

Aber der große Nachteil ist in der Tat der CPU-Verbrauch! Übrigens habe ich stattdessen auch mal eventtables benutzt, die mit 44100Hz getaktet werden: der cpu-Verbrauch war gleich.

Für große Ensemble mit sehr vielen hundert Lese- und Schreibzugriffen eignet sich diese Signalwegsteuerung nur dann, wenn man den CPU-Verbrauch durch gezieltes Abschalten in den Griff bekommt. Ich habe wieder einen besseren Weg mit send-receive-Verbindungen gefunden.

ciao herw