vielen dank fürs ansehen. Ja das ist tatsächlich "knibbelig". allerdings hab ich das ganze so aufgebaut, dass es eher einem Framework gleicht. Jedes Element das sich ähnelt wird von der gleichen "Subroutine" gesteuert die nur von verschiedenen Daten gefüttert wird. Das heißt, dass ich im "Setup"-macro nur ein paar Koordinaten ändern muss und schon erscheint das in einer anderen Größe samt Anpassung der Mouse area. Doch zuerst möchte ich schauen, dass es möglichst klein ist damit ich den ganzen Synthie ohne "Untermenues" sehen kann.herw hat geschrieben: ja sehr schön; sieht schon sehr professionell, wenn auch ein wenig „knibbelig”, aus; wenn ich das tonlose Video richtig interpretiere, erstellst du durch Anklicken einer Modulationsquelle und eines Ziels einen Signalweg; dieser öffnet quasi einen „Kanal”, in dem du Modulationsstärke etc. einstellen kannst. Ist das ganze Sequenzer-basiert oder mehr ein Modularsynthesizer? Die Bedienung scheint sehr eingängig und relativ einheitlich zu sein. Manches sieht allerdings auch überfrachtet aus (rechts die Hüllkurvengeneratoren mit unterlegtem Display). Vielleicht könnte man nach der Einstellung von Parametern auch wieder Teile ausblenden? Aber was soll's; du hast sehr viel Energie in eine neue Bedienoberfläche gesteckt.
Sehr sehr viele innovative Darstellungstricks! Bin gespannt, wie das ganze klingt und funktioniert.
ciao herw
Das ganze hat als "Testsynthie" für meinen Sequencer begonnen. Ich hab mich dann aber so hereingesteigert, dass ich unbedingt das "Single-cell" Prinzip verwirklichen wollte. Das heisst:
- Ein polyphones Audiocoremacro (6 monophone 3-osc Synthies mit inserteffekten + Mixer plus Modulationen à la LFO, envs und sequencer)
- Ein monophones Audiocoremacro (Mastereffekte)
- Ein monophones Eventcoremacro (Datenverarbeitung)
- Ein monophones Eventcoremacro (Grafikverarbeitung)
- Eine Mousearea
- Ein Multidisplay
dadurch werden sehr coole Sachen möglich wie:
- Kopieren von gleichartigen Containerdaten. (zB kann ich die Einstellungen von Osc1 auf Osc2 kopieren samt Modulationen usw.)
- Kopieren einer gesamten Monophonen Stimme auf die andere um komplexe Unisonoeinstellungen zu ermöglichen
- Drag and drop: Ziehen von Modulationsquellen auf Ziele
Weiterhin ist es mir wichtig ein visuelles Feedback zu bekommen. Ich kann jede Modulation (ausschließlich Audio, Event rate ist nicht vorhanden) die in der Audiocorecelle anliegt in dem Multidisplay darstellen. Dazu muss jede Modulation (lfo, seq usw. in ein array geschrieben werden, welches zu jeder Displayclock komplett ausgelesen wird. per flipflop und A to E trigger hab ich dann sämtliche Modulationen auf einer Eventleitung. Bisherige tests mit bis zu 400 Quellen haben funktioniert. Auf der Eventleitung habe ich dann pro Displayclock 400 aufeinanderfolgende events, für jede Quelle eines. Diese werden dann in der Grafikverarbeitung gezählt und in einen Speicher geschrieben den ich dann je nach Displayzustand auslesen kann. Die Grafikverarbeitung sorgt auch dafür dass nur dann ein event ins Primary gelangt, wenn etwas sichtbares passiert, da das System weiß wieviele Pixel eine Darstellung hat. Da alles mit Integerwerten adressiert wird tut der Idup filter sein übriges. Diese Daten werden dann in ein Array geschrieben welches eine Dynamische Indexierung besitzt und welches von einem Singleshot Iterator von Max Zagler ausgelesen wird. Überhaupt verwende ich viel aus dem Partials Framework. Vor allem Die Chain-Iteration. Für die Darstellung der parameter kommt die Nested Iteration zum Zuge. Max Zagler schrieb in der Beschreibenden PDF, dass dieses System noch nicht besonders getestet ist, allerdings funktioniert das Prima, sobald man bei der Verdrahtung ein paar Regeln beachtet. Missachtet man diese stürzt Reaktor ab. Hier nochmal danke an MZ für das Framework. Ich selber habe vor dessen Veröffentlichung ein eigenes Iterationssystem welches aber nicht aus der Corecelle heraus konfiguriert werden konnte. Das hat zwar auch funktioniert hatte aber viel Primarykram und war daher nicht für komplexe sachen geeignet. Theoretisch gesehen ist Reaktor durch das Partials Framework zwar nicht besser geworden (da es die Software ja nicht verändert). Praktisch gesehen hat es mein Arbeiten mit Reaktor aber um einige Levels verbessert da es einem ermöglicht sich auf das Wesentliche zu konzentrieren und immerwieder ein neues Ordnungslevel ermöglicht auf dessen Grundlage dann Dinge möglich sind welche ohne nicht zu denken wären.
auf die Methode mit dem Audiodisplay-Bus werde ich demnächst mal näher eigehen.