Möglichkeiten

Wir hatten eigentlich nie ein festes Ziel im Auge, sondern waren in dem, was wir wollten immer vom gerade Notwendigen gelenkt. Jedoch immer mit den zwei Begrenzungen Technik und musikalische Nutzbarkeit. Wobei sich diese bald in die Bereiche Musik und gehörmäßige Wahrnehmung teilte.

Während die Meisten sich mit der Vereinigung dieser Dinge beschäftigen, in der Hoffnung, dem derzeitigen, meist durch Werbung definierten, Bedarf an Sounds optimal zu decken, glauben wir nicht an diesen Weg. Diese Vorgehensweise erinnert mehr an das Schaffen von Legierungen aus Legierungen. Es soll zwar immer besser werden doch man greift immer nur auf das derzeit Beste zurück.

Unsere Theorie vom perfekten Sound:

Wir glauben nicht an die möglichst dichte Verbindung von Musik und Technik, sondern an eine Reihe technisch geschaffener, akustisch-musikalischer Verbindungen. Ähnlich einem Würfel, dessen Seiten musikalische, technische bzw. akustische Parameter definieren.


Nach oben  

Die in diesem eingeschlossenen Raum entstehenden punktuellen Verbindungen, ähnlich sich überlagernder Nullstellen in der Mathematik, lassen das entstehen, was wir als den Sound bezeichnen. Liegen diese Punkte dicht beieinander, nähern wir uns dem, was wir als den perfekten Sound betrachten.

Da die Betrachtungen jeder Person, bedingt durch ihre Voraussetzung, eine andere ist, variiert auch die Dichte der Punkte und damit die Beurteilung hinsichtlich Optimalität.

Schafft man zu viele, nicht differenzierte Verbindungen bzw. erhöht die Dichte, so entsteht zwar eine breitere Akzeptanz des Sounds, doch es entsteht eine Verschleierung, eine Art Geräusch, das zu anderen, im Raum befindlichen Sounds nur noch gering variiert, da immer mehr Sounds gemeinsame, räumliche Schnittmengen besitzen und sich damit immer mehr ähneln.

Da aber Musikalität und Wahrnehmung stark variieren, sollte man sich die Flächen nicht als klare Grenzen, sondern als sich in der Zeit verändernde Flächen vorstellen, welche Auswirkungen auf die Position des geschaffenen Sounds haben. Es verändert sich nicht nur der Punkt im Raum, an dem sich der Sound befindet, sondern auch die Flächen, auf die der Vektor der Veränderung wirkt. Damit wären viele, als subjektiv wahrgenommene Veränderungen erklärbar.


Nach oben  

Wir glauben, dass das, was wir gerade hören, nicht nur das Ergebnis einiger Parameter-Veränderungen ist, sondern eine Art Summe von dem gerade Gehörten und den daraus resultierenden Voraussetzungs-Änderungen unserer Wahrnehmung.

Nur für den seltenen Moment, in dem die vom Resultat veränderte Wahrnehmung mit einer absichtlich technisch realisierten Parameterverschiebung kompensiert wird, haben wir das, was wir als den perfekten Sound ansehen.


Nach oben  

Um an dieser Theorie zu arbeiten, ist es nun aber notwendig, möglichst genau zu wissen, was wir eigentlich brauchen und wofür wir es brauchen.

So haben wir auch mit Filtern gearbeitet, die extreme Flankensteilheiten hatten, um anschließend mit Allpässen die Phasen zu korrigieren. Aber ab einem bestimmten Punkt waren die Steilheitserhöhungen nicht mehr wahrnehmbar. Auf der anderen Seite waren wir der Meinung, viele LFO’s zu benötigen, erkannten aber bald, dass die Form der Schwingungen und deren Phasenlage zueinander viel wichtiger und extrem von dem Ziel der Modulation abhängig ist.

Gerade bei LFO’s ergab die Arbeit mit der Wahrnehmung der Resultate so viele Erkenntnisse, dass wir sie wahrscheinlich erst im übernächsten Modell integrieren können. Beispielsweise stellte sich die Frage nach der Spannungssteuerung der Signalformen bzw. nach der Struktur der Modulation Volt / Oktave oder Volt / Hertz. Wir erkannten: Weder das eine noch das andere ist richtig.

Wir wissen zwar in diesem Fall schon, was wir brauchen, aber noch nicht, wann bzw. wobei wir es brauchen! Allein bei der Untersuchung der spannungsgesteuerten Deformation von Schwingungsformen bei LFO’s und ihrer Realisierung entstanden Unmengen neuer Fragen.


Nach oben   Natürlich gibt es ausreichend Messtechnik, mit der man all diese Dinge untersuchen kann, aber diese Geräte sind nicht spielbar, also keine Instrumente, womit eine Möglichkeit verloren geht, unserer Theorie nachzugehen. Denn erst wenn ein Musiker mit einem Sound spielt, entsteht durch die Eindrücke der musikalisch-harmonischen Information eine Veränderung in unserer Wahrnehmung und wir können die Bedingungen für diesen Sound neu definieren bzw. korrigieren.

Damit stellt die Möglichkeit, auf unserem System spielen zu können, eine unverzichtbare Voraussetzung zur Erkennung der Richtung der technischen Entwicklung dieses Systems dar.

Dadurch werden wir bestimmte Funktionen wahrscheinlich nie in unser System integrieren und an anderen Stellen sogar auf ausgedehnte Regelbereiche verzichten, wie beispielsweise in unserem LFO. Er beherrscht die Spannungssteuerung von Rampe über Dreieck zu Sägezahn nur bis 20 Hz, da bei Frequenzmodulationen für Vibratos mit über 4 bis 5 Hz eine Submodulation der Schwingungsform des LFO’s nicht mehr wahrnehmbar ist.

Dafür können wir aber unseren Sinusausgang so deformieren, dass es zu exponentiellen bzw. logarithmischen Attack-/Release-Simulationen kommt. Geht man mit den Modulationsfrequenzen in den Audiobereich, dann braucht man ohnehin einen größeren Frequenzbereich mit hohen Genauigkeiten.

Dafür wurden die Genauigkeiten unserer VCO’s stark erhöht. Wobei einigen Musikern dies wiederum im Höhenbereich zu präzise klingt. Der Grund ist auf einem Oszillogrammen leicht zu erkennen: Es gibt bis 20 kHz keine ernste Deformation des Dreiecks, weder im Pegel noch in der Schwingungsform. Also entwickelten wir eine asymmetrische Pulsbreite. Mit dieser ist es nun möglich, eine negative Nadel des positiven Maximalwertes und einen positiven Puls des negativen Maximalwertes auf die Dreieckschwingung zu summieren. Das Ergebnis ist eine deformierte Schwingungsform, wie man sie in vielen alten Synthesizern findet. Da die Pulsbreiten getrennt voneinander spannungssteuerbar sind, ergibt sich bei Bedarf eine frequenzabhängige Deformation.


Nach oben   Dieses Beispiel sollte zeigen, wie wir versuchen, nicht Sounds zu kopieren, sondern die Entstehung der speziellen Sounds nachzuahmen, ohne Schaltungen einfach zu kopieren. Würden wir dies tun, bekämen wir vielleicht einen noch druckvolleren Supersägezahn, würden uns aber der Möglichkeit berauben, einen extrem dünnen Flötensound zu untersuchen.

Diese Flexibilität setzt aber an bestimmten Stellen hohe Genauigkeiten voraus. Beispielsweise beziehen wir für unsere VCO’s derzeit Messwiderstände mit 0,1 % Genauigkeit, die wir dann 24 Stunden erhitzen, um sie nachzualtern und dann zu selektieren (siehe Technik). Diese Vorgehensweise ist notwendig, um z. B. unerwünschte Veränderungen der Schwingungsform zu vermeiden. Außerdem ist es eine Voraussetzung für hohe Pegelstabilität über den gesamten Frequenzbereich, denn ohne diese Voraussetzung wären unsere Sinusnetzwerke, zumindest in der Genauigkeit, nicht funktionsfähig. Denn im Gegensatz zu den meisten VCO’s, welche mit nur einem Knickpunkt arbeiten, besitzen unsere Netzwerke sechs Knickpunkte bei gemessenen Klirrfaktoren von ca. 0,4 %.

Dies brauchten wir, um analoge FM zu realisieren. Hierbei stellten wir fest, dass eine Baugruppe eine 50 Hz Modulation besaß. Es war aber keine direkte Netzauswirkung, sondern eine EM-Unverträglichkeit. Nach langen Versuchen mit Netzteilen kapselten wir diese Baugruppe einfach mit Mu-Metall, wonach dieses Problem verschwand.

Anderseits kann die Ausdehnung der Genauigkeiten auch ergeben, dass etwas nicht mehr sinnvoll ist, man dabei aber die wichtigen Dinge übersieht, wie es bei den ersten ADSR’s geschah. Unsere Attack-, Decay- und Release-Phasen hatten Minimalzeiten von 0,1 ms. Damit war aber erstens eine sinnvolle Einstellung des Bereiches von 100 ms bis 1 s nicht mehr möglich, da die max. Zeit bei 20 s lag. Zum zweiten hatten wir für Attack, Decay und Release jeweils drei Bereiche, deren Triggerpunkte und Anstiegswinkel jeweils einzeln und in Summe spannungssteuerbar waren. Das ergab, mit einer sogenannten Free Function Spannung, welche stufenlos (wie eine Art Gummiband ) festlegte, ob der entsprechende Zeitbereich exponentiell, logarithmisch oder linear verlief, insgesamt 28 Steuerspannungen, 28 Regler und 30 Klinkenbuchsen. Für eine einzige Hüllkurve!

Davon wurde allerdings nur der Prototyp gebaut und wir erkannten, dass es für  analytische, aber nicht für musikalische Zwecke extrem wichtig ist, ein solches Werkzeug zu haben. Was wir vernachlässigten, waren unterschiedliche Triggerfunktionen, die die unterschiedliche Reaktion auf das Spiel ermöglichen, was wiederum in alten Synthesizern unterschiedlich gelöst wurde.

Ebenso erkannten wir eine fehlende Funktion, die wir Auto Offset nennen, bei der sich der Sustain-Level immer auf Nullpotential befindet, sodass bei einer Intensitätserhöhung des Ziels niemals der zu modulierende Grundwert nachjustiert werden muss. Genauso wichtig ist es aber anderseits, diese Funktion deaktivieren zu können.

Ein Nachteil bestand trotz der 28 Parameter immer noch, welchen wir aber erst sahen, als wir längere Messreihen aufnahmen. Wir begannen, die Hüllkurve langsam zu triggern mit Zeitverläufen von 12 s, incl. 9 s Gate-Zeit, und erhöhten dabei immer weiter die Geschwindigkeit. Dann kam bald der Punkt, an dem die Attack- und Decay-Phasen nicht mehr durchlaufen wurden, weshalb alle drei Parameter Attack, Decay und Release nachjustiert und der Parameter Time Compression eingefügt werden musste. Mit ihm wird, abhängig von der Steuerspannung sowohl Attack, Decay als auch Release prozentual verringert. Erhöht man also einen Sequenzertakt, so wird nicht nur die Sequenz, sondern synchron dazu auch die Hüllkurve schneller. Außerdem lässt sich damit nebenbei auch die Hüllkurvenlänge von den Notenwerten der Tastatur steuern.


Nach oben  

Wir verzichteten also auf viele Potentiometer und Buchsen, hatten aber für den Musiker neue, wichtige Funktionen gefunden.

Das heißt aber nicht, dass der jetzige VC Envelope Generator A weniger kann, im Gegenteil. Ähnlich sah es bei unserem Filter aus. Wir hatten einen 24-dB-Tiefpass, einen 24-dB-Hochpass und die Verkettung mit Hilfe von Audioschaltern realisiert. Egal wie die Verkettung aussah, Testhörer interpretierten den Sound immer als mit X/Y ähnlich oder meinten, er klinge wie der Synthesizer A/B. Erst als wir mit Flankensteilheiten von 6 dB und 12 dB experimentierten, die wir dann stellenweise kaskadierten, entstanden Aussagen, bei denen der Vergleich mit bestehenden Systemen fehlte. Also entschieden wir uns für diese Variante.

Das heißt nicht, dass andere Filterstrukturen für uns uninteressant sind, im Gegenteil. Wir glauben, dass Filterverläufe, vor allen Dingen so, wie wir sie derzeit kennen, in ihrer Struktur und ihrem Verlauf falsch sind. Hierbei heißt falsch aber nicht etwa schlecht, sondern eher nicht kompatibel mit unseren Vorstellungen. So haben wir festgestellt, dass es oft wichtig ist, die Dichte und Intensität der Restwelligkeit im Durchlassbereich regelbar, genauso wie die Symmetrie und den Verlauf des Abfalls an den Filtergrenzen bzw. ihre eigentliche Bandbreite einstellbar zu gestalten.


Nach oben  

Es ist zu sehen, dass eine eigentliche Trennung zwischen technischen Möglichkeiten und musikalischer Nutzbarkeit nur schwer zu vollziehen ist.

Dass wir dabei nicht nur die Nutzer gerne sehen, welchen das Arbeiten mit den schwarzen und weißen Tasten liegt, zeigt sich sicher auch an solchen Modulen wie unserem MIDI Controller & Realtime Converter.

Wir sehen den Einsatz unseres Systems vorzugsweise bei den Kollegen, die sich mit den Kernproblemen der Synthese beschäftigen möchten. Vor allen Dingen aber Musiker und Studiotechniker, welche ein sehr flexibles System wollen, dass vorzugsweise nur musikalisch-akustisch relevante Parameter besitzt und die trotz der extrem hohen Zuverlässigkeit unserer Module auf einen Live-Betrieb verzichten können.

 

Steffen & Holger Marienberg
Andreas Michel ( Externer Link Synthesizer-Magazin )  Nach oben