Akademik

Klangsynthese
Klangsynthese,
 
elektronische Erzeugung von Klangstrukturen. Allen akustischen Vorgängen liegen Schwingungen zugrunde. Elektronische Musikinstrumente (Computer, Synthesizer) produzieren mithilfe analog oder digital gesteuerter Oszillatoren Wechselspannungskurven, die verstärkt und von Lautsprechern in Schallwellen umgewandelt werden. Unter dem Begriff Klangsynthese fasst man sämtliche Verfahren der elektronischen Formung solcher Schwingungsvorgänge zusammen. Vier grundlegende Prinzipien lassen sich unterscheiden: additive, subtraktive und FM-(multiplikative)-Synthese sowie verschiedene, auf der Pulse-Code-Modulation (PCM) beruhende Syntheseformen.
 
Das ursprüngliche Verfahren zur künstlichen Klangbildung ist die additive Synthese, beruhend auf dem Fourierschen Theorem. Dieser nach dem französischen Mathematiker und Physiker Jean Baptiste Joseph Fourier (1768-1830) benannte Lehrsatz besagt, dass sich jede periodische Schwingungsform als Summe sinusförmiger Partialschwingungen mit unterschiedlichen Amplituden darstellen lässt. Der Aufbau eines komplexen Klanges durch additive Mischung einzelner Sinustöne erweist sich jedoch in der Praxis als äußerst aufwendig. Ein analoges Klangerzeugungssystem muss für jede Partialschwingung einen selbstständigen Sinustongenerator (einschließlich Hüllkurvenformer und spannungsgesteuertem Verstärker) aufweisen und über eine entsprechende Mischeinrichtung zur Zusammenführung der einzelnen Klangkomponenten verfügen. Das Prinzip der additiven Synthese fand auch in einigen elektromechanischen Musikinstrumenten Anwendung, z. B. in der Hammond-Orgel, wo bis zu neun Partialtöne eines Klanges durch Zahnradgeneratoren erzeugt wurden. Zur additiven Klangbildung zählen im weitesten Sinne auch Verfahren, die auf der Grundlage der Modulation einer Schwingung eine Vielfalt komplexer, teilweise natürlich wirkender Klangstrukturen bei erheblich geringerem technischen Aufwand ermöglichen. Verschiedene Parameter einer Schwingung können moduliert werden: Frequenz, Phase, Amplitude; dementsprechend unterscheidet man Frequenz-, Phasen- und Amplitudenmodulation. Alle drei Verfahren dienen sowohl als Grundlage der Erzeugung von Klangstrukturen als auch zu deren nachträglicher Bearbeitung bzw. Verfremdung (Effektgerät); ihre Einordnung in die Kategorie »additive Klangsynthese« ist im Prinzip nicht gerechtfertigt, da es sich um eine Multiplikation von Schwingungen handelt (siehe Abschnitt Frequenzmodulation).
 
Der Arbeitsweise vieler analoger Synthesizer liegt das Prinzip der subtraktiven Klangsynthese zugrunde. Sie bildet das direkte Gegenteil der additiven Synthese. Aus einer komplexen, obertonreichen Schwingung wird durch Filterung (Filter) ein gewünschtes Klangspektrum ausgesondert. Das in den meisten Analogsynthesizern verwendete Verfahren, durch einen Tiefpassfilter das Obertonspektrum von Dreieck-, Sägezahn- oder Rechteckschwingungen zu beschneiden, stellt eine vereinfachte Form der subtraktiven Synthese dar, deren eigentlicher Ausgangspunkt das weiße Rauschen ist. Aus diesem über alle Frequenzbereiche gleichmäßig verteilten Geräusch ein harmonisches Klangspektrum auszusondern, bedürfte jedoch eines ähnlichen Aufwandes wie der additive Aufbau einer komplexen Schwingungsform. Bei der Herstellung geräuschhafter Klangstrukturen erweist sich die subtraktive Synthese als vorteilhaft.
 
Durch die Entwicklung der Digitaltechnik begünstigt, erlangte seit 1983 ein bereits Ende der Sechzigerjahre von John M. Chowning (* 1934) praktiziertes Klangsyntheseverfahren Bedeutung, die Frequenzmodulation oder FM-Synthese. Dieses aus der Rundfunkübertragungstechnik bekannte Prinzip beruht auf der Einwirkung einer Modulationsschwingung auf eine Trägerschwingung (Multiplikation). Zur Klangsynthese nutzt man sowohl für den Träger (Carrier) als auch für den Modulator Schwingungsfrequenzen im menschlichen Hörbereich. Aus den Summen und Differenzfrequenzen der beteiligten Schwingungen ergeben sich ausgehend von der Trägerfrequenz Seitenbänder. Wird eine Trägerfrequenz 880 Hz = a2 von einer Modulationsfrequenz 220 Hz = a moduliert, so entstehen Partialschwingungen von 220 Hz, 440 Hz, 660 Hz, 880 Hz, 1.100 Hz, 1.320 Hz usw. Bei einem geradzahligen Verhältnis von Modulations- und Trägerfrequenz ergibt sich ein harmonisches Obertonspektrum. Denkbar sind jedoch alle möglichen Kombinationen zwischen Träger und Modulator bezüglich Frequenz, Modulationsgrad (Amplitude) und Hüllkurve, auch die Beeinflussung eines Trägers durch zwei und mehr Modulatoren, sodass eine Vielzahl traditioneller wie auch ungewöhnlicher, in sich bewegter Klangstrukturen erzeugt werden kann. Die FM-Synthese fand in den Achtzigerjahren durch die Synthesizer der DX-Serie von Yamaha Verbreitung. Diese Instrumente verfügen über vier (z. B. DX9), sechs (DX7) oder zwölf (DX5) Operatoren (Sinustongeneratoren), die sich in unterschiedlichen Konstellationen, Algorithmen (Algorithmus-Synthesizer), als Träger oder Modulatoren kombinieren lassen. Dadurch erweitern sich die beschriebenen Möglichkeiten um ein Vielfaches, jedoch wächst gleichzeitig das Problem der exakten Planbarkeit von Klangstrukturen. Im Vergleich zur additiven Synthese sind die Ergebnisse der FM-Synthese, die auf der Multiplikation von Sinusschwingungen beruht, nur schwer vorhersehbar. Prinzipiell lässt sich die Frequenzmodulation auch mit analogen Klangerzeugern realisieren; in der Praxis nutzt man jedoch das digitale Verfahren. Zu ähnlichen Klangergebnissen führt die Synthese durch Phasenverzerrung (Phase-Distortion, PD-Synthese), die auf die Deformierung einer Sinusschwingung zurückgeht. Durch die Steuerung der Auslesegeschwindigkeit bei einer digital gespeicherten Sinuswelle kommt es zur Phasenverschiebung oder -verzerrung. Wird z. B. die erste Halbwelle einer Kosinusschwingung schneller ausgelesen als die zweite, so nähert sich die Kurve einer Sägezahnschwingung an. Die PD-Synthese findet in den Synthesizern der CZ-Serie von Casio Verwendung.
 
Ende der Fünfzigerjahre begann man, den Computer zur Klangsynthese zu nutzen. Bei dem als Direktsynthese bezeichneten Verfahren wird der Schwingungsverlauf nach bestimmten Vorgaben (Programm) im Computer errechnet. Als Ergebnis liegen dann die binär kodierten Amplitudenwerte der Kurve in gleich bleibenden minimalen Zeitabständen (Quantisierung) vor. Je dichter die einzelnen Werte aufeinander folgen, desto genauer wird der Schwingungsverlauf wiedergegeben (man nutzte in der Anfangszeit 20000 bis 30000 Messwerte pro Sekunde). Die Umformung der im Speicher befindlichen digitalen Informationen in ein analoges Tonsignal erfolgt mithilfe eines D-A-Wandlers. Das erste leistungsfähige Programm zur Direktsynthese wurde 1962 von Max Mathews fertig gestellt. Die Berechnung der Schwingungsform bei der direkten Klangsynthese kann auf Grundlage der zuvor beschriebenen Verfahren erfolgen, also durch die additive Mischung von Sinuskurven, durch Frequenzmodulation oder subtraktive Klangbildung, sie kann jedoch ebenso eine beliebige andere mathematische Operation zum Ausgangspunkt haben. Eine Herausstellung der Direktsynthese als eigenständiges Prinzip ist daher nicht gerechtfertigt; sie bildet jedoch die Grundlage digitaler Klangerzeugung. Das dabei praktizierte Verfahren der Pulse-Code-Modulation (PCM), also der digitalen Kodierung und Speicherung analoger Audiosignale, wurde in den Sechzigerjahren weiterentwickelt. 1971 begann die Allen Organ Company auf der Grundlage eines Patents von Ralph Deutsch aus dem Jahre 1967 mit der Herstellung der Allen Digital Computer Organ, einer Orgel, die mit speziellen digitalen Schaltkreisen zur Reproduktion originaler Orgelklänge auf PCM-Basis ausgestattet war. Die seit Mitte der Siebzigerjahre eingeführten Musikcomputer verfügten dann bereits über die Möglichkeit, beliebige, von außen zugeführte, natürliche Klangstrukturen zu analysieren und zu speichern. Unter der Bezeichnung Sampling fand dieses Verfahren in den Achtzigerjahren Verbreitung. Aufgrund des hohen technischen Aufwands und der relativ komplizierten Handhabung dieses Syntheseprinzips versuchten viele Hersteller, auf einfachere Weise die Vorzüge natürlicher, »gesampelter« Klänge mit den vom Synthesizer bekannten Verarbeitungsmöglichkeiten zu verbinden. Die meisten elektronische Klangerzeuger (Synthesizer, E-Pianos, E-Orgeln, Drum-Computer) arbeiten inzwischen auf der Grundlage digital gespeicherter (PCM-)Klangstrukturen. Die einzelnen Synthesizertypen bieten verschiedene Möglichkeiten des Umgangs mit diesem Ausgangsmaterial. Zu den bekannten technischen Verfahren gehören: linear-arithmetische bzw. LA-Synthese (Roland), Vektorsynthese (Sequential Circuits), Digital Waveform Generation Synthesis bzw. DWGS und Advanced Integrated Synthesis bzw. AI-Synthese (Korg) sowie Cross Wave Synthese (Ensoniq). Als zukunftsträchtig erweisen sich vor allem Verfahren der additiven Zusammenführung und Überblendung unterschiedlicher komplexer Wellenformen und die analoge Aufbereitung bzw. Verfremdung von natürlichen PCM-Sounds. Mit der Erhöhung der Speicherkapazität kommt dem Soundsampling eine immer größere Bedeutung zu.
 
Ein weiteres zukunftsträchtiges Verfahren der digitalen Klangsynthese wurde seit Ende der Siebzigerjahre in den elektronischen Studios der Stanford University, Californien/USA, und am Pariser IRCAM entwickelt: das Physical Modelling. Ziel hierbei ist die Herstellung naturgetreuer elektronischer Klangimitate durch rechnerische Simulation physikalischer Prozesse, die sich bei der Tonerzeugung auf einem herkömmlichen Musikinstrument abspielen (z. B. das Reiben des Bogens auf der Saite eines Streichinstruments) oder die dem menschlichen Singen und Sprechen zugrunde liegen (Schwingung der Stimmlippen, Stellung von Zunge und Lippen, Mund-, Nasen- und Rachenraum als Resonanzräume). Alle Faktoren, die zur Klanggestaltung beitragen, können z. B. per Maus auf dem Bildschirm gesteuert werden; der Computer berechnet das Klangergebnis entsprechend dem vorgegebenen physikalischen Modell.

Universal-Lexikon. 2012.