Institutionalisierte Einrichtungen: Kurz nach dem ersten internationalen Auftreten der elektronischen Musik in Köln (als extreme Ausformung der Reihentechnik und damit Determination der Mikroparameter des Klanges) und der musique concrète in Paris (als Manipulation vorgefundener Klänge mit Hilfe elektroakustischer Techniken) traten 1955 erste Gedanken und Ideen für eine Produktionseinheit für elektronisch erzeugte bzw. zum Zwecke der Strukturgenerierung elektronisch manipulierte Musik in Wien auf, die 1957 zur Realisierung kamen und zur Gründung des elektroakustischen Instituts an der damaligen Musikakademie in Wien führten (der Abteilung für Komposition angeschlossen). Eine ähnliche Arbeitsstätte wurde 1965 an der Grazer MAkad. als eigenständiges Institut für elektronische Musik unter der Leitung von H. Hönig eingerichtet (derzeit [2001] unter R. R. Höldrich). In Salzburg erfolgte die Gründung wesentlich später und nicht im Geist elektronischer, sondern digitaler Musik. 1976 wurde eine Produktionseinheit am Rechenzentrum der Univ. eingerichtet. Funktion all dieser Studios war die Ausbildung von Studenten der Komposition der entsprechenden Mhsch.n auch in der elektronischen Musik sowie die Produktion elektroakustischer Musik und die Entwicklung bzw. die Auswahl und Bereitstellung dafür notwendiger Hardware. Die Einheiten in Wien und in Graz waren in der Tradition eines analogen Studios für elektronische bzw. elektroakustische Musik mit tonerzeugenden Generatoren ausgestattet, als Verarbeitungstechnologien wurden meist Tonaufzeichnungsgeräte aus der Tonstudiotechnik bzw. Modulatoren von Schwingungen aus dem Bereich der Rundfunkübertragung herangezogen und adaptiert. Die musikspezifische Gerätschaft wurde meist im Alleingang eines oder weniger Techniker mit insgesamt beschränkten Mitteln allmählich erarbeitet.
In der Genese der elektronischen Studios spiegelt sich die allgemeine Entwicklung von Tonaufzeichnung und Tonverarbeitung der Studiotechnik und der Übergang von der rein elektronischen bzw. elektroakustischen Musik zur Computermusik wider. Der Werdegang v. a. des Grazer Studios, das vorrangig an der technischen Entwicklung in der Weiterführung der Tradition der klassischen Elektroakustischen Musik interessiert ist, demonstriert dies deutlich. 1966–72 ist das Studio mit Tonerzeugern, Filtern und Modulatoren sowie Aufzeichnungsgeräten ausgestattet. Der Strukturerzeugungsmethode gemäß ist dieses Studio als Studio für Bandcutter-Technik benannt. 1973–77 herrscht die Methode der Spannungssteuerung der genannten Module vor. 1977–85 übernimmt diese Steuerung ein Mikrocomputer, dessen digitale Steuerimpulse ein DA-Wandler zu den für die analogen Systeme verstehbaren Spannungen macht. Damit ist die Zeit der wesentlichen Eigenentwicklungen abgeschlossen. Ab 1986 beginnt der Ankauf MIDI-gesteuerter (digitaler) kommerzieller Synthesizer und danach die Einbindung digitaler Klangverarbeiter am mittlerweile leistungsfähigen Kleinrechner.
Die kommerzielle Produktion von Synthesizern in den späten 1960er Jahren brachte den ersten Einbruch in die Philosophie dieser Eigenentwicklungen. Das in Kooperation mit Experimentalstudios erarbeitete modulare MOOG’sche System orientierte sich am Modell des natürlichen Klangs. Die willkürliche Bestimmung und Vernetzung (gegenseitige Spannungssteuerung) der bestimmenden Synthese-Parameter erlaubt dann die Generierung künstlicher elektronischer Klänge. War zwar die Möglichkeit zur Tonverarbeitung dieser Geräte (z. B. von EMS) relativ gut und vielfältig, mangelte es vorrangig an der Stimmenanzahl, um den Forderungen der Erstellung von beispielsweise Klanggemischen oder polyphonen Strukturen zu folgen. War dies das primäre Problem der Klangsynthese, so forderte die Struktursynthese die Sequenzierung von in ihrem Zeitablauf gestalteten Klängen und dies meist in polyphoner Art. Diese Forderungen zwangen weiterhin zur Eigenentwicklung von monströsen polyphonen Synthesizern mit einer Vielzahl an Tongeneratoren und einer in Serie gesteuerten Reihe von Hüllkurvengeneratoren (analoger Sequenzer).
Die Entwicklung des PC und seine Verwendung als Prozessrechner ermöglichte durch die DA-Konvertierung von Steuersignalen schließlich die Handhabung dieser monströsen Synthesizer.
Die MIDI-Schnittstelle schaffte später eine verbindliche Norm der Steuersignale. MIDI (Musical Instruments Digital Interface) ist die serielle Übertragung von Steuerdaten zur Klangwiedergabe und in eingeschränkter Weise zu seiner Modulation durch Ansteuerung der nach dem Modell des natürlichen Klangs eingerichteten Verarbeitungseinheiten in genormten Größen. Diese Norm brachte auch in der Elektroakustischen Musik eine vorerst nicht abzusehende kleine Revolution. Eigenentwicklungen und kommerzielle Produkte waren damit kombinierbar. Die Steuerung sowohl der Klangerstellung (Schichtungstechnik, im weitesten Sinne eine additive Synthese) als auch der Partituren war nun durch einen kleinen, handelsüblichen PC möglich.
Verfeinerungen und Weiterentwicklungen solcher MIDI-Programme weisen manche Kritik an ihnen als Vorurteile aus. Die MIDI-Basis findet sich heutzutage (2001) in Computersprachen für Steuerprogramme wie MAX und für Kompositionsprogramme abseits der chromatischen Stimmung wie PATCHWORK, beides Entwicklungen des IRCAM, das an der Standardisierung der MIDI-Norm mitwirkte. Hard- und Software dieser Art sowie Adaptionen von Systemen kommerzieller Anbieter aus der Rockmusik-Industrie sind heute für die Produktion von synthetischer Musik in Österreich bestimmend.
Ein weiterer Einbruch in die in Österreich praktizierte Philosophie der Eigenentwicklung im Kleinen kam mit der digitalen Klangverarbeitung und mit dem realtime direkt to disc recording ebenfalls auf PC Basis um 1990. Nicht bloß die Steuerung von extern erzeugten Klängen, sondern die Synthese nach unterschiedlichen Modellen kann nun am Kleincomputer geleistet werden, die Speicherung dieser Klänge erfolgt auf Harddisc. Damit war die Notwendigkeit zur Selbstentwicklung vorbei und die Forschung an den öffentlichen heimischen Studios von der kommerziellen Produktion bzw. von Forschungsstellen, die neben Musikern auch Techniker, Akustiker und Psychoakustiker beschäftigten, wie das von IRCAM in Europa geleistet wird, überholt. Die Konsequenz war der Kauf entsprechender Entwicklungen (v. a. der IRCAM music workstation), mit denen nun die öffentlichen Studios in Österreich ausgestattet sind. Erst ab diesem Zeitpunkt kann man, auch was die Klangsynthese anbelangt, in Österreich von der Möglichkeit zur Produktion von (realtime) Computer-Music sprechen.
Trotz relativ hoher Offenheit solcher musikbezogener Programmiersprachen und digitaler Klangverarbeiter ist die ästhetische Orientierung des Entwicklers meist doch in den Tools angelegt; die österreichischen Institutionen begeben sich damit zumindest in die Gefahr, Epigonen führender Institutionen zu werden. Derzeit allerdings überwiegt der Ankauf spezieller oder kommerzieller Entwicklungen die selbstverständlich mit mehr Ressourcen zu versehende Eigenentwicklung.
Das Wiener Institut ging trotz beachtlicher Fortschritte von der Idee zum Bau eines eigenständigen Musikcomputers früh ab und fokusiert mit seiner musiktechnischen Forschungs- und Entwicklungsarbeit nun Interfaces für Ton- und Bildinformation und damit die gegenseitige Steuermöglichkeit für Bild und Ton. Das geplante Realtime-System sollte gleichsam in zwei Hardware-Einheiten die Partitursynthese und die Klangsynthese realisieren. Im Gegensatz zum Grazer Studio stand aber in Wien die technische Entwicklung stets hinter der unmittelbar musikalischen Arbeit. Diese war und ist geleitet von der Idee der Akousmatik, die am sensorischen Objekt „Klang ohne sichtbaren Ursprung“ interessiert ist. Mit dieser dem Vorgefundenen gegenüber aufgeschlossenen und nicht nur dem Kalkulierten vertrauenden Haltung wurde stets das künstlerische Experiment gesucht und gewagt. Der langjährige provisorische Leiter unter R. Haubenstock-Ramati und nunmehrige Vorstand des Instituts, D. Kaufmann, bestimmt mit der aus seinem Pariser Studium der musique concrète mitgebrachten und in einem eigenen Ensemble realisierten musikantischen Haltung wesentlich diese Orientierung.
Das gemeinsame Interesse am Klang führte einsichtigerweise hier, wo der Geist der musique concrète vertreten ist, zu einer Symbiose: Das Institut hat sich frühzeitig geöffnet und neben der Erfüllung des für Kompositionsschüler obligaten Ausbildungsteils die an elektroakustischer Musik interessierten Rock-Musiker zu einem Lehrgang für elektroakustische Musik eingeladen. Wohl um eine Basis für Aufführungen zu schaffen, aber auch um den Informationsaustausch von privaten und öffentlichen Instituten in Österreich und der ganzen Welt zu ermöglichen und um Erfahrungen auszutauschen, ging die Gründung einer Interessensvertretung (Gesellschaft für Elektroakustische Musik) im Jahre 1983 sowie ihre Ansiedelung in der Nähe zur Internationalen Gesellschaft für Neue Musik (IGNM) wesentlich von den Studenten und Mitarbeitern des Wiener Instituts aus.
Nicht aus streng elementaristisch-wissenschaftlicher, der Orientierung des Instituts entsprechend, aber aus intuitiv-empirischer Arbeit, die die Klanggestalt holistisch zu erfahren trachtet, resultiert die Schaffung eigenständiger musikalischer Notationsformen. Die Elektroakustischen Musik ist die einzig völlig exakt „notierbare“ Musik (Notation). Am Live-Spiel interessiert, werden den deterministischen Handlungsanweisungen Spielanweisungen parallelgestellt, die einen interpretatorischen Freiraum gewähren. Gilt der auch mit elektronischer Klangerzeugung arbeitende Komponist und langjährige Leiter der Abteilung Komposition an der MHsch. Wien, Haubenstock-Ramati, als ein Pionier der grafischen Notation insgesamt, so ist der eng an das Wiener Institut gebundene A. Logothetis der meist erstgenannte Vertreter psychologisch relevanter und semiotisch gestützter, grafischer Notationsformen im Bereich der Elektronischen Musik. Daidalia, seine in dieser Notationsform vorliegende elektroakustische Oper, wurde vom K&K-Ensemble (D. Kaufmann und G. König) realisiert und uraufgeführt. T. Ungvary arbeitet an der Entwicklung von Notationsformen, die intermediale Kommunikation berücksichtigen und in der Choreographie ihr Vorbild finden.
Das wesentlich später gegründete Salzburger Institut fand andere historische und damit technische und zugleich musikästhetische Bedingungen vor. Abseits belastender Eigentradition wurde es, von Beginn an bereits als Computermusik-Produktionsstätte konzipiert, von dem aus dem Computermusikzentrum in Stanford/USA zurückkehrenden Komponisten I. Radauer 1976 gegründet. Die Konzeption als Computermusik-Studio entsprach dem internationalen Wissensstand der damaligen Zeit und der entsprechenden Vorschulung seines Gründers. Das Institut beschritt nicht so sehr den Weg der Eigenentwicklung als den der Adaption vorhandener Hard- und Software. Vorausschauend und durch die mitgebrachte Software gezwungen, wurde nicht die Realisierung von Computer-Musik am damals noch wenig leistungsfähigen PC angestrebt, sondern am Großrechner. Dazu wurden vorhandene und mächtige Ressourcen genutzt. Seit 1980 existiert das ComputerMusikRechenzentrum Salzburg (CMRS) als privater Verein mit Sitz am Rechenzentrum der Univ. Salzburg. Das Personal wird über Lehraufträge vom Mozarteum gestellt, die Gerätschaften werden aus einem Fonds finanziert. 1983 wurde das Institut offiziell eröffnet, 1986 übersiedelte es in eigene Räume wiederum innerhalb der Univ. Salzburg. Das Institut besitzt eine PDP-11/44 Rechenanlage mit dem Betriebssystem Unix. Die Arbeit der 1980er Jahre galt primär – der amerikanischen Orientierung des Leiters folgend – der Adaption und Verfeinerung der von Barry Vercoe am Mass. Institute of Technology (MIT) geschriebenen musikbezogenen Programmiersprache Music-11, einer Synthesesoftware, die am analogen Synthesizer, somit am Modell des natürlichen Klangs, orientiert ist. Daneben nutzt das CMRS neben eigenen Entwicklungen zur Realtime-Verarbeitung von Klang und kompositorischen Strukturen kommerzielle MIDI-Technologie von digidesign und IRCAM.Das Institut steht den Kompositionsstudenten des Mozarteums, den Studenden der Musikwissenschaft und Komponisten zur Verfügung. Die Mitarbeit von Hans Strasburger als Systems Manager (Institut für medizinische Psychologie, München) spricht für die an der grundlegenden Forschung orientierte Konzeption des Instituts abseits des konventionellen Musikbetriebs und inkludiert psychoakustische Forschung; eine Konzeption, die dem internationalen Wissen über die Symbiose von Forschung und Produktion im Bereich der Computermusik entspricht.
Die Mutation zu interaktiver Kunst abseits der Konzerthaltung, zu intermedialer und zur Medien-Kunst: Der Tradition der Ausbildung zum Musiker, der Vermittlung instrumenteller Fertigkeiten verhaftet, haben sich die anderen Hsch.studios lange der notwendigen Verschränkung von Kunst und solchen Wissenschaften, die Modelle der Kunst und des Lebens, der Wahrnehmung und Kognition von Ereignissen bieten und die die technische Realisierung „künstlerischer“ Produkte in feedbackartigem Zusammenwirken reflektieren und erforschen, im Bereich digitaler Künste verschlossen. Die der Aktualität meist nachhinkende, damit restaurative spartenspezifische Lehre führte im Verein mit der nunmehr zugänglichen Technologie und mit der aus der nahen, weil klangdominierten Rock-Kultur mitgebrachten Offenheit zur Gründung innovativer privater Produktionseinheiten, die dabei österreichische Pioniere der Elektroakustik als Vorreiter fanden.
Die Idee zu einem privaten Studio realisierte der stark am elektronischen Musiktheater interessierte Max Brand im Jahre 1975, in das intermediale Konzept des ebenfalls 1975 gegründeten K&K-Ensembles ist auch eine elektroakustische Kleinkunstaufführungsstätte integriert: Musiktheater, Theater und andere Media-Mischformen sind darin vermengt.
Computerkunst existiert in immaterieller Form, ihre physikalische Existenzform ist von der Übertragung in ein sensorisches Medium bestimmt. Computerkunst ist demnach intermedial, Interfaces machen sie bloß in unterschiedlichen Sinnesgebieten wahrnehmbar. Die nach Kunstsparten gegliederten akademischen Ausbildungs- und Produktionsstätten widersprechen diesem intermedialen Selbstverständnis, sie stehen grenzüberschreitendem Arbeiten oftmals auch entgegen. Im Vergleich zur amerikanischen Avantgarde fanden Live Electronics und damit die Interface-Problematik und intermediale Vorstöße in die österreichische Szene elektroakustischer Musik spät Eingang. Dieser multimedialen Live-Haltung folgend, experimentierte das K&K-Ensemble von Beginn an konsequenterweise mit der Gestaltung von Klang abseits des instrumentellen Spiels. Mit dem Moviophon nutzten Kaufmann/König Körperbewegung zur Klangsteuerung. Die Komponistin und Geigerin M. Zabelka arbeitet heute als Live-Performerin mit ähnlichen opto-akustischen Wandlern; das Studio Grelle Musik (W. Jauk) nutzt invisible interfaces für interaktive Klanginstallationen vorrangig im öffentlichen Raum, die auch partizipativ sind und Bewegungen von Passanten gleichsam „unbemerkt“ als Steuersignale für interaktive Kompositionen gebrauchen. Auf der Bühne ist damit Realtime Computermusic möglich, die durch die Spiel-Bewegungen der Musiker einer Free-Jazz-Gruppe entsteht – diese gilt dabei als Paradigma der interaktiven musikalischen Gestaltung. Man-Machine-Interfaces dieser intelligenten Art tragen wesentlich zur Lösung der zu allen Zeiten der elektronischen Musik gegenwärtige Spiel-Problematik bei: solche interaktive Systeme bringen eine Rückführung zum Musizieren.
Die Medienkunst besinnt sich in neuer Art ihrer Ahnen. Radiokunst existierte in Form der Fortführung der Funkoper, die das Hörspiel und die – mit den Aufnahmetechniken des Rundfunks als Kompositionsmittel arbeitende – Elektronische Musik vereinte. Das Radio ist die Mutter der Elektronischen Musik; das später geborene Fernsehen die Mutter der elektronischen Bildgenerierung und -verarbeitung. Beide sind Medien der Informationsübertragung und meist vereint in einer Institution zur intermedialen Gestaltung und Sendung von Information. Die Gleichzeitigkeit der Übertragung von Information via akustischer und visueller Medien erzwingt die Abkehr vom Nebeneinander zum wechselseitig gesteuerten Miteinander akustischer und visueller Information.
Computernetze leiten die Einwegkommunikation mit Reaktionsmöglichkeit langsam zur feedbackartigen Zweiwegkommunikation. Auch über die Einbeziehung von Übertragungstechniken als gestaltende Mittel wird die Reflexion von Information, ihre Übermittlung, Verteilung und damit Verfügbarkeit als künstlerischer Prozess in einer Elektronik- und Informationsgesellschaft geleistet, der Raum zwischen völliger Demokratie als Potentialität und der Befürchtung der völligen Determiniertheit durch die Kontrolle von Netz-Betreibern erkundet.
All diese Entwicklungen der dominanten Eigenheiten elektronischer Medien führen somit zur Interaktion im intermedialen Raum, wo ortlose Gleichzeitigkeit herrscht. Vorrangig interaktive und intermediale Systeme zeigen dabei die Möglichkeiten des Denkens abseits des durch die Mechanik bestimmten Reaktionsprinzips durch kommunikationstheoretisch organisierte Einheiten auf; multimediale Konzepte reflektieren die systemhafte Organisation einer pluralistischen Gesellschaft, sie thematisieren die Abwendung vom monokausalen seriellen Denken zu einem die Gesellschaft besser charakterisierenden parallelen Denken.
Fern der meist gepflegten kinetischen Vorstellungen – wohl dem mechanischen Denkbild folgend – bietet v. a. die Musik leistungsfähige kommunikationstheoretisch-systemische Modelle für interaktive elektronische Künste, da sie in einigen ihrer Formen interaktive Gestaltungsprinzipien entwickelt hat (Free Jazz), und wechselseitig bezogenes, systemhaftes Denken seit der Polyphonie vorherrscht. Nach der Zeit der finanziell aufwändigen Hardware-Entwicklung in der Computermusik wird Österreich mit seinen Forschungseinrichtungen verstärkt an der Entwicklung von Theorien in diesem Grenzbereich zwischen Kunst und Wissenschaft teilhaben.
P. Mechtler in ÖMZ 39 (1984); G. Martin in ÖMZ 39 (1984); W. Jauk in H. Leopoldseder/Ch. Schöpf (Hg.), Prix Ars Electronica 95, 1995; M. Supper, Elektroakustische Musik und Computermusik 1997.