Ein frühes Beispiel für zufallsbedingte Musik ist etwa Mozarts „Anleitung zum Componieren von Walzern vermittels zweier Würfel“. Es ließ die Hörer unmittelbar an der Entstehung des Werkes partizipieren. Anstelle von analogem Würfelspiel gibt es heute digitale algorithmische Kompositionsverfahren. Schon seit den 1950er-Jahren sind solche Algorithmen Gegenstand künstlerischer Visionen. Komponisten entdeckten ihr Potenzial als Hilfsmittel in der Konstruktion komplexer Strukturen und experimenteller Versuchsanordnungen oder als kreativer Gegenpart, als Überraschungsmoment, Methode oder Widerstand im eigenen künstlerischen Arbeiten.

Durch die atemberaubende Entwicklung algorithmischer Technologien werden mittlerweile in der künstlerischen Zusammenarbeit zwischen Mensch und Maschine neue Horizonte sichtbar: weg von reiner Zufallsoperation oder determiniertem Durchrechnen und hin zu autonomen, offenen Prozessen, die das Verhältnis zwischen Mensch und Maschine neu definieren.

Von Interesse ist dabei nicht nur das ästhetische Endprodukt, sondern auch der Weg dorthin: Die einen vertrauen auf Ansätze künstlicher Intelligenz und die autonome Kreativität des Computers, die anderen beanspruchen für sich eine Kontrollinstanz, um in die technisch gestützten Prozesse eingreifen und sie formen zu können. In beiden Fällen eröffnen sich neue Perspektiven, bei denen traditionelle Denkmuster über Autorschaft, Musikproduktion und -rezeption nicht mehr greifen.

ILLIAC I Chassis, ausgestellt im Computer Science Building, University of Illinois in Urbana-Champaign, Illinois, USA

Der Computer als Komponist

Vor diesem Hintergrund sucht MaerzMusik nach gegenwärtigen Mensch-Maschine-Interaktionen, nach Symbiosen zwischen digitaler und menschlicher Intelligenz im Bereich Komposition und Performance. Die Notwendigkeit menschlicher Kreativität in künstlerischen Prozessen wird in einem Konzertprogramm mit zwei algorithmisch generierten Kompositionen diskursiv in Frage gestellt: Das Ensemble KNM Berlin Streichquartett spielt das erste Werk der Musikgeschichte, das autonom von einem Computer komponiert wurde, die „Illiac Suite“ von Lejaren Hiller und Leonard Isaacson. 1957 entstanden, ist sie ein Pionier-Werk aus vier Sätzen, besser: vier Experimenten für Streichquartett, und benannt nach dem wenige Jahre zuvor an der University of Illinois entwickelten und für die Komposition verwendeten Computersystem ILLIAC I (Illinois Automatic Computer). Die Entwickler selbst unterstreichen explizit den Forschungs-Charakter der Suite, die sie als Laborbuch verstehen: Kompositorisches Regelwerk und Ordnungsprinzipien, die die Musik unterschiedlicher Epochen definieren, werden in automatisierte, algorithmische Prozesse übersetzt. Beispielhaft ist der zweite Satz mit acht Abschnitten, innerhalb derer sich aus einer beliebigen Aneinanderreihung von Tönen unter sukzessiver Hinzunahme von Tonsatz-Regeln ein musikalisches Gefüge modelliert, das stilistisch wie ein barocker vierstimmiger Satz anmutet: eine Stilkopie.

Der enorme technologische Fortschritt seit den 1950er Jahren zeigt sich im zweiten Teil des Abends: Rund ein halbes Jahrhundert nach ILLIAC I wird mit dem Computersystem IAMUS – entwickelt im Rahmen des Forschungsprojekts „Melomics“ an der Universität Málaga – ein neuer musikhistorischer Meilenstein erreicht. IAMUS liefert innerhalb von Minuten fehlerfreie, komplexe Partituren, die ihren eigenen Stil bilden. Die evolutionären Algorithmen, die der kompositorischen Arbeit von IAMUS zugrunde liegen, treten aus dem Bannkreis der rekombinierenden Imitation heraus und beschreiten ihren eigenen Entwicklungsweg. Während Hillers „Illiac Suite“ vorgegebene musikalische Regeln und Versatzstücke eklektizistisch kombiniert und stilistisch sowie formal vorhersehbare Partituren anfertigt, kreiert IAMUS eigenständige, individuelle Werke. In der Geschichte der westlichen Kunstmusik setzt IAMUS eine neue Zäsur, die an Bedeutung vergleichbar wäre mit John Cages schweigsamem „4’ 33’’“ oder den ersten Darbietungen akusmatischer Musik, bei denen Lautsprecher auf der Bühne menschliche Interpreten ersetzen.

IAMUS Computer

IAMUS hingegen ersetzt weder die menschlichen Interpreten, noch tritt er selbst physisch in Erscheinung. Er arbeitet – seinen menschlichen Komponisten-Pendants nicht unähnlich – in der Abgeschiedenheit eines Server-Raums, produziert Partituren und lässt sie von menschlichen Musikern aufführen. In Erscheinung treten in diesem Konzert allein IAMUS’ Entwickler, Francisco José Vico, als Moderator sowie der Pianist und Komponist Gustavo Díaz-Jérez, der vier neue Werke seines algorithmischen Gegenübers zur Uraufführung bringt. Die Anmutung eines klassischen Konzerts verschleiert die Tatsache, dass hier die zentrale Instanz der westlichen Kunstmusik – der Komponist – durch einen Computer ersetzt wurde. Akzeptieren wir den Computer als Komponisten? Je mehr sich die Verhaltensweisen digitaler Maschinen den unseren annähern, je ähnlicher die Ergebnisse algorithmischer Komposition den Werken menschlicher Komponistinnen und Komponisten werden – und IAMUS mag ein Schritt in diese Richtung sein – desto interessanter und dringlicher wird die Frage nach dem Verhältnis zwischen Mensch und Maschine.

Der Algorithmus als Partner

Die Vision eines Theaters ohne menschliche Akteure entwickelte die in New York lebende Künstlerin, Regisseurin und Performerin Annie Dorsen mit ihrem „algorithmic theatre“, in dem sie Algorithmen als vollwertige kreative Partner, nicht als Widerpart oder Bedrohung versteht. In ihrer jüngsten Arbeit, „Yesterday Tomorrow“, setzt sie drei Sängerinnen und Sänger dem kompositorischen Output eines Algorithmus aus. Die in Echtzeit generierte Partitur wird auf Leinwände projiziert, die den Bühnenraum definieren. Die Performer können ihren Part nicht einstudieren, jede Aufführung ist einmalig, ephemer, nicht wiederholbar.

Annie Dorsen: „Yesterday Tomorrow“ © Mario Baranova

Mit den beiden titelgebenden Songs – „Yesterday“ von den Beatles und „Tomorrow“ aus dem Broadway-Musical „Annie“ – sind Start- und Zielpunkt der Komposition festgelegt. Der Algorithmus navigiert eigenständig und in jeder Aufführung aufs Neue vom Ausgangs- zum Zielpunkt und mutiert dabei Tonhöhe und Dauer jeder Note. Die Interpreten reagieren also auf eine computerbestimmte Umgebung – eine Metapher, so Dorsen, für die Allgegenwärtigkeit von Algorithmen, die mit unserem Alltagsleben untrennbar verflochten sind und deren Anweisungen wir bereits heute ständig entgegennehmen.

„Die Inszenierung macht lediglich explizit, was im Stück bereits angelegt ist“, erklärt Dorsen: „Drei erwartungsvolle menschliche Wesen, die Augen (notwendigerweise) an den Bildschirm geheftet, werden von einem Computer gewissermaßen herumkommandiert. Sagen wir es so: Man sucht sich nicht aus, was man von der Welt abbekommt, aber man entscheidet sehr wohl immer noch, was man damit macht – wenn auch manchmal nur in beschränktem Maße.“

Was machen wir mit dem Endprodukt?

Algorithmische Komposition: Sie stellt die Gewichtung von Entstehungsprozess und fixiertem Werk, die Position des Künstlers, die Autorschaft und den Werkbegriff in Frage. Und sie reflektiert eine Lebensrealität, die sich unter dem Einfluss algorithmischer Operatoren rasant verändert. Ob computergestützte Partituren oder Echtzeit-Interaktionen: Nicht zuletzt das unvorhersehbare Moment des Zufalls macht die technologische und ästhetische Sprengkraft dieser Musik aus. Das kreative Potenzial künstlicher Intelligenz können Komponisten, Performer und Programmentwickler voll ausschöpfen. Bleibt zu diskutieren: Was machen wir mit dem Endprodukt?

Der Artikel wurde erstmals veröffentlicht in der Beilage zur „taz. Die Tageszeitung“ am 27. Februar 2016.

MaerzMusik – Festival für Zeitfragen 2016 findet vom 11. bis 20. März 2016 statt.

Am 12. März 2016 widmen sich die Aufführung von Annie Dorsens „Yesterday Tomorrow“, die Durational Performance „The News Blues“ von Nicholas Bussmann sowie das Programm „Algorithmic Composition“ der kompositorischen Zusammenarbeit zwischen Mensch und Maschine.