Gemeinsam Musizieren mit Apps – Körperlichkeit zwischen Automation und Autonomie
Musikapps werden von einigen Musikpädagog*innen als pädagogisches Wundermittel gelobt, das innovative Methoden bietet, um insbesondere Kinder und Jugendliche für Musik zu begeistern. Der Zugang zum Musikmachen sei dabei leicht. Eine zentrale Rolle spielen dafür Möglichkeitendes des Einbezugs automatischer Abläufe, die musikalisch-kreative Prozesse zu erleichtern scheinen (vgl. Biring 2015) – jedenfalls in dem Sinne, dass Ergebnisse entstehen, die als strukturiert und gefällig wahrgenommen werden. Skeptisch gesehen wird jedoch von vielen Pädagog*innen der Fokus auf einen stark visuelle, zeichenorientierte d. h. kognitive Musikausübung zugunsten körperlicher Erfahrungsmöglichkeiten (vgl. Zimmer 2014). In diesem Vortrag soll das Verhältnis von automatischen Programmfunktionen und Qualitäten der Spielbewegung (Körperlichkeit) beim instrumentalen Spiel digitaler Musiktechnologien untersucht werden.
Dieser Vortrag, vorgetragen am 27.09.2019 beim AMPF, befasst sich mit der sozialkonstruktivistischen Ausgestaltung musikalischen Handelns (vgl. Spychiger 2008), wobei der Fokus auf die Körperlichkeit der daran Beteiligten gerichtet ist. Der Blick wird auf einer Mikroebene auf die Qualität der Körperbewegung der Hand in Bezug auf den Touchscreen des Tablets (= Körperlichkeit) gerichtet. Dabei werden Ensemblesituationen untersucht, bei der aus Perspektive der Sozialphänomenologie von einer vollzugsorientierten, prä-kommunikativen Interaktion gesprochen werden kann, die auch auf eine leibliche Dimension von Intersubjektivität verweist (vgl. Schütz 1971).
In diesem Vortrag möchte ich ein paar erste Ergebnisse meines Dissertationsprojektes, bezogen auf automatisierte Programmfunktionen und diesbezügliche Bedingungen für die Entwicklung von Körperlichkeit vorstellen. Ich will zeigen, wie beim Musikmachen mit Apps unter Einbeziehung automatischer Verfahren Fertigkeit eines Sich-Anschmiegens oder Sich-Einpassens (vgl. Söffner 2014:8) von Bedeutung sind und wie dabei spezifische Qualitäten in der körperlichen Spielbewegung beobachtbar werden.
Übergeordnete Fragestellungen meines Dissertationsvorhabens sind:
- Welche Qualitäten der Körperlichkeit lassen sich bei der Musikausübung mit digitalen Technologien unterscheiden? Unter welchen Bedingungen finden sie statt?
- In welcher Weise modifizieren Algorithmen die Musikausübung?
In einem iterativ-zyklischen Prozess nähere ich mich aus einer phänomenologisch orientierten Forschungshaltung Phänomenen technologievermittelten Ensemblemusizierens, wobei teilnehmende Beobachtung, Videographie und Interviews eine zentrale Datensorte darstellen.
Damit will ich zunächst einmal eine theoretische Grundlage und auf dieser Basis ein Bewusstsein für eine musikpädagogische Praxis mit Musikapps schaffen, die anders gelagert ist als Musikproduktionsprojekte (z. B. Songwriting mit der App GarageBand) und stattdessen eher körperliches Erleben und dialogische Prozesse beim Ensemblemusizieren in den Blick nimmt.
Behandelt werden letztlich Fragen zur Veränderung der Relation zwischen musikalischem Handeln, den (technischen) Werkzeugen und der erzeugten klingenden Struktur. Demgegenüber stehen im Zentrum dieses Beitrages technische Möglichkeiten, mit menschlichen Mitspielern zu musizieren – d. h. dialogisch, musikalisch bezogen aufeinander reagieren zu können – wobei unterschiedliche Qualitäten der Körperlichkeit fokussiert werden. Eine Differenzierung kann dabei jedoch nur dann getroffen werden, wenn die ontologische Perspektive, ein Gegenstand sei per se ein Instrument oder nicht, aufgegeben wird. (Eine Musikapp, sagen wir GarageBand für iPad, kann etwa im Instrumentalunterricht im Sinne eines Übungswerkzeuges als Metronom oder Begleitautomatik als Reproduktionsmedium verwendet werden. Dieselbe App wird in den Händen eines Musikproduzenten zum Produktionstool eines Popsongs oder von einem Instrumentalisten als Live-Instrument bei einer Bühnenperformance genutzt.)
Gliederung
Zur Fokussierung meiner empirischen Untersuchung will ich zunächst eine Unterscheidungen treffen, die sich aus Beobachtungen ergeben und die ich in theoretischen Modellen wiederfinde. Dies betrifft zunächst verschiedene Formen von Automation, womit gemeint ist, dass einige Apps eine Funktionalität aufweisen, die (im Sinne reproduktiver Verfahren) eine zuvor programmierte Abfolge von Klängen zeitlich strukturiert wiedergeben können. Aufbauend auf dieser Unterscheidung will ich dann das musikalische Handeln zwischen Musizierenden aus einer sozial-phänomenologischen Perspektive beschreiben und in einem weiteren Schritt dies zum Konzept der interpersonalen Koordination nach Spychiger (2008) in ein Verhältnis setzen. Schließlich sollen auf dieser Grundlage qualitative Unterschiede in der Art und Weise der Interaktion der Musizierenden mit dem Touchscreen aufgezeigt werden.
1. Automation (technographische Analyse zeitbezogener Bedien-Interaktionen bei verschiedenen Musikapps)
Wie Lehmann (2007) ausführt, können Instrumente als ‚Organprojektionen‘ von Stimme und Gliedmaßen verstanden werden. Sie weiten die körperlich vorgegebenen Möglichkeiten der Klangerzeugung aus (vgl. ebd.:76). Diese Möglichkeiten werden potenziell durch die Abwesenheit mechanischer Klangerzeugungsprozesse bei digitalen Musiktechnologien durch Virtualisierung noch erweitert. Damit sind sie Teil eines technikkulturellen Prozesses, der die Entwicklung musikalischer Praxis, ihre Formen und Stile von Beginn an begleitet. Schon einfache Instrumente stellen eine physische Distanz von Körperbewegung und Instrumentenklang her; distanzierte Verhältnisse, stellen sich also nicht erst mit elektronischen Musiktechnologien oder im Zuge der ‚Musikinstrumentwerdung‘ von Informationstechnologisierung ein (vgl. Großmann 2010). Sie erreichen jedoch eine neue Qualität, wenn die technikkulturellen Spezifika von Computertechnologien als Teil des ästhetischen Prozesses integriert werden. Zu den Bedingungen der Musikausübung mit digitalen Technologien zählen dabei neben Designvorgaben der Interfacegestaltung zur Bedien-Interaktion und etwa der Klangerzeugung (Samples, virtuelle Synthesizeralgorithmen) auch der Zugriff auf Möglichkeiten zur zeitlichen Automatisierung, wodurch im gemeinschaftlichen Musizieren die körperliche Bezugnahme geprägt wird.
Volle zeitliche Automation (Musik-Maschine)
Bei automatischen Prozessen der programmierten Erzeugung von Klangstrukturen ist der Gestaltungsvorgang von der Anordnung der Programmteile, Designvorgaben der Eingabemaske sowie von den Beeinflussungsmöglichkeiten abhängig. Für die folgende Unterscheidung wird am Beispiel der App DM1 das prominente Grid (Raster) fokussiert (siehe Beispielvideo). Die 9 Zeilen repräsentieren verschiedene Drum-Samples (Bass Drum, Snare, HiHat etc.). Die 16 Spalten stellen den zeitlichen Verlauf in der Markierung es 4/4-Taktes mit jeweils 4 Subdivisionen dar. Weitere Funktionen zur Programmierung eines Grooves wie die Einstellung des Tempos, die Klangauswahl einzelner Samples, ein Mischpult zur Justierung der einzelnen Lautstärken und und und… sind über Menüs erreichbar, die jedoch den Zugriff auf das Grid versperren, also die Eingabe bzw. Anpassung der zeitlichen Steuerung der Klänge nicht mehr möglich ist.
Wird – wie im Beispielvideo – oben links auf ‚Play‘ gedrückt, wird das Grid Spalte für Spalte von links nach rechts im vorher definierten Tempo ausgelesen. Jede darin farblich markierte Zelle (gelb) erklingt mit der für die entsprechende Zeile definierten Klangsample (z.B. Bass Drum). Alle Markierungen (Events) in einer Spalte erklingen gleichzeitig. Das programmierte Muster von Markierungen erklingt im Loop, das Tempo ist fixiert: Wurde das Grid vom visualisierten Ablesebalken nach rechts durchlaufen, startet er nahtlos wieder links weitere Durchläufe bis der Automatismus durch ‚Stopp‘ abgebrochen wird. Die einzelnen Events können jederzeit umprogrammiert werden. Doch erklingen die umgestalteten Muster erst, wenn der visualisierte Ablesebalken im nächsten Durchlauf wieder über die markierten Spalten streift. Der Zeitpunkt der Programmierung der Events erfolgt unabhängig vom Zeitpunkt des Erklingens. Der Zeitpunkt der Touchscreen-Berührung eines Fingers steht in keiner zeitlichen Relation zum Zeitpunkt des Ertönens.
Bei diesem Prinzip wird ein kompositionsorientiertes Verfahren deutlich, wobei das Grid (als „Partitur“) automatisiert ausgelesen wird. Die Toneingabe erfolgt zeitversetzt zum klanglichen Feedback. In Reflexion des gerade Gehörten kann von Nutzenden im nachfolgenden Durchlauf eine Revision erfolgen. Dabei kann man bei Vertretern dieses Prinzips auch von einer ‚Musik-Maschine‘ sprechen, die es im Sinne eines Reproduktionsmediums (Sequenzer) ermöglicht, dass Nutzende in spezifischer Form Noten (Events) zeitlich festlegen und diese dann voll automatisiert hörbar machen können. Dabei stellt das Muster in jedem Durchgang eine Grundlage für jeweils eine neue ‚instrumentale‘ Aufführung einer abstrakten, operativen Zeichenstruktur dar. Nicht zuletzt liegt dabei in der Wiederholung und Wiederholbarkeit eine wesentliche Besonderheit dieses Prinzips. Das hiermit charakterisierte Verfahren soll als prototypisch für Automatisierung in dieser Untersuchung gelten: Es werden in der Musikausübung Zustände ausgewählt, die sich häufig in einem bestimmten visuellen Muster auf einem Grid darstellen.
keine zeitliche Automation (Musik-Instrument)
Findet keine zeitliche Automation statt, können Klänge in Echtzeit, d. h. gleichzeitig zur Berührung der Spieloberfläche, in mehren Parametern modifiziert werden. Die Gestalt von Griffbrettern (Interfaces) ist bei herkömmlichen Musikinstrumenten von den physikalischen Bedingungen der Klangerzeugung bestimmt. Bei digitalen Musiktechnologien wie Musikapps ist das Design der Spieloberfläche zur Klangsteuerung nicht mehr an eine physikalische Erzeugung der Klänge gebunden. Mit der technischen Entwicklung des Digitalen verschiebt sich die scheinbar naturgegebene Relation, wodurch das physische Spiel der Instrumente von der physikalischen Klangerzeugung entkoppelt werden. Bei vielen Musikapps wird in der Gestaltung der Spieloberfläche, wie sie auf dem Screen dargestellt wird, der Simulationsaspekt deutlich. So werden teilweise fotorealistisch Klaviaturen, schwingende Gitarrensaiten, Drehregler und Schlagzeugfelle visualisiert. Wird jedoch dieses Paradigma der visuellen Simulation traditioneller Instrumente verlassen, beginnt der vertraute Grund herkömmlicher Instrumente brüchig zu werden. Großmann (2010) hebt hervor, dass bei neuen Formen „die spielerische Beherrschung oder experimentelle Erprobung der automatischen Prozesse […] eine veränderte Kultur des instrumentalen Spiels [verlangt]. Nicht mehr die physische Anordnung der Tasten des Keyboards sind spielerisch zu bewältigen, die generative Struktur der Programme rückt ins Zentrum: „Man muss das Patch lernen wie ein Instrument.“ (ebd.: 195 f.)
Ob fotorealistisch dargestellte Klaviatur oder alternative grafische Elemente sowie auch etwa Bewegungssensoren zur Klangsteuerung, für unsere Betrachtung relevant ist, dass Spielende in Echtzeit Parameter wie Tonhöhe und Lautstärke, also unabhängig von einem vorher definierten Tempo oder zeitlichen Ablauf, spontan realisieren können. Vergleichbar mit physikalischen Wirkungsprinzipien, erklingt im direkten Zusammenhang mit der körperlichen Interaktion des Spielenden mit definierten Steuerelementen z. B. ein Ton in einer programmierten Lage. Dabei ist die instrumentale Anwendbarkeit vieler Musikapps mit einer Reduktion der Kontrollmöglichkeiten auf einige wenige zentrale Parameter verbunden, womit die technologische Komplexität des technisch möglichen eingegrenzt und intuitiv handhabbar gemacht werden soll.
Im Videobeispiel kann beobachtet werden, wie in Echtzeit auf visuell dargestellten Bünden eines Saiteninstrumentes, in Quarten gestimmt, definierte Tonhöhen angesteuert werden können. Darüber hinaus können die Töne aber auch frei intoniert und ein Vibrato erzeugt werden. Außerdem wird neben der Anschlagdauer auch die Anschlagstärke verbindlich für die Klanglichkeit und das dynamische Spiel. Die zeitliche Gestaltung des Spiels ist im Tempo frei und das klangliche Feedback (das hörbar gemachte) erfolgt in direktem Zusammenhang mit der Interaktion mit den Steuerelementen. Damit lässt sich eine dynamische musikalische Gestaltung realisieren, wobei der Klang nicht nur rudimentär, d. h. durch einen oder zwei Parameter, sondern in vielen seiner Parameter kontrollierbar sein kann.
Live-Automation (Live-Sequenzer)
Eine spätere Evolutionsstufe voll-automatischer Musik-Maschinen stellen Live-Sequenzing-Verfahren dar. Hierbei wird technisch eine Echtzeitmontage ermöglicht, die ein dynamisches Spiel verschiedener Zustände erfahrbar macht. Kennzeichnend für diese Vertreter ist eine Neudefinition des Musik-Instruments, dass besonders im hybriden transkulturellen Feld des Rap, Hiphop und Techno zu finden ist und bei dem digitale Funktionsprinzipien in Form von Programmen notwendig werden.
Im Fallbeispiel der App SNAP ist im oberen Teil der Interface-Darstellung eine Variante des Grids (siehe im Vergleich das Fallbeispiel DM1, oben) zu sehen, dass exakt demselben kompositorischen Prinzip gehörcht. Im unteren Teil finden sich abstrakt dargestellte Fader, d. h. lineare Züge, wie man sie von Mischpulten zur Justierung der Kanallautstärken kennt. Bei SNAP bewirken die farblich-codierten Fader auf algorithmischer Basis bestimmte Muster in einer Zeile des Grids mit entsprechender Farbmarkierung. Wie im Beispielvideo zu sehen, ist es damit möglich, dass in den zeitlichen Prozess des voll-automatischen Ablaufs dynamisch eingegriffen werden kann, was einer klassisch-orientierten Vorstellung eines instrumentalen Wirkprinzips entspricht. Besonders deutlich wird dies bei Aktivierung des Magnet-Funktion (oben rechts), wobei eine bestimmte Faderstellung (und damit verbunden das entsprechende Muster) in direkte Abhängigkeit zur Bildschirmberührung gesteuert wird.
Die Live-Automation lässt sich als Hybrid charakterisieren: Wie bei einer voll-automatischen Musik-Maschine ist das Tempo des erklingenden rhythmischen Patterns fixiert und kann nur durch eine Menüauswahl verändert werden. An der Spielbewegung ist jedoch wie bei einem Musik-Instrument überwiegend eine Spielweise beobachtbar, die sich im Timing am hörbaren Groove orientiert. Dabei ist eine auf zeitliche Präzision orientierte Interaktion mit der Spieloberfläche, wie bei einem Spiel in Echtzeit beobachtbar. Bei näherer Betrachtung der Interaktion mit den Fadern kann festgestellt werden, dass sie nicht immer eine exakt gleichzeitige Klangveränderung bewirkt. Werden die Fader langsam nach oben geschoben, fallen Lücken im Muster auf, wodurch allein unter der Bedingung, dass zu einer bestimmten Zeitpunkt in Relation zum Beattempo getippt wird, zu dieser Interaktion auch ein Klang ausgelöst wird. Dies veranschaulicht, wie einerseits dynamische musikalische Gestaltungsmöglichkeiten in Echtzeit und andererseits festgelegte Zustände im Prinzip von Live-Automation in Verbindung gebracht werden können. Die dafür notwendigen Bedingungen sollen nachfolgend im Kontext der Betrachtung einer Ensemblesituation näher untersucht werden.
Zusammenfassung: Mit der hier vorgestellten grobe Unterscheidung anhand von beispielhaften Apps lassen sich viele andere Musikapps übertragen. Auf der einen Seite gibt es eine Anzahl an Apps, bei denen Klänge zeitlich unabhängig von einem voreingestellten Tempo zum Musizieren hervorgerufen werden können. Dazu gehören etwa Klavier-, Gitarren-, Schlagzeug- und Synthesizer-Apps mit unterschiedlichsten Spieloberflächen. Davon lassen sich Apps unterscheiden, in denen zeitliche Automationen in zwei unterschiedlichen Ausprägungen finden. Dazu gehören neben Drummachines auch Apps, die Begleitautomationen bieten, Arpeggiatorfunktionen in Synthesizern und Apps, die als ‚Launchpad‘ bezeichnet werden. Bei dieser Unterscheidung lassen sich Grenzfälle bei Apps finden, die aufgrund ihrer Komplexität nicht recht zuordenbar sind. Außerdem ist bei der Unterscheidung zu beachten, dass einzelne Apps sogar alle drei dieser Prinzipien in sich vereinen können. Jedoch sind diese Prinzipien häufig auf unterschiedliche Screens verteilt und sind somit nicht gleichzeitig auf einer Spieloberfläche für den Spieler erreichbar. So bietet die App DM1 auf dem ersten Screen das Grid (Musik-Maschine). Über das Menü kann auf einem anderen Screen gewechselt werden, der Schlagzeug-Spielflächen (Musik-Instrument) zum Tippen bietet.
In diesem Abschnitt wurden Musikapps hinsichtlich ihrer vom App-Entwickler festgelegten Optionen zur Automation von Abläufen in Form einer technographischen Analyse zeitbezogener Interaktion unterschieden. Sinn und Zweck dieser Unterscheidung (Musik-Maschine, Musik-Instrument, Live-Sequenzer) ist jedoch weniger eine Klassifikation einzelner Apps nach Steuerelementen und musikalischen Interaktionsprinzipien, als vielmehr eine Basis zu schaffen, die eine Differenzierung unterschiedlicher Qualitäten der Körperlichkeit, die beim gemeinsamen Musizieren abhängig von der gewählten App beobachtbar werden, zu grundieren. Im Folgenden soll die grobe Unterscheidung von Apps in einen empirischen Zusammenhang gestellt werden.
2. Untersuchung einer Musiziersituation, an der ein Pianist und eine Appmusikerin beteiligt sind
… to be continued …
Weitere Videos aus dem Vortrag:
Literatur:
- De Jaegher; H. & Di Paolo, E. (2007). Participatory sense-making. An enactive approach to social cognition. Phenomenology and the Cognitive Sciences, 6(4), 485-507.
- Gallagher, S. & Zahavi, Dan (2012). The Phenomenological Mind (2. Auflage). London: Routledge.
- Großmann, Rolf (2010): Distanzierte Verhältnisse? Zur Musikinstrumentalisierung der Reproduktionsmedien. In: Michael Harenberg und Daniel Weissberg (Hg.): Klang (ohne) Körper. Spuren und Potenziale des Körpers in der elektronischen Musik. Bielefeld: Transcript Verlag, S. 183–199.
- Kim, Jin Hyun (2010): Embodiment musikalischer Praxis und Medialität des Musikinstrumentes – unter besonderer Berücksichtigung digitaler interaktiver Musikperformances. In: Michael Harenberg und Daniel Weissberg (Hg.): Klang (ohne) Körper. Spuren und Potenziale des Körpers in der elektronischen Musik. Bielefeld: Transcript Verlag, S. 105–117.
- Lehmann, Silke (2007): Bewegung und Sprache als Wege zum musikalischen Rhythmus (= Osnabrücker Beiträge zur Musik und Musikerziehung, Bd. 5), Osnabrück: epOS-Verlag.
- Rora, Constanze (2017): Musik als Praxis aus dem Blickwinkel einer Phänomenologie der Partizipation. In: Alexander J. Cvetko & Christian Rolle (Hg.): Musikpädagogik und Kulturwissenschaft (Musikpädago-gische Forschung, Band 38). Münster: Waxmann, S. 165-179.
- Schütz, Alfred (1971): Studien zur soziologischen Theorie. Den Haag: Nijhoff.
- Söffner, Jan (2014). Partizipation. Metapher, Mimesis, Musik – und die Kunst, Texte bewohnbar zu machen. Paderborn: Fink.
- Spychiger, Maria B. (2008): Musiklernen als Ko-Konstruktion? Überlegungen zum Verhältnis individueller und sozialer Dimensionen musikbezogener Erfahrungen als Lernprozesse. In: Diskussion Musikpädagogik (40), 4-12.
- Zimmer, Renate (2014): Handbuch der Sinneswahrnehmung. Grundlagen einer ganzheitlichen Bildung und Erziehung. Freiburg, Basel, Wien: Herder.
Matthias Krebs ist Universitätsassistent an der Universität MOZARTEUM (Salzburg) und Leiter der Berliner Forschungsstelle Appmusik. Seine Forschungsschwerpunkte betreffen: Digitale Medien in Lehre und Forschung, Kommunikation im Social Web, Netzkunst, Appmusik sowie Grundlagenforschung zum Musizieren mit digitalen Musiktechnologien.
Als Lehrbeauftragter ist der Diplom-Musik- und Medienpädagoge an mehreren deutschen Musikhochschulen sowie als Dozent für Weiter- und Fortbildungen und auch bei den Appmusik-Workshops bei app2music aktiv.
Kommentar verfassen