Explorative Videoanalysen von Spielbewegungen beim Musizieren mit Apps

Matthias Krebs | 9. September 2020

Der zweite Teil des musikpädagogischen Seminars ‚Musik & Medien‘ an der Hochschule für Musik und Darstellende Kunst Frankfurt am Main (Sommersemester 2020), wurde bedingt durch die Maßnahmen zur Eindämmung der Ausbreitung des Coronavirus SARS-CoV-2 als Online-Seminar via Zoom durchgeführt. Inhaltlich wurde ein Fokus auf sinnlich-körperliche Erfahrungsmöglichkeiten beim Musizieren mit digitalen Musiktechnologien gesetzt, was unter den Bedingungen des Distanz-Unterrichts eine besondere Herausforderung für alle Beteiligten bedeutete. Musiziererfahrungen konnte jede*r Beteiligte*r eben nur für sich allein – am unaufwändigsten mit einer Musikapp auf einem Smartphone oder Tablet – praktisch nachvollziehen.

Kann mit Musikapps ‘richtig’ Musiziert werden?

Ein zentraler Aufhänger für die Diskussion im zweiten Teil des Seminars war ein Statement einer Studentin, das im Zusammenhang mit einer Einschätzung des musikpädagogischen Potenzials von Apps in einer resümierenden Ausarbeitung zum ersten Teil des Seminars formuliert wurde:

Meiner Meinung nach steckt in Musikapps ein riesiges Potential an Motivation und Kreativität, auch wenn das ‚richtige‘ Musizieren zunächst zu kurz kommt.“ Statement

In dem Statement wird einerseits den Musikapps pauschal eine motivationale und kreativitätsfördernde Wirkung unterstellt (was im Kurs diskutiert, aber im Folgenden nicht weiter verfolgt wird) und andererseits wird eine Unterscheidung zwischen ‘richtig Musizieren’ und ‘nicht richtig Musizieren’ gemacht. Wir haben uns daraufhin näher damit beschäftigt, was unter dem Begriff ‘Musizieren’ verstanden wird. Im Mittelpunkt der Auseinandersetzung standen kurze Impulsvorträge und Literatur (Gugutzer 2010; Krebs 2018/2019/2020; Miyazaki 2009; Spychiger 2008; Weissbach 2010) sowie kleine musikpraktische Selbstversuchen (Musizieraufgaben mit Apps). Damit wurde eine musikalische Praxis mit digitalen Musiktechnologien ins Zentrum gerückt, die anders gelagert ist als Musikproduktionsprojekte (z.B. Songwriting mit der App GarageBand (Augustyn 2013)) und stattdessen eher leiblich-körperliche Prozesse beim Musizieren und beim Ensemblemusizieren zum Inhalt hat. Als eine Arbeitsdefinition zum Begriff ‘Musizieren’ wurde sich im Seminar auf die Folgende geeinigt:

Die von [Musiker*innen] sich angeeigneten musikalischen Körpertechniken führen zu musikspezifischen Körpersinnen und -wahrnehmungen […]. Die dem Musizieren zugrunde liegende Körperlichkeit [äußert sich in einer] virtuose[n] Körperaktivität zur Klangerzeugung und -steuerung, die auf der Grundlage einer Verfeinerung der Körpersinne und -wahrnehmung ausgeführt werden“ (Kim 2010:106)

Das Hauptinteresse bezog sich in der weiteren Auseinandersetzung mit dem Thema auf die Beobachtung von Spielbewegungen und die Deutung von damit im Zusammenhang stehenden (möglichen) Körpererfahrungen und -wahrnehmungen.

Videoanalyse

Wie sich im Seminar herausstellte, verfügten die Studierenden über keine besondere Erfahrung mit dem Live-Musizieren mit einem digitalen Instrument (z.B. Musikapps, DJ-Controllern, MPCs). Dagegen hatten alle Studierenden ausgeprägte Erfahrungen im Spiel klassischer Instrumente. Idee war es, auf Basis des vorhandenen Wissens im Kurs Videos zu vergleichen und theoriegeleitet Auffälligkeiten in den darin dargestellten Musizierprozessen nachzugehen.

Die zugrundeliegende These war: Die Spielweise gibt Aufschluss darüber, wie die Person eine Beziehung zwischen Klangerzeugung und Körper herstellen kann – also zwischen Klang und Körper spürend eine Verbindung entwickelt.

Leitende Fragestellungen waren:

  • Lassen sich im Vergleich von Spielbewegungen von Musiker*innen, die mit Apps musizieren und solchen, die mit herkömmlichen Instrumenten spielen, Parallelen finden, die andeuten, dass sich womöglich vergleichbare Wahrnehmungsprozesse in Bezug auf die Musikausübung ereignen?
  • Wie gestaltet sich die körperlich kommunikative Bezugnahme zwischen den Beteiligten beim gemeinsamen Musizieren auch unter technisch vermittelten Bedingungen?

Im Zoom-Seminar wurden gemeinsam drei erste Videos sequenzanalytisch untersucht und Beobachtungsergebnisse sowie Interpretationen in Gruppen diskutiert. Im Zuge dessen wurden Methoden (Hellberg 2018) erörtert und es kristallisierten sich Beobachtungsschwerpunkte heraus.

Bestandteil des Seminars war darüber hinaus eine Arbeitsphase in der die acht Studierenden selbstständig eine Analyse von Videos durchführten. Sie erhielten zwei Videos zum Vergleich, wobei sie selbst ausgewählte Stellen auf die oben stehenden Fragestellungen hin untersuchten. Die aufschlussreichen Ergebnisse aus dieser Seminarphase sollen im Folgenden allen Interessierten Einblicke in die ersten explorativen Auseinandersetzungen mit dem Thema ‚sinnlich-körperliche Lern- und Erfahrungspotenziale mit digitalen Musiktechnologien‘ geben.

Die Texte wurden an einem Vormittag geschrieben, dann gegenseitig kommentiert und abschließend finalisiert.


Videovergleich 1

Video 1:

Video 2:

Bei beiden Videos möchte ich mich detailliert auf den Anfang konzentrieren: Im ersten Video ist im Vordergrund ein iPad zu sehen, welches von der*dem Appspieler*in in beiden Händen gehalten wird. Ich vermute, dass die*der Spieler*in mit angewinkelten Knien auf dem Boden im Schneidersitz sitzt. In Sekunde 0:25 kann man gut sehen, dass das linke Knie bzw. Bein im Takt mitwippt. Das iPad wird in der linken Hand von unten mit der Handfläche gehalten, während die rechte Hand frei zum Spiel auf dem Touchscreen ist. Diese Art der Präsentation eines Musikstückes, eröffnet neue Perspektiven des Musizierens. Als Begleitung ist ein “echtes” Schlagzeug zu hören, welches direkt zu Beginn einzählt beziehungsweise einschlägt. Daraufhin beginnt die*der Musiker*in am iPad die bekannte Melodie von “Summertime” zu spielen. In der Begleitung ist neben dem Drumset ein Keyboard zu hören, welches die Akkorde spielt – jedoch ist die Begleitung im Video nicht zu sehen, weswegen man von einem Playback ausgehen kann. 

Nun zu der Spielbewegung der*des Appspielerin*Appspielers. Zu erkennen ist, dass die*der Appspieler*in, kurz vor ihrem*seinem Einsatz, eine lockere, minimale “slide” Bewegung vom oberen Rand des iPads, also der linken Seite des Griffbretts, hin zur Taste macht, bevor ihr*sein leicht gestreckter Mittelfinger den ersten Ton anschlägt. Die rechte Spielhand entfaltet sich dabei von einer geschlossenen Faust hin zu einer lockeren Hand mit angewinkelten Fingern, die bereit sind zu spielen. Das gibt den Auftakt zu dem Beginn des Stückes. 

Es kann vermutet werden, dass das Stück der*dem Appspieler*in bereits bekannt zu sein scheint und sie*er weiß, wie sie*er ihre*seine Finger positionieren muss, um den nächsten Ton zu antizipieren oder auf welcher Note sie*er Vibrato spielen muss (0:05). Diese lockere Sicherheit im Spielen ist zudem bei 0:08 gut zu beobachten, als sie*er während dem slide abwärts vom Ringfinger zum Zeigefinger wechselt. Auch in der Art und Weise, wie der Ton weggenommen wird, wie bei 0:12 sichtbar, macht dies deutlich: Sie*Er nimmt die Hand im Schwung heraus mit einer wellenförmigen Bewegung nach oben hin weg. Dieser Schwung steht im engen Zusammenhang zur Musik. An dieser Stelle wird ein Beispiel für die sogenannte “Bewegungssuggestion” (Gugutzer, 2010, S.171) sichtbar. Das heißt, die*der Spieler*in bleibt in der Musik, obwohl die Phrase an dieser Stelle endet und lässt seine Hand in der Nähe des iPads. 

Zusammenfassend möchte ich festhalten, dass hierbei zu beobachten ist, wie die*der Appspieler*in sicher in der Musik gefestigt zu sein scheint und sie*er sich damit auskennt, was sie*er tut und wie die Musik durch das Musizieren am iPad zum Klingen gebracht werden kann. Man könnte hier von einer erfahrenen Musikerin bzw. einem erfahrenen Musiker sprechen, da ihre*seine Bewegungen auf mich als Musikstudentin musikalisch einen Sinn ergeben und die Musik in ihrer Ausführung unterstreichen.

Im ersten Video, ist die Musik beziehungsweise die*der Spieler*in am iPad, direkt zu Beginn zu Gange, sodass man den ersten Anfang nicht untersuchen kann. Zu sehen ist, dass das iPad in diesem Fallbeispiel fest auf einem Tisch liegt. Sie*Er benutzt beide Hände zum Spielen der Melodie. Während der erste Ton mit dem Zeigefinger der linken Hand gespielt wird, wird das Melodiespiel mit der rechten Hand abgelöst. Beim Übergang von der einen Hand zur anderen wird die rechte Spielhand abgestützt auf dem Ballen mit gespannt-gestreckten Fingern “einsatzbereit” heruntergeklappt. Dabei ist zu sehen, wie die Fingerkuppe der linken Hand fest und direkt auf das iPad drückt, da diese weiß anläuft (0:01). Auch die folgenden Töne werden durch eine eher statische, lineare Bewegung erzeugt und der Ton kommt direkt und ohne eine “weiche” Bewegung zum Klingen. Als der dritte Ton von dem Ringfinger der rechten Hand gespielt wird, ist zu erkennen, dass keine Bewegung von der Hand ausgeht, sondern, dass sich lediglich die Finger im oberen Teil herunterdrücken (0:02-0:03). Die Finger und allgemein beide Hände sind in einer recht statischen Haltung, die kaum Flexibilität und Agilität zulässt, denn während die eine Hand spielt, sieht man die andere mit angespannten beziehungsweise nicht entspannten Fingern darauf wartend, den nächsten Einsatz zu spielen. 

Im Vergleich der beiden Videos lässt sich eine gegensätzliche Lockerheit im Spielapparat bestehend aus Fingern, Hand bis Unterarm beobachten: In Video 1 kann beobachtet werden, wie die Finger die Spielhand auf der Glasoberfläche des Tablets tragen und gleichzeitig beweglich in der Seitenbewegung sind. Bei genauerer Betrachtung zeigt sich ein steter Wechsel zwischen “Anschlagen”, Halten, Wischen, was durch ein elastisches Handgelenk unterstützt wird. Auch in den Pausen des Stücks ist eine Lockerheit der Finger zu sehen, in der die gesamte Hand in ihre ursprüngliche Haltung zurückkehrt (0:12). Ich möchte noch anmerken, dass sich die*der Appspieler*in in Video 1 trotz der Pausen weiterhin in der Musik zu befinden scheint. In Video 2 ist dagegen eine durchgehende (Über-)Anspannung der beiden Spielhände zu beobachten. Die Fixierung der Handgelenke scheint durch das Auflegen auf dem Tisch hervorgerufen zu werden, wodurch das Spiel vielleicht stabilisiert wird, jedoch ein musikalisches Mitgehen mit der Musik unterbunden wird. Ein weiterer Aspekt im zweiten Video sind für mich die musikalisch nicht klar einzuordnenden Pausen, die die*der Appspieler*in bsw. von 0:08 bis 0:10 macht. Es scheint, als würde sie*er darauf warten, dass der Klang der Töne verklingt, um daraufhin neu anzusetzen. Dadurch fällt nur mehr auf, dass der Wiedereinstieg nicht in time ist und auch der erste Ton eher rhythmisch unpassend zu den darauffolgenden Tönen ist. Auch in der Sequenz 0:10 bis 0:18, eine Wiederholung des Abschnitts 0:00 bis 0:08, fällt eine Unsicherheit etwas in Sekunde 0:04 auf, was sich als “Patzer” herausstellt. Die Stelle hätte man als Vorschlag interpretieren können. Da dieser aber in Sekunde 0:15 fehlt, welche die analoge Stelle bildet, lässt sich Sekunde 0:04 in Frage stellen. Zusammenfassend lassen sich die Spielbewegungen so interpretieren, dass man bei der Person in Video 1 von einem Laien im Spiel mit der App ausgehen kann (Krebs, 2019, S.248), welche das Musizieren mit einem digitalen Instrument ausprobiert. Dass die Person jedoch bereits musikpraktische Erfahrungen mit Musikinstrumenten besitzt, ist an verschiedenen Stellen sichtbar. So ist unter anderem bei 0:23 zu erkennen, wie die*der Appspieler*in den Sprung nach oben durch eine nach vorne gehende Bewegung antizipiert, was durch das vibrato spielen bei 0:24 abgerundet wird. 

Durch diese beiden Videobeispiele wird deutlich, dass das Spielen an und mit einer Musikapp gelernt werden kann und muss. Dabei zeigt sich, wie das Musizieren mit der App in einem direkten Zusammenhang mit der Ausbildung von runden und sicheren Bewegungsabläufe steht (Krebs, 2019, S. 253), die im Übungsprozess ergründet und nachgespürt werden können. Die Erfahrbarkeit mit solchen Apps kann das Musizieren und die Frage danach, “was die Musik mit einem macht”, unterstreichen, denn dadurch eröffnen sich neuartige Perspektiven, die wiederum eine Weiterentwicklung von Musizierfertigkeiten unterstützen.

Lara Stoicescu

Literatur:

Gugutzer, R. (2010). Soziologie am Leitfaden des Leibes. Zur Neophänomenologie sozialen Handelns am Beispiel der Contact Improvisation. In F. Böhle & M. Weihrich (Hrsg.): Die Körperlichkeit sozialen Handelns. Soziale Ordnung jenseits von Normen und Institutionen. Bielefeld: transcript, S. 165-184.

Krebs, M. (2019). Wenn die App zum Musizierpartner wird. Eine Annäherung an die Besonderheiten technologievermittelten Musizierens am Beispiel der Musikapp PlayGround. In: Gembris, Heiner / Menze, Jonas / Heye, Andreas (Hrsg.): Jugend musiziert – musikkulturelle Vielfalt im Diskurs. Schriften des Instituts für Begabungsforschung in der Musik (IBFM) Bd. 12. Münster: Lit, S. 235-282.


Videovergleich 2

Video 1:

Video 2:

Grundlage der Videoanalyse sind zwei Videos in denen die App PlayGround verwendet wird. Mit der App besteht die Möglichkeit in Echtzeit Klänge wiederzugeben. In den Videos wird sie in der Funktion eines Schlagzeugs verwendet. Allerdings werden im Design der App nicht nur klassische Elemente des Schlagzeugs dargestellt, die dann per Fingertipp gespielt werden. Im ersten der beiden Videos sind zwei Musizierende zu sehen, von denen einer die App spielt und der andere Akustikgitarre. Im zweiten Video spielt ein Musizierender die PlayGround App und zwei andere Musizierende spielen an DJ-Controllern.

Setting des ersten Videos ist eine Musizierrunde am Strand, die sehr frei und eher spontan wirkt, wie eine Art Jam-Session. Den Eindruck bekommt man unter anderem durch die Kameraführung, bei der auch der Ort gezeigt wird an dem sich die beiden Musizierenden befinden. Die beiden selbst sind nur für einen kurzen Moment zu sehen. Dadurch kann keine Aussage darüber getroffen werden, wie sie ins Musizieren hineingefunden und ob sie danach noch weitergespielt haben oder ob das gemeinsame Musizieren auch mit dem Ende des Videos geendet hat. Dennoch lassen sich ihre Spielbewegung und die Interaktion mit ihrem Instrument gut erkennen. Es ist deutlich zu sehen, dass sie aufeinander bezogen, dialogisch Musik machen. Sie scheinen den gleichen Rhythmuspuls zu fühlen, was am dezenten Wippen ihrer Oberkörper und dem Nicken ihrer Köpfe zu erkennen ist. Besonders deutlich wird dies in der Sekunde 0:23 bei der eine kleine Pause im Rhythmus zu erkennen ist, die beide gemeinsam machen und dann spielen beide zeitgleich den Rhythmus weiter. Was die Bewegungen der beiden betrifft, scheinen sie miteinander verbunden und wirken sehr synchron. Ihre Bewegungen sehen sehr unverkrampft und natürlich aus und sind im Einklang mit der Musik. Die beiden befinden sich in einer lockeren Musizierhaltung. Trotz der entspannten Stimmung um sie herum wirken beide konzentriert auf ihr Instrument, wie man es von Musizierenden kennt. Es handelt sich also nicht um eine angespannte Konzentration oder eine gekünstelte Performance. 

Der Musizierende der die PlayGround App spielt, schaut in dem Ausschnitt der zu sehen ist ausschließlich auf sein Smartphone und es findet kein direkter Blickkontakt mit seinem Spielpartner statt. Es kann angenommen werden, dass er ihn aber trotzdem gut im Hintergrund sieht, da sie sich genau gegenüberstehen. Ab Sekunde 0:21 werden für ein paar Sekunden seine Finger gezeigt. Es wird deutlich, dass sich diese sehr flink bewegen und der gesamte Bildschirm als Bedienfeld für den Rhythmus genutzt wird. Es wird zudem deutlich, dass zum Bedienen der App vor allem Wischen als Fingerbewegung nötig ist und eher selten ein Tippen durch die Finger. Der Gitarrist schaut zunächst in die Ferne, dann auf sein Instrument und dann schaut er auch kurz auf das Instrument seines Spielpartners, dann wieder zurück auf das Griffbrett seiner Gitarre. Insgesamt hat wohl auch er die Bewegungen seines Spielpartners dabei immer mit im Blick.

Im zweiten Video wird in einem Proberaum Musik gemacht. Die Stimmung ist genauso wie im ersten Video sehr locker, doch ist die gefilmte Situation wohl weniger spontan. Dabei wirkt die Konzentration intensiver. Was aber unter anderem damit zusammenhängen könnte, dass das Musizieren in einem ruhigen Raum und ohne Nebengeräusche stattfindet und auch der Stil der Musik ein anderer ist als im ersten Video. Die Musik ist schneller und jeder Schlag scheint gezielt gesetzt zu werden. Auch hier handelt es sich um eine Jam Session, doch steht die Aufführung/Präsentation im Vordergrund. Daher wirkt das Ganze geplanter. Dies äußert sich z.B. im Wechselspiel der Musizierenden. So haben im ersten Video beide durchgängig miteinander gespielt und hier tritt immer entweder der Musizierende rechts im Bild oder der Musizierende links im Bild in den Vordergrund.

Der dritte Musizierende, der die App PlayGround spielt, bleibt musikalisch eher im Hintergrund und spielt ein eher gleichförmiges Fundament. Trotzdem lassen ihm die anderen beiden genug Raum, damit man ihn raushören und als Teil der Gruppe identifizieren kann. In Sekunde 0:49 tritt er kurz in den Vordergrund. In dieser Sekunde sind auch seine Hände und die App in Nahaufnahme zu sehen. Auch bei ihm wird deutlich, wie schon beim PlayGround-Spieler im ersten Video, dass er über eine schnelle Fingerfertigkeit verfügen muss. 

Schaut man sich Sekunde 0:16 bis Sekunde 0:49 genauer an, sieht man, dass der Musizierende links beginnt und die anderen beiden ihm ein rhythmisches Fundament geben. Während seines Solo-Spiels sind seine Körperbewegungen wenig ausladend, optimiert effektiv auf kleinen Raum, wobei er die Arme enger am Körper hält. Er nutzt beide Hände zum Spielen und führt sehr schnelle Bewegungen aus. Dann tritt er in den Hintergrund und der Musizierende rechts tritt in den Vordergrund. Der Linke tritt leicht zurück, vom Mischpult weg und wird in seinen Bewegungen wieder ausladender und freier. Er scheint sich gelöst zu haben und fügt sich in die das gemeinsame Musizieren fundierende Begleitung ein. Während nun der Rechte sehr konzentriert im Vordergrund steht. Zuvor hat er noch zum Mischpult seines Spielpartners geguckt und ihn bei seinem Spiel beobachtet. Jetzt ist er bei seinem Solo-Spielen. Seine Lippen presst er dabei zusammen. Dies ist dann auch nochmal beim linken Musizierenden zu sehen, als er wieder in den Vordergrund mit einem Solo tritt. Der rechte Spieler, dessen Bewegungen sich im Kontrast zum Solo-Spielenden als runder und ausladender beschreiben lassen, fügt sich derweil in die Begleitung ein. Beide sind in ihren Bewegungen am Mischpult insgesamt sehr präzise und es lassen sich sehr feine, sichere Bewegung beobachten. Beide haben zudem ihre ganz eigene Spielweise. So lässt sich beim linken Musizierenden in Sekunde 0:28 beispielsweise eine wellenförmige Bewegung der Hand beobachten, die beim rechten Musizierenden in der Art nicht zu entdecken ist.

Der Musizierende der die App PlayGround bedient, ist währenddessen durchgängig in einer gleichmäßigen Körperhaltung- und -Bewegung. Sein Blick ist sehr auf die App fokussiert, sein Kopf ist die ganze Zeit gesenkt und er wendet seinen Kopf im Videomitschnitt nicht zu seinen Mitspielenden. Inwiefern er sie im Blick hat, ist nicht zu sagen, da seine Augen von der Kappe die er trägt verdeckt werden.

Im Vergleich zum ersten Video ist zwar bei allen dreien zu sehen, dass sie sich im gleichen Puls bewegen, jedoch schwingen sie nicht in die gleiche Richtung, sondern jeder in eine andere. Jeder hat seine individuelle Bewegungsart. Im Vergleich zum ersten Video scheint zwischen links und rechts stehendem Musizierenden eine Art nonverbale Kommunikation stattzufinden. Möglicherweise um festzustellen, wann wer im Ensemblespiel in den Vordergrund treten soll. Im ersten Video scheint der Blick des Gitarristen auf die App seines Spielpartners mehr ein Blick aus Interesse zu sein. Und dennoch entsteht dadurch eine Verbindung zwischen den beiden Agierenden. Insgesamt muss bei keinem der Videos eine verbale Kommunikation stattfinden, um aufeinander einzugehen und sich miteinander abzustimmen.

Beide Videos haben durchaus Lern- und Erfahrungspotenziale. Der Fokus der abschließenden Betrachtung liegt in diesen Beispielen auf der App PlayGround. Ein Aspekt der durch die Videos deutlich wird ist, dass die App nicht als selbstzweckhaftes Spieltool abgetan werden kann. Bei genauerer Betrachtung von Musiziersituationen wird schnell deutlich, dass sie als Musikinstrument in Erscheinung tritt. So konnte in den Videos gezeigt werden, wie mit der App eine verantwortungsvolle Rolle in der Begleitung übernommen werden konnte, wobei sich mit der App flexibel der jeweiligen Musiziersituation in ihrer Intensität angepasst wurde. Es kann vermutet werden, dass wenn man die App musikalisch beherrscht, man spontan und mit facettenreicher Spielvarianz damit agieren kann. In der Videoanalyse wurde außerdem herausgearbeitet, dass dabei die Spielbewegung mit der App wohl auch eine wichtige Funktion für die Synchronisierung im Ensemble hat. Die Beanspruchung des Körpers in Auseinandersetzung mit einem Instrument und die daraus resultierenden Spielbewegungen hat große Ähnlichkeit mit dem Phänomen des “innerleiblichen Dialogs”, der zunächst im Subjekt stattfindet, wie Robert Gugutzer (2010) es beschreibt. Allerdings muss dieser Dialog nicht nur im einzelnen Subjekt stattfinden sondern kann auch zwischen zwei oder noch mehreren Subjekten stattfinden. In beiden Videos ist gut zu sehen, dass in “der Begegnung von zwei oder mehr Menschen […] der innerleibliche zu einem zwischenleiblichen Dialog [wird]. Eine leibliche Interaktion zwischen menschlichen Subjekten beruht damit auf der räumlich-strukturellen Ähnlichkeit ihrer Leiber” (ebd., S. 169). 

Im ersten Video kann man sehr gut sehen, dass die körperbezogene Abstimmung auch mit einem eher kleinen Geräte wie einem Smartphone gut funktioniert. Wobei natürlich die einzelne Spielbewegung bei der Benutzung einer solchen App eine andere ist, als wenn man vor einem Drumset sitzt. Bei der App wird eine ganz andere motorische Fähigkeit für die Bedienung vorausgesetzt. Was die Körperlichkeit betrifft machen beide Videos deutlich, dass digitale Musiktechnologien mit denen Musik gemacht wird ebenfalls individuelle Bewegungen und facettenreiche Körperlichkeit hervorbringen können. Würde man die Instrumente der agierenden Personen durch herkömmliche Instrumente ersetzen, würde sich vermutlich lediglich die Art der Bewegung verändern, da ein anderes Instrument andere Bereiche des Körpers beansprucht. 

Anna Schuppe 

Literatur:

Gugutzer, R. (2010). Soziologie am Leitfaden des Leibes. Zur Neophänomenologie sozialen Handelns am Beispiel der Contact Improvisation. In F. Böhle & M. Weihrich (Hrsg.): Die Körperlichkeit sozialen Handelns. Soziale Ordnung jenseits von Normen und Institutionen. Bielefeld: transcript, S. 165-184.


Videovergleich 3

Video 1:

Video 2:

Dieser Text befasst sich mit dem Vergleich zweier YouTube-Videos, in denen Musik mittels verschiedener Musik-Apps live aufgeführt werden. Unter musikalischen Gesichtspunkten kann man bei beiden Videos von Clubmusik im Stil von ‘House Music’ sprechen. In den beiden dargestellten Videos lassen sich ähnliche musikalische Stilmittel wie Sounds und das Tempo sowie vergleichbare Bewegungsmuster erkennen, die auf die Produktionsweise mit den verwendeten Apps zurückgeführt werden kann, die insgesamt überwiegend automatisch/automatisiert spielen.

Beide Videos sind als Demonstrationsvideos gedacht, sie legen den Fokus für die Betrachter*innen klar auf die Apps, die auf unterschiedlichen Geräten installiert sind. Diese Funktion Ableton Link, eine Funktion, die von Programmieren in ihre Apps integriert werden kann, ermöglicht es den Nutzer*innen unterschiedlicher Devices über ein gemeinsam genutztes WLAN-Netzwerk im Tempo und im Metrum miteinander zu synchronisieren. Obwohl bei beiden Videos mehrere Apps zeitgleich verwendet werden, gibt es bei den Live-Performances keine Zeitverzögerung, als stammte alle Musik aus nur einem Gerät, das von einer einzigen Person verwendet wird. So schafft man es auch, dass unterschiedliche groovebasierte Apps, die automatisch ablaufen zu einem Ensemble zusammenzubringen und damit für mehrere Spieler*innen ein gemeinsames Musikerlebnis zu ermöglichen. Dass es sich um eine Art Demovideo handelt, wird auch in beiden Videos anhand der Beschreibungen deutlich, in denen das Logo der Firma Ableton deutlich dargestellt wird.

Die jeweils dargestellte Performance lässt sich als Improvisation interpretieren, was anhand der spontan wirkenden Bedienfolge erkennbar ist. Die Kamera zeigt die Aufnahme der live aufgeführten Musikstücke aus der Vogelperspektive. Zu sehen sind die Apps und die Hände sowie die Arme der Musiker*innen. Im ersten Video scheinen drei Musiker*innen mit den sieben Geräten zu musizieren; im zweiten Video musiziert ein*e Musiker*in parallel mit fünf Geräten. Mehr Informationen über die Spielenden und deren Spielbewegungen oder z.B. Gesichtsregungen gibt es nicht. Durch die Wahl der Perspektive kann zudem nicht eindeutig geklärt werden kann, wo die Aufnahmen stattgefunden haben.

Musikalische Struktur und Formen der Spielbewegungen

Bei beiden Videos liegt die Rhythmik der tanzbaren Musik im Fokus. Die live-performte Musik besteht hauptsächlich aus zuvor festgelegten Patterns und Samples, die gemeinsam in ihrer Reihenfolge spontan ausgewählt oder auch verändert werden. Auch bei den verwendeten Drum-Apps wurden vor dem Dreh der Videos Voreinstellungen getroffen. Beide Stücke folgen einer charakteristischen musikalischen Form für elektronische Tanzmusik, so spielen Loops bzw. sich wiederholde Pattern eine zentrale Rolle und werden nach und nach neue Elemente ergänzend dazu oder werden auch wieder weggenommen, eine melodische oder harmonische Bewegung findet eher auf sehr geringem Level statt.

Die Bewegungen und Körperlichkeit bei beiden Videos bleibt durch die Kameraperspektive für die Zuschauer*innen undeutlich, was eine Analyse der Körperbewegungen nur eingeschränkt zulässt. Auffällig ist beim Anschauen der Videos, dass die Spielbewegungen der Hände sehr ruhig und geplant wirken. Die Bewegungen, die sich auf die Bedienung der Apps konzentrieren, scheinen nach einer bestimmten Reihenfolge abzulaufen. Die Hände werden vorbereitend auf den Bildschirmen der Devices platziert und verlassen die Bildschirme gleich nach ihrer Bedienung wieder. 

Die Musik, also hier vor allem der Rhythmus strukturiert also die besondere Form der Bewegungen der Musiker*innen zu jeder Zeit und lässt sich auf das musikalische Genre selbst zurückführen. Durch die Benutzung von Loops in den Drum- und Sound-Apps richtet sich die Körperbewegung so aus, dass der Loop ohne Unterbrechung weiterlaufen kann. Eine Störung oder Verzögerung im Takt würde hier bewirken, dass wohl alles aus dem Ruder läuft. Die Bedienung von Musik-Apps muss kalkuliert und strukturiert werden, was sich auf den Aspekt der Körperlichkeit beim Musizieren auswirkt. Dies erfordert von den Musizierenden ein hohes Maß an Konzentration im gemeinsamen, dialogisch-orientierten Spielen, so wie bei jeder Art von gemeinsamem Musizieren im Allgemeinen (z.B.: Das gemeinsame Einatmen eines Streichquartetts vor Beginn des Musikstücks). Daraus entsteht eine dialogische Form der Körperlichkeit, die zwar ohne Sprache, aber mit gegenseitigem Verständnis funktioniert (Gugutzer, 2010, S.169).

Video 1: Berlin Session / Upload am 18.12.2015

In diesem Video bedienen drei verschiedene Musiker*innen insgesamt acht verschiedene Apps auf sieben unterschiedlichen Geräten in einer Live-Session. Alle benutzen ihre rechte Hand zur Steuerung. Sie teilen sich folgendermaßen auf: Oben rechts im Bild bedient jemand zwei Drum-Apps. In der Mitte spielt jemand zwei unterschiedlich Samples in Midi-Apps. Auf der linken Seite ist jemand für den Bass (oben) zuständig sowie ein Pattern, das nach einem Arpeggio klingt (unten) und bei 1:50 unterschiedliche Grundtöne spielt. Die verschiedenen Hände tauchen zwar nacheinander auf den Bildschirmen auf, doch trotzdem bewegen sie sich musikalisch synchron miteinander. Scheint jedenfalls irgendwie im Tempo zu sein und dadurch nicht ganz willkürlich und strukturiert. Aber insgesamt trotzdem nicht sonderlich aufeinander bezogen – eher parallel. Es ist für mich als Betrachterin dieses Videos schwer nachzuvollziehen, wann welche Form der Variation bei welcher App wirksam wird, da die Bedienung der Apps sehr komplex wirkt.

Der Aufbau des Stücks, das den Titel “Berlin Session” trägt, ist recht simpel: Es beginnt ein Groove, es kommt ein Basslauf dazu sowie ein Sprachsample und dann werden nach und nach weitere Drums oder melodische Patterns hinzugeschalten, die vorhandenen moduliert oder gewechselt. Ungefähr dreißig Sekunden vor dem Ende der Live-Session (2:20-2:30) wird die musikalische Progression wieder ausgedünnt und auf ihren Beginn zurückgeführt. Schließlich stoppt die Wiedergabe aller Apps von 2:30-2:47 ohne eine Veränderung des Tempos, bis am Ende nur noch ein Drum-Loop und der Basslauf zu hören sind, bis die Wiedergabe langsam ausfadet.

Zwei unterschiedliche Formen bei den Spielbewegungen sind mir aufgefallen. In der Art wie der Bass gespielt wird 0:27 bis 0:34 zeigt sich in der Form der Fingerbewegung eine andere Fingerspannung als sonst. Gegenüber dem verbreiteten auslösenden, tippenden Bewegungen z.B. bei 1:40 bis 1:52 wird bei der Spielweise des Basses der Finger mehr geführt auf der Oberfläche des Touchscreens bewegt. Durch die Fingerbewegung wird der Klang des Basses deutlich moduliert. Dabei ist eine gewisse Körperspannung zu beobachten, die charakteristisch für das Spielen eines Instrumentes ist (z.B. vergleichbar mit einer langsamen Vibratobewegung auf einer Saite). In der Art der Fingerbewegung wird deutlich, wie die Aufmerksamkeit weniger auf einen auslösenden Moment als vielmehr auf einen Prozess gerichtet zu sein scheint. 

Video 2: G-Stomper Studio / Upload am 4.7.2017

Im zweiten Video werden von einer einzelnen Person fünf verschiedene Devices bedient. Auf diesen fünf Geräten ist dabei jeweils dieselbe App installiert. Bei der Musik-App handelt es sich um G-Stomper, einer App, die mit Drum-Machine, Sampler, Step Sequenzer, Live-Pattern, vielen Synthesizern und anderen Tools ausgestattet ist. Die Apps auf den unterschiedlichen Devices werden durch die Funktion Ableton Link miteinander synchronisiert, wodurch das Zusammenspiel der groovebasierten Musizierweise realisiert wird – was in diesem Demovideo auch primär vermittelt werden soll.

Auch in diesem Video ist es für mich als Betrachterin schwer nachvollziehbar, wie die Bedienung der einzelnen Apps so präzise abgestimmt passieren kann und was die Rolle der App auf jedem einzelnen Device hier ist. Auffällig bei diesem Video sind die Unterschiede in der Spieltechnik, die abhängig vom zeitlichen Abschnitt der Musik deutlich werden. Die Person in diesem Video führt unterschiedliche Formen von Bewegung aus, wie das Tippen, Wischen und Halten. 

Im Abschnitt zwischen 3:00-3:17 werden alle diese drei Spielbewegungen gezeigt. Zunächst hält der Spieler seinen linken Zeigefinger mit gespreizter Hand auf dem unteren Touchscreen rechts unten an einem Regler. Intuitiver würde man vielleicht die rechte Hand für diese Bewegung benutzen. Aber kurz nach dem Halten der linken Hand geht er mit der rechten Hand zu einem Device, das rechts oben liegt, wofür er die rechte Hand benutzen muss. Er tippt kurz mit einem Finger auf das Device, verlässt dabei aber nicht die linke Hand von dem anderen Touchscreen und bedient so weiter den Regler. Daraufhin wechselt der Spieler öfter die Hände auf dem unteren Touchscreen, hält kurz mit der rechten, dann mit der linken Hand im Wechsel den Regler. Ab 3:12 bedient er mit der rechten Hand den gleichen Regler wie zuvor, wischt nun aber schnell nach oben und unten, um die Lautstärke zu verändern und anzupassen. Das Wischen erlaubt ihm mehr Flexibilität und Spontaneität beim Musizieren. Er wischt so lange den Regler nach oben und unten, bis dann ab 3:17 auch die rechte Hand den Videoausschnitt verlässt und den Touchscreen kontrolliert loslässt.

In diesen beschriebenen 17 Sekunden des Videos lässt sich erkennen, welche Bewegungen beim aktiven Musizieren mit welcher Art von Präzision oder Konzentration geschehen können. Der Kontrast zwischen Anspannung und Entspannung, die ein Merkmal jeder Form der Bewegung abbilden (Gugutzer, 2010, S.196), zeigen sich schon in den Händen. 

Die Spannung wird hier sichtbar, wenn der Spieler die Hände auseinander spreizt, oder verschiedenen Händen verschiedene Geräte zuweist. Angespannt sind die Finger ebenfalls beim Wischen, um mehr Kontrolle über das Gespielte zu erlangen.

Eine Entspannung der Bewegung passiert sowohl beim kurzen Tippen auf einem Touchscreen, oder auch beim Verlassen der Hände von den Geräten. Dies passiert meistens zügig, sobald die Musik variiert und verändert wurde. 

Vergleich/Fazit

Die beiden Videos richten sich wohl hauptsächlich an Nutzer der Apps und um die Benutzung von der Funktion Ableton Link gut sichtbar zu machen.

Wie bereits deutlich wurde, kann ich in der Analyse der Videos nur an wenigen Stellen Körperlichkeit entdecken. Das liegt zum einen daran, dass beide Videos lediglich die Hände und Arme der Spieler*innen zeigen. Zum anderen ist die Art der Spielweise eher durch ein ein- und aus- oder umschalten gekennzeichnet. Interaktionsformen wie das Drücken und Halten sind eher die Ausnahme. 

Deutlich wird aber in beiden Videos, wie präzise die Bewegung der Hände als Vorbereitung einer neuen musikalischen Idee gesteuert werden müssen, um das Klangergebnis so gut wie möglich zu gestalten.

Bestimmte Bestandteile vom Musizieren sind manchmal beobachtbar, wie das zum Metrum koordinierte/synchronisierte ein- und ausschalten. Interessanterweise muss das aber nicht immer koordiniert sein, so ist an einigen Stellen auch beobachtbar, dass das Timing der Spielhände weniger genau ist. Sonst gibt es eher wenige Übereinstimmungen zu einem instrumentalen Spiel mit herkömmlichen Instrumenten wie z.B. einem Klavier.

In den beiden Videos ist klar erkennbar, dass die spielenden Personen schon sehr viel Erfahrung am Instrument gemacht haben. Sie müssen sich mit der Bedienung und Handhabung gut auskennen, um überhaupt mit anderen spielen zu können. Die Professionalisierung an den Instrumenten wird sehr deutlich. Es ist ein spezielles Wissen vorausgesetzt, um so flüssig miteinander zu musizieren.

Alexandra Franz

Literatur:

Gugutzer, R. (2010). Soziologie am Leitfaden des Leibes. Zur Neophänomenologie sozialen Handelns am Beispiel der Contact Improvisation. In F. Böhle & M. Weihrich (Hrsg.): Die Körperlichkeit sozialen Handelns. Soziale Ordnung jenseits von Normen und Institutionen. Bielefeld: transcript, S. 165-184.


Videovergleich 4

Video 1:

Video 2:

VIDEO 1 – Launchpad/ Bebot/ Piano/ Ipad – Jam Session:

Grobbeschreibung:

Zu Beginn erstellt der Spieler mit der App “Launchpad” einen musikalischen Rahmen bzw. einen Loop. Das Launchpad kann man mit einem “DJ-Controller” vergleichen oder auch mit einem modernen Keyboard mit verschiedenen Soundeinstellungen- und Möglichkeiten. Über diesen musikalischen Rahmen, der sozusagen die “Band” ersetzt, improvisiert die Person darüber auf dem Klavier. Danach lässt er den Loop laufen und nutzt zusätzlich die App “Bebot”. Der Spieler streicht mit seinem Finger auf dem Ipad hoch und runter, wischt hin und her und verändert dadurch die Töne, die die abgebildete “Bebot” Figur von sich gibt.

Feinbeschreibung: Sekunde 0:56-1:15

In dieser Sequenz läuft im Hintergrund von der App “Launchpad” bereits die Musik des Loops und der Spieler bedient nun die “Bebot” App parallel. Es handelt sich um eine Art “Liegetöne”, die der Bebot von sich gibt, da der Spieler die Hand ständig auf dem Ipad gedrückt hält. Beim ersten Einsatz der Bebot App ab Sekunde 0:37 macht der Spieler links und rechts Bewegungen und erzeugt dabei verschiedene Töne, mal höhere und mal tiefere. An anderen Stellen wischt der Musiker hoch und runter. Beim Hochwischen wird der Ton höher und beim runterwischen wird der Ton tiefer. Die Bewegungen der Hand sind gut abgestimmt auf den Rhythmus im Hintergrund, was für eine gewisse Musikalität des Spielers spricht.

Ab Sekunde 0:57 hat der Spieler seine linke Hand auf dem Ipad und wischt runter und hoch und mit der rechten Hand bedient er gleichzeitig das Klavier und improvisiert über die Musik. Dies macht der Spieler an der Stelle bis zur Sekunde 1:15. Eine spannende Stelle ist außerdem ab Sekunde 1:01-1:16, da hier der Musiker ebenfalls eine hohe Musikalität zeigt. Genauer gesagt sind seine Koordinationsfähigkeiten gut genug, um mit der linken Hand langsame und gleichmäßige Bewegungen zu vollziehen und gleichzeitig mit der rechten Hand ein ganz anderes Spielmuster, eher staccato, am Klavier zu spielen. Letztlich kann man zu dem Video sagen, dass die Koordination der Hände und dadurch das Zusammenspiel zwischen beiden Instrumenten (Klavier und App) aufgrund der Musikalität des Musikers sehr gut gelingt.

VIDEO 2 – Loopimal/ Piano/ Ipad – Jam Session:

Grobbeschreibung:

Der Spieler öffnet die App “Loopimal” und man kann auf dem Display einen Teddybären sehen, der sich tänzerisch hoch und runter zu einem im Hintergrund laufenden Beat bewegt. Unter dem Teddybären befinden sich fünf verschiedenfarbige Symbole, variierte zusätzliche Töne über den im Hintergrund spielenden Beat erklingen lassen. Damit einher geht, dass sich der Teddybär entsprechend bei jedem Symbol anders bewegt. Zwischen dem Teddybären und dem Symbol ist ein schwarzer Balken, der an ein Taktschema erinnert, denn man kann die Symbole an verschiedene acht Stellen platzieren und erklingen dann an der entsprechenden Position im jeweiligen Schlag des Zwei-Taktschemas.

Nachdem der Spieler die App eingeschaltet hat, spielt er über den Beat zunächst liegende Akkorde. Nach und nach zieht er mit seiner linken Hand immer mehr Symbole in den “Takt” und variiert sie auch zwischendurch. Währenddessen improvisiert der Spieler passend zur Musik mit seiner rechten Hand passende Melodien. Insgesamt interagiert er mit dem Ipad und nutzt es als zusätzliches Instrument.

Feinbeschreibung: Sekunde 1:28-1:46

In dieser Sequenz sieht man sehr schön, dass der Spieler sich an das Ipad anpasst und auf Einsätze achtet. Er zählt mit seiner linken Hand mit und weiß genau, wann er entsprechend mit seiner rechten Hand am Klavier einsetzt und eine Melodie darüber improvisiert. Insbesondere ab Sekunde 1:34 kann man sehen, dass die ersten vier Figuren nebeneinander platziert sind und verschiedene Töne erklingen und die vier weiteren freien Stellen in dem Balken oder “Takt” frei sind und eine Pause entsteht. In dieser Pause setzt dann der Spieler mit seiner Improvisation ein, z.B. in Sekunde 1:35. Dies wird dann einige Sekunden so weiter geführt. Er programmiert sozusagen Pausen und füllt diese mit seiner Klavier-Improvisation. Beide “Instrumente” sind aufeinander abgestimmt.

Vergleich der beiden Videos:

In beiden Videos können wir dieselbe männliche Person sehen, die vor einem Klavier sitzt und ein Ipad vor sich liegen hat. Die Person verwendet insgesamt drei verschiedene Apps – im ersten Video die Apps “Launchpad” und “Bebot” und im zweiten Video nutzt er die App “Loopimal”. In beiden Videos werden die Apps als eine Art zusätzliche Instrumente gehandhabt. Krebs (2018) sagt, dass Apps als ein eigenes Instrumentarium digitaler Gattung gesehen werden kann, die “dazu beitragen können, musikalischen Reichtum und Vielfalt zu schaffen” (2018, S. 4). Meiner Meinung nach spiegeln die Videos genau diese Aussage wieder, da das Zusammenspiel mit dem Klavier sehr vielfältig genutzt werden kann.

Zwei der Apps erzeugen eine automatische Begleitung, so dass man für ein Zusammenspiel keinen weiteren Musiker benötigt. Tempo und Beat werden von den Ipads bestimmt und der Spieler improvisiert dazu auf seinem Klavier. Es handelt sich also um eine ständige Interaktion zwischen Ipad und Klavierspieler, wobei die Interaktion auf beiden Seiten von dem Spieler selbst gesteuert werden. In beiden Videos tippt der Spieler immer wieder auf das Ipad und verändert etwas an der Hintergrundmusik, die den Rahmen bildet. Oftmals fügt er Töne, Beats oder ähnliche Funktionen hinzu und bringt dadurch Variationen in den Klängen rein. Die Nutzung des Ipads erinnert an die Benutzung eines Mischpults o.ä. von einem DJ, der durch verschiedene Tasten, Rädchen und vieles mehr den Sound verändert.

Musizieren zeigt sich in beiden Videos insofern, dass auf dem Klavier die Tasten angeschlagen und improvisiert werden und gleichzeitig aber auch gemeinsam mit dem Ipad interagiert und musiziert wird. Unterschiede zeigen sich insbesondere in der Spielweise, der beiden beschrieben Stellen. Im ersten Video werden mit beiden Händen gleichzeitig beide “Instrumente” bedient und im zweiten Video fügt er immer etwas durch kurzes klicken oder reinziehen hinzu und spielt dann dazu am Klavier.

Die Verbindung von Mensch und Technologie ist in beiden Videos positiv vereinbar und funktioniert meiner Meinung nach gemeinsam sehr gut. Denn ich finde man kann von Musizieren sprechen, wenn es in sich stimmig klingt und verschiedene erzeugte Töne (technologisch oder nicht-technologisch erzeugt) sich aneinander anpassen und miteinander “interagieren”. In der Musik spricht man hierzu vor allem von dem Phänomen der leiblichen Interaktion oder auch Zwischenleiblichen Dialog wie es Gugutzer (2010) nennt. Weiter spricht er von der “Einleibung, die vorliegt, wenn es eine Art nonverbale Interaktion “zwischen mindestens zwei Akteuren” stattfindet. Dabei muss nur einer der beiden Akteure ein lebendiges Wesen sein (vgl. Gugutzer, 2010, S. 169). Dieses Phänomen sehen wir vor allem darin, dass die Handbewegungen des Spielers manchmal mitschwingen bzw. immer rechtzeitig am Ipad angepasst sind, sodass es rhythmisch und tonal stimmt (Sekunde 0:37 bis 0:55). Auch im zweiten Video kann man durch eine grobe Spiegelung im Klavier von dem Spieler erkennen, dass der Kopf des Spielers immer mitschwingt. Man könnte nun behaupten, dass die Person die Musik, die vom Ipad gespielt wird, in sich “aufnimmt” und sie “bewegt” (ebd., S. 170).

Vergleicht man die leibliche Interaktion und Körperlichkeit in den beiden Videos, würde ich behaupten, dass sie im ersten Video mehr vorhanden ist, da nicht nur Funktionen kurz angeklickt werden auf dem Ipad, sondern die linke Hand für längere Momente auf dem Ipad liegen bleibt und sich im passenden Tempo bewegt und gleichzeitig dann mit der rechten Hand auf dem Klavier improvisiert wird. Meiner Meinung weist im ersten Video die Form der Spielbewegungen am Ipad Ähnlichkeit mit der Spielbewegungen der Klavierhand auf.

Lern- und Erfahrungspotenziale der untersuchten Apps in sinnlich-körperlicher Hinsicht

Ich denke der Aspekt des Einsetzens bzw. des Interagieren im richtigen “Timing” stellt ein grundlegendes Lern- und Erfahrungspotenzial dar. Die Koordinationsfähigkeit ist eine wichtige Voraussetzung für das Beherrschen vieler Instrumente.  Man kann trainieren, dass beide Hände Unterschiedliches tun, wie man es auch oft bei traditionellen Instrumenten können muss. Dafür sollte das Gefühl für das Timing bestenfalls durch Training in den Körper überführt werden. Außerdem denke ich, dass auf diese Weise das Gehör geschult werden kann, da man genau hören muss, wann man am besten einsetzt.

Georgie Lahdow

Literatur:

Gugutzer, R. (2010). Soziologie am Leitfaden des Leibes. Zur Neophänomenologie sozialen Handelns am Beispiel der Contact Improvisation. In F. Böhle & M. Weihrich (Hrsg.): Die Körperlichkeit sozialen Handelns. Soziale Ordnung jenseits von Normen und Institutionen. Bielefeld: transcript, S. 165-184.

Krebs, Matthias (2018): Digitales Instrumentarium. Die Musikapp als zukünftiges Instrument in der Musikschule. In: Üben & Musizieren 1_2018, S. 40 – 43.


Videovergleich 5

Video 1:

Video 2:

Video 3:

Im Folgenden sollen drei Videos jeweils einzeln exemplarisch untersucht werden, um deutliche Unterschiede in der musikalischen Interaktion der Protagonisten kenntlich zu machen.

Im ersten Video werden kleine Smartphones als Musikinstrumente verwendet. Ich hatte schon beim erstmaligen Betrachten den Eindruck einer sehr fließenden musikalischen Performance, die durch die Körpersprache an emotionaler Qualität gewinnt und in der Performance viel nonverbale Kommunikation vermuten lässt. Diesem Eindruck möchte ich durch eine detaillierte Beschreibung von bestimmten Stellen nachgehen. Dazu nenne ich die 6 Ensemblemitglieder Spieler 1-6 (von links nach rechts aus der Zuschauerperspektive gesehen). Spieler 3 scheint in dem Ensemble eine führende Funktion zu besitzen. Dies wird besonders in Minute 2:10 ersichtlich, da er mit der Bewegung seines Körpers sehr deutlich den neuen Einsatz gibt. Dabei folgen ihm nicht alle Mitspieler in einem vergleichbaren Ausdruck in der Körpersprache. Besonders die beiden äußeren Mitspieler reagieren mit ihrem Körper nahezu gar nicht, während Spieler 5 fast schon übertrieben deutlich mit seinem Körper folgt. Ein für das gemeinsame Musizieren wichtiger Aspekt sind die Blicke der 6 Musizierenden, die in Minute 2:30 starr auf die Geräte fixiert sind. Es scheint so, als wäre die Bedienung des kleinen Touch-Displays hinderlich für den Augenkontakt zwischen den Mitspielern. In Minute 0:26 wollte ich noch einmal den Fokus auf die Arme und Hände legen. Die Hände sind hier bei allen Protagonisten sehr starr fixiert, was denke ich an der Größe des Instrumentes liegt. Dagegen sind die Arme und Handgelenke bei den meisten sehr flexibel. Die Bögen und der Ausdruck erfolgt zudem sehr deutlich bei den Spielern 2-5 durch Arme, Oberkörper und den Kopf. Dagegen sieht man bei 2:27, wie der Spieler 6 einen sehr starren Blick auf das Gerät hält. Insgesamt kann festgestellt werden, dass obwohl oft relativ wenig Augenkontakt besteht, bei den Spielern eine starke körperliche Bewegung zu erkennen ist, die von den Mitspielern visuell wahrnehmbar ist und die musikalische Performance unterstützt. In Minute 3:34 wird dies am Schluss des Stückes besonders gut erkennbar. Im letzten Schlusston finden zum ersten Mal in der gesamten Performance kollektiv Blicke unter dem gesamten Ensemble statt, was die Vermutung stützt, dass die Tongenerierung des Ensembles vom visuellen Kontakt mit dem relativ kleinen Display abhängig ist.

Im zweiten Video werden Tablets als Musikinstrumente verwendet, die auf den Knien abgelegt sind und von beiden Händen gespielt werden. Man erkennt in Minute 0:22 recht deutlich, dass die Finger auf dem deutlich größeren Display eines Tablets natürlicher und bewegter eingesetzt benutzt werden können als bei den Smartphones von Gruppe 1. Der Einsatz des ganzen Körpers der Musiker*innen des Tablet-Orchesters unterscheiden sich sehr deutlich in ihrer Ausprägung von den Spielbewegungen der Smartphone-Musiker*innen im ersten Video. In Minute 1:14 erkennt man sehr deutlich die im kompletten Video nahezu bewegungsfreie Spielart der Performer. Die Blicke sind starr auf das Gerät fixiert und auch die Körper bewegen sich beinahe gar nicht. Diese fehlende Körperlichkeit verhindert offensichtlich einen natürlichen Mensch-Maschine Kontakt, da die fehlenden Körperbewegungen auch im Ergebnis sich in fehlender Agogik und einer vom Publikum wahrgenommenen Distanz zum Klangerzeuger manifestieren. Dadurch ergibt sich beim Betrachten der Performance ein gewisser Eindruck von Abwesenheit und fehlender Emotionalität. In Minute 0:59 wird sehr deutlich, dass die fehlende Körpersprache sich auch auf das musikalische Ergebnis überträgt. Da keine Blicke/Bewegungen stattfinden, ist es hier nur durch eine sehr starr gezählte Rhythmik möglich, dass alle Mitspieler den Einsatz bekommen. Ein leichtes Verzögern an dieser Stelle würde sehr viel natürlicher und musikalischer klingen. Es entsteht fast der Eindruck, ein Computer würde hier einen quantisierten Midifile abspielen. Damit unterscheidet sich das Video sehr deutlich von dem ersten Video, bei dem mehr Musikalität und Emotionalität erkennbar ist und sich auch in der Körpersprache ausdrückt.

In dem dritten Videobeispiel ist ein typisches Streichquartett zu sehen. Darin ist eine vertraute, ausgeprägte Form von Körperlichkeit zu erkennen. In Minute 3:31 ist eine dafür charakteristische Bewegung bei allen vier Instrumentalisten bei einem Crescendo zu beobachten. Besonders Violine 2 intensiviert durch Bewegung den Abschlag an der Stelle und es ist deutlich zu erkennen, wie alle vier Spieler Bogenschläge und Kopfbewegungen synchron ausführen und sich mit Blicken abstimmen. Dabei macht bei 3:32 der Cellist eine extremere Bewegung und untermauert in dem Moment seine Führungsrolle, um einen präzisen gemeinsamen Abschlag zu initiieren. Außerdem kann man in Minute 14:08 deutlich Augenkontakt eines Spielers zu seinen Mitspielern beobachten. Bei 14:41 wird sehr deutlich, wie die zweite Violine durch Blicke führt. Die Augenbrauen sind an der Stelle höher und der Blick ist zu den beiden anderen Mitspielern gewandt, die dadurch in perfekter Synchronität ihren Einsatz bekommen.

Vergleich

Insgesamt ist eine der größten Unterschiede der verschiedenen Performances die Größe der Instrumente, sowie deren Spielbewegungen. Im ersten Video ist das greifen der Töne auf die Daumen beschränkt, da eine ganze Hand keinen Platz auf dem kleinen Touchscreen hätte und das Gerät von den Spielern auch mit den Händen gehalten wird. Im zweiten Videobeispiel nutzen die Spieler überhaupt nicht den Spielraum des Tablet-Interfaces aus. In Bezug auf die eingesetzte App wird im ersten Video deutlich, dass die Dynamik über körperliche Gesten, also durch das Heben und Senken des Smartphones, gesteuert werden kann. Im Gegensatz ist bei dem Ensemble im zweiten Video keine Dynamik und Agogik auf visueller und auditiver Ebene erkennbar. Die iPads liegen starr auf einem Knien, während die Smartphones von Gruppe 1 frei bewegt werden können. Es scheint so als würde durch die starre Fixierung der Instrumente sehr viel weniger Kommunikation zwischen den Ensemblemitglieder in Video 2 stattfinden. Dabei kommt die Performance des ersten Ensembles sehr viel näher an die Performance des klassischen Streichquartetts heran.

Die Art und Weise wie bewusste Körperbewegungen eingesetzt werden, um Synchronität zu erreichen, scheint im ersten und dritten Video ähnlich zu sein. Es entsteht für mich der Eindruck, dass das erste Ensemble noch musikalischer agieren könnte, wenn die Mitglieder nicht so intensiv auf die Smartphones gucken müssten. Dabei müsste untersucht werden, ob dies an noch fehlender Übungsspraxis mit dem Instrument (ein nicht so erfahrener Streicher muss auch sehr viel mehr visuellen Kontakt zu seinem Instrument halten) oder generell an dem Interface eines doch kleinen Touchbildschirm als Interface für die Tonhöhe liegt. Im Beispiel 2 würde ich als Coach mit dem Ensemble an der Interaktion und Agogik arbeiten, die körperlich durch untereinander wahrnehmbare Spielbewegungen vermittelt werden müssten, was bisher so gut wie gar nicht stattfindet. Es müsste noch geklärt werden, ob die gewählte App überhaupt dazu in der Lage ist, Lautstärke und Agogik zu manipulieren oder ob noch zusätzliche Controller oder eine andere App in Betracht gezogen müssen.

Bezug zu Inhalten des Seminars und Fazit

Shintaro Miyazaki hält in seinem Text „Medien, ihre Klänge und Geräusche – Medienmusik vs. / (=) Instrumentalmusik” fest, dass man von einem Musikinstrument im herkömmlichen Sinne sprechen kann, sobald der Klang durch mehrere bis unendlich viele Parameter und nicht nur rudimentär mit einem oder zwei Parametern kontrollierbar sei (vgl. Miyazaki 2009, S. 3). Wenn wir diese Definition anwenden, kann man feststellen, dass Gruppe 1 eher mit Musikinstrumenten körperlich agiert und die Dynamik gestalten kann, während Gruppe 2 wesentlich weniger musikalische Parameter in Echtzeit kontrollieren kann. Miyazaki stellt in seinem Text fest, dass die Unterscheidung, ob ein Computer/iPad/iPhone oder anderes technisches Mittel ein Musikinstrument ist, eher vom Handeln, Praxis und der Intention des Spielers, als von der Technik an sich abhängt. 

Gruppe 1 praktiziert hier in meinen Augen musikalischer, da Körperbewegungen mit Hilfe der Sensoren Klangparameter in Echtzeit kontrollieren. Hier möchte ich noch einmal die Terminologie des Autors benutzen: Menschliche Kontrolle (in Echtzeit) über den Klang spielt eine existenzielle Rolle (vgl. Miyazaki 2009, S. 3). Aus meiner Analyse heraus kann ich diesen Schluss gut nachvollziehen. In der Reflektion meiner Analyse in Bezug  auf diesen Text wird für mich sehr deutlich, dass die Frage, ob ein Computer ein Musikinstrument ist, differenzierter betrachtet werden sollte und nicht so einfach mit „Ja“ oder „Nein“ beantwortet werden kann. Eine oberflächliche Betrachtung der verwendeten Technik greift in der Diskussion zu kurz. Es wirkt für mich unter der Berücksichtigung Miyazakis Ausführungen folgend, sinnvoller, die menschliche Praxis, Handlung und Intention höher zu werten, wobei man natürlich nie vergessen darf, dass die Wahl der technischen Mittel, in unserem konkreten Fall die unterschiedlichen Apps, diese Aspekte beeinflussen. Durch eine solche differenzierte Betrachtungsweise auf z.B. die Spielbewegungen könnte es wesentlich ergiebiger sein, Vergleiche von neuen technisch geprägten musikalischen Praxen zum traditionellen Musizieren herzustellen, da die analysierten Parameter (Körperlichkeit, Agogik, Emotionalität, Echtzeitkontrolle des Klanges, Kommunikation in der Gruppe, usw.) universale menschliche Ausdrucksmittel sind und in einer musikalischen Praxis immer eine große Rolle spielen sollten.

Nicolas Hering

Literatur:

Miyazaki, Shintaro (2009): Medien, ihre Klänge und Geräusche – Medienmusik vs. / (=) Instrumentalmusik . In: PopScriptum 9 – Instrumentalisierungen – Medien und ihre Musik.

 


Videovergleich 6

Video 1:

Video 2:

Smartphone vs. Klavier: Wie unterscheidet sich das Spiel von Anfängern? Zur Beantwortung dieser Frage analysiere ich zwei Videoausschnitte. Im ersten Video ist zu sehen, wie eine Person auf einem Smartphone musiziert. Das zweite Video zeigt ein etwa 8 Jahre altes Mädchen, dass ihr neues Klavierstück präsentiert.

Der Bewegungsfluss der Spieler deutet darauf hin, dass beide auftretenden Musiker noch nicht viel Erfahrung auf ihrem Instrument haben. Das erste Video wird dazu genauer ab Sekunde 35 bis 49 und das zweite Video ab Sekunde sieben bis achtzehn analysiert. Die jeweiligen Ausschnitte wurden ausgewählt, da beide Spielenden an den entsprechenden Stellen Probleme mit der Bewältigung ihrer Spielaufgabe zu haben scheinen.

#Video No1

Im ersten Video ist von der Spielenden bzw. dem Spielenden nicht viel zu sehen. Mittig liegt das Smartphone mit der App, die Hände der*des Spielenden sind aus der Vogelperspektive sichtbar. Der Fokus liegt dabei auf einem Raster, das als Bedienoberfläche zur Ansteuerung der Samples dient.

Das Musizieren mit der App findet auf sehr kleinem Raum statt. Die Bedienfelder sind so winzig, dass sie lediglich mit einer Fingerkuppe berührt werden können und sind in einem vier mal vier Felder großen, gleichmäßigen Raster angeordnet.

In besagtem Video fällt die unregelmäßige Spielbewegung des Spielenden auf (ab 0:35). Die Zeigefinger schweben direkt über den zu bespielenden Feldern der Spieloberfläche der App, was darauf hindeuten kann, dass die Person eine gewisse Musiziererfahrung mit einem herkömmlichen Instrument hat. Insgesamt wirken die Muskeln jedoch ziemlich angespannt und der Bewegungsablauf ist nicht flüssig. Auch die übrigen Finger, die im Spielprozess ungenutzt bleiben, lassen eine Anspannung erkennen (0:35).

Die rechte Hand des Instrumentalisten bedient im ausgewählten Ausschnitt drei unterschiedliche Spielfelder, wobei zwei der Flächen nebeneinander liegen und ein Feld eine Zeile weiter unten liegt und somit eine diagonale Bewegung von Nöten ist, um die Fläche zu erreichen. Die linke Hand nutzt lediglich zwei Spielfelder, die direkt untereinander auf einer vertikalen Ebene liegen.

Die Spielwege der Hände sind also unterschiedlich, was der Grund dafür sein könnte, dass das Bewegungstempo der Finger unterschiedlich ist. Im Video wird dadurch das Timing beeinflusst, so dass der Rhythmus des Stückes ungenau ist (0:44). Zudem wird das Metrum beim Musizieren nicht immer ganz deutlich (z. B.: 0:37) und die Abstimmung zwischen den beiden Händen ist nicht regelmäßig (0:35).

#Video No2

Im zweiten Video wird ein Stück auf dem Klavier gespielt. Die Musikerin, ein Mädchen, das ca. acht Jahre alt ist, ist von der Seite auf einem Klavierhocker sitzend beim Spielen zu beobachten. Die Hände der Spielerin sind von schräg oben zu sehen. Die genaue Fingerbewegung lässt sich jedoch nicht immer nachvollziehen. Die Klaviatur lässt den Fingern mehr Platz als die App auf dem Smartphone und verfügt natürlich über die dem Klavier eigene Mechanik, was sicherlich zu einem anderen Spielgefühl führt. Die Pianistin nutzt beim Spielen alle Finger ihrer zwei Hände. Dadurch ist ein deutlich höheres Tempo in der Tastenabfolge zu erleben.

Das Spiel der beiden Hände wirkt insgesamt etwas technisch und starr aber nicht verkrampft. Der Blick der Musikerin ist die meiste Zeit auf die Noten in Augenhöhe gerichtet. Als der Spielfluss jedoch ins Stocken gerät (0:09) richtet das Kind sein Augenmerk auf die linke Hand und findet so die richtigen Tasten für die zu spielende Bassfigur. Die Bewältigung der Spielaufgabe durch die rechte Hand scheint dabei unproblematisch zu sein. Scheinbar läuft das Spiel automatisiert, da die Spielerin sich auf die linke Hand konzentrieren kann ohne an Qualität in der anderen Hand zu verlieren. Nach Überwindung der Stelle (0:12) erhöht sich das Spieltempo und die Bewegungsabläufe der Finger sind mitunter ungleichmäßig (z.B. rechte Hand: 0:16, linke Hand: 0:17). Die Abstimmung zwischen den Händen ist insgesamt eher schlecht.

#Vergleich der beiden Videos

Beide Videos zeigen mitunter unkoordinierte Bewegungsabläufe, die auf das Spiel von Anfängern schließen lassen. Dabei lassen sich die Spielbewegungen jedoch nur eingeschränkt vergleichen, da im ersten Video die Hände zu sehen sind, während der Bildausschnitt im zweiten Video Rumpf und Arme zeigt. Die Vergleichbarkeit der beiden Videos ist zudem beschränkt, da davon auszugehen ist, dass die Klavierspielerin schon seit einigen Monaten auf ihrem Instrument übt und sich die*der App-Musiker*in dagegen erst wenige Minuten mit der App zu beschäftigen scheint. Bei beiden Videos sind jedoch ähnliche Schwierigkeiten, wie die Koordination der Hände und die Gleichmäßigkeit der Bewegungen zu beobachten.

Das Klavierspiel steht dabei jedoch in einer ganz anderen Tradition des Instrumentalspiels. Seit Jahrhunderten wird die Klavierspieltechnik erprobt und perfektioniert. Im Rahmen dieser Tradition ist davon auszugehen, dass die Klavierspielerin Unterricht auf dem Klavier bekommt, der methodisch und didaktisch durchdacht und erprobt ist. So würde eine solch anspruchsvolle Spielsituation, wie sie auf dem Smartphone zu beobachten war, auf dem Klavier sicherlich nicht nur mit den zwei Zeigefingern bewältigt werden. Andererseits sind verschiedene andere Spielweisen mit den Zeigefingern auf dem Smartphone in anderen App-Videos zu beobachten. Es ist anzunehmen, dass die Anspannung in den Händen der*des App-Spielenden sich sicherlich mit etwas Übung auch löst.

Motorische Fähigkeiten müssen auf beiden Instrumenten aufgebaut werden. Dabei kommt es offenbar auch zu ähnlichen Schwierigkeiten. Auf dem Klavier werden Bewegungsabläufe auch gegebenenfalls ohne Lehrperson aufgrund eines gesellschaftlichen Wissensvorsprungs über das Klavierspiel (alle Finger beider Hände werden genutzt, aufrechte Sitzposition vor dem Instrument, Klavierschulen usw.) jedoch von Beginn an anders eingeübt. Das Anfängerspiel auf dem Smartphone und dem Klavier lässt sich also nur bedingt vergleichen.

Lea Wohlstein

 


Videovergleich 7

Video 1:

Video 2:

Veröffentlichung der Analyse in Vorbereitung

ist wissenschaftlich als Leiter der Forschungsstelle Appmusik an der Universität der Künste Berlin tätig. Er beschäftigt sich im Rahmen seiner Promotion mit der Aneignung digitaler Musikinstrumente (insb. Musikapps). Weitere Forschungsschwerpunkte betreffen: Digitale Medien in Lehre und Forschung, Kommunikation im Social Web, Netzkunst, Appmusik, Grundlagenforschung zum Musizieren mit digitalen Musiktechnologien.

Als Lehrbeauftragter ist der Diplom-Musik- und Medienpädagoge an mehreren deutschen Musikhochschulen sowie als Dozent für Weiter- und Fortbildungen und auch bei den Appmusik-Workshops bei app2music aktiv. Zudem ist Matthias Krebs Musiker im professionellen Tablet-Orchester DigiEnsemble Berlin.


Kommentar verfassen

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.