Runter mit dem Digitalen | 2020

Inhaltsverzeichnis:

Anonim

"In der Mensch-Computer-Interaktion (HCI) entfernen wir uns immer mehr vom Entwurf von Interaktionen für einzelne Benutzer und vom Entwurf von Interaktionen für vernetzte Gruppen von einzelnen Benutzern. Wir wandeln uns von einem Paradigma der" Ein-Benutzer-Ein-Technologie "zu einem". "Das Paradigma von mehreren Benutzern und mehreren Technologien", erläutert Mathias Funk, einer der Mitautoren, im International Journal of Arts and Technology. Beispiele für diesen Wandel sind die bekannten Social-Media- und Social-Networking-Websites wie Twitter und Facebook, die viele Menschen täglich nutzen, sowie Wikipedia und andere Kooperationsprojekte wie Citizen Science-Projekte.

Im Bereich Industrial Design forschen Funk und sein Kollege Bart Hengeveld an neuartigen Musikinstrumenten, die diese Idee in musikalische Darbietungen umsetzen. In einigen kreativen Künsten wie Malerei und Skulptur wird viel Wert auf die Solo-Performance oder das Bemühen gelegt, und das Publikum wird gewöhnlich von der Kunst losgelöst, betrachtet und interagiert einige Zeit nach dem Ende des kreativen Prozesses mit dem "Produkt". Live-Musik ist anders, normalerweise ist mehr als eine Person an der Erstellung einer Performance beteiligt und das Publikum ist die ganze Zeit anwesend. Als solche gibt es eine gemeinsame emotionale Reaktion, die im Falle von Improvisationen die Musik in neue Richtungen lenken kann. Üblicherweise werden die Richtungsänderungen von den Musikern und ihrer Interaktion miteinander bestimmt, aber die Reaktionen des Publikums können sie ebenfalls anstoßen.

Das Team hat ein dreischichtiges Modell entwickelt, das die Beziehung zwischen Bandmitgliedern und Publikum als ein System beleuchtet, in dem Emotionen, Ausdruckskraft und Klangerzeugung der Improvisation Gestalt verleihen. Das Team hat dieses Modell verwendet, um sich speziell darauf zu konzentrieren, wie die individuelle emotionale Erregung als Eingabe verwendet werden kann, um das digitale Musikinstrument EMjam als Gruppe zu steuern. Das System, sagt das Team, "baut auf dem Konstrukt auf, dass es möglich ist, bei einem Konzert die Ausdrücke von Interpreten zu sehen; ein Gitarrist spielt ein Solo und erreicht an einer bestimmten Stelle einen Höhepunkt; ein Bassgitarrist folgt mit Auf seinem Gesicht spielten die Linien, ein Schlagzeuger setzte Akzente mit dem ganzen Körper und außerdem reagierte das Publikum auf die Aufführung. "

Die Instrumentalisten erhalten ein Armband mit Hautleitwertsensoren, die gewissermaßen den emotionalen Zustand des Musikers messen können. Der Percussionist hat ein Armband, das den vom EMjam erzeugten Rhythmus steuert, der Bassgitarrist hat einen Harmonie-Controller und der Gitarrist oder Keyboarder einen Controller für die Melodie. EMjam verwendet dann die Musiksoftware Ableton Live, um als Ergebnis jeder einzelnen Eingabe eine parallele zweite Tonebene hinzuzufügen. Das Team fügt hinzu, dass der gleiche Ansatz verwendet werden könnte, um einer Lichtshow oder anderen visuellen Elementen Ausdruck zu verleihen, die die Musik begleiten.