Beyond Sonification - making audible sense to data - Ein Laboratorium für die Verknüpfung zwischen Auge und Ohr. Unterrichtsprache: English-German-Spanish 

Das Projekt untersucht die Interaktion von Bewegung, Ton und Farbe in Echtzeit in der Produktion von neuen Medien und Performances. Dafür wird eine Webapp verwendet, die Farbe in Klänge verwandelt (Synestizer), sowie weitere Softwares, die performative Praxen unterstützt. Drei Module sind geplant: (1) Technische Entwicklung, (2) Entwicklung von Lehreinheiten und (3) ein Festival mit Studierenden.

FSP-Transdisziplinarität und Institute for Computer Music and Sound Technology Departement DKV und Musik

Wird auch angeboten für

Nummer und TypMTR-MTR-1031.16H.001 / Moduldurchführung
ModulInflatable Wind Tunnel 
VeranstalterDepartement Kulturanalysen und Vermittlung
LeitungKaspar König
Anzahl Teilnehmendemaximal 22
ECTS3 Credits
VoraussetzungenKeine spezifische Voraussetzungen nötig. Ein Vorteil jedoch ist ein hohes Interesse an auditiven und bildlichen Verknüpfungen, und/oder Interesse an Synästhesie, Big Data, Javascript, Opensource software, Klangkunst sowie neuen visuellen Ereignissen mit Hilfe von Webcam und (Miniatur-)Bühnenbildern.
LehrformWorkshop, Laboratorium mit Inputs von Gästen und Experten sowie verschiedenen Studierenden und Dozierenden.
ZielgruppenStudierende aller Richtungen. Z.b. Musik, Performance, Architektur, Bühnenbild, Game-Design, Design, Klangkunst, Tanz, Medien etc.

Geöffneten Lehrveranstaltungen:
Einschreibung über ClickEnroll
www.zhdk.ch/?ClickEnroll
Lernziele / KompetenzenKlangentwicklung für die Vertonung von Realtime-Datensätzen. Sinngebung der Klänge in Zusammenhang mit den visuellen Stimuli. Opensource Online-Tool zur Entwicklung der künstlerischen Praxis.
InhalteMit einer Webapp, die Webcamdaten in Klänge umwandelt, kann man ein bewegtes Bild direkt als Klänge hören, eine sogenannte Sonifikation. Weiterhin bekommen die Klänge eine weitere Bedeutung, wenn die technische Sonifikation zur künstlerischen Komposition verwendet wird. Denn durch die Manipulation des für die Kamera Sichtbaren wird sowohl eine visuelle als auch eine akustische Kompositionsebene ermöglicht, das Bild wird als Ton erkundet und vice versa. Diese Forschung wird mithilfe der Opensource Software durchgeführt, die von uns entwickelt wurde, und die für verschiedene Performances-Ideen bei der Echtzeitverwandlung von bewegten Bildern eingesetzt und erkundet wird. Dabei geht es immer wieder auch darum, das lokale Umfeld des Instrumentalisten in die Musik einzubinden.
Bibliographie / Literaturgratis: sonification.de/handbook/
TermineFreitag, 28. Oktober, 4. / 11. / 18. November, 2. Dezember, jeweils 13 bis 18 Uhr im Immersive Lab des ICST

16. Dezember: KONZERT UND INSTALLATIONEN IM WALCHETURM
15. bis 17. Dezember: Aufbau/Abbau
Dauer5 Halbtage während des ganzen Semesters, Einrichten und Durchführen eines Festivals (Konzert/Installation) im Walcheturm (Tag und Abend)
Bewertungsformbestanden / nicht bestanden