Erweiterung der InteractiveWall um Audio

Die InteractiveWall als multimediales und interaktives System verwendet zurzeit überwiegend bildliche und textuelle Elemente. Hörbares wird lediglich im Kontext von Videos verwendet. Zusätzlich können jedoch auch Klänge bzw. akustische Signale auf viele verschiedene Weisen eingesetzt werden, um die Erfahrung des Nutzers bzw. das Benutzungserlebnis mit dem System zu verbessern, da dieser zusätzliche Sinneskanal in besonderer Weise Feedback geben und Informationen bereitstellen kann. 

Art der Abschlussarbeit

Status der Arbeit

Hintergrundinformationen zu der Arbeit

Diese Arbeit setzt sich mit der Problematik der Audifizierung der InteractiveWall (IW) auseinander. Dabei wurden zwei wesentliche Bereiche fokussiert: Einerseits die Evaluation verschiedener Geräte zur Klangausgabe, andererseits die Entwicklung und Evaluation von Interaktionsklängen. Zusätzlich wurden noch einige praktische Probleme beim Einsatz von Klängen mit der IW bearbeitet.
Hierfür wurde zunächst ein Überblick über den Einsatz von klanglichen Inhalten in ähnlichen Kontexten erarbeitet. Diese wurden im Kontext von Analysen auf den konkreten Anwendungsfall der IW übertragen. Basierend auf diesen Analysen wurden dann Konzepte entwickelt, wie die gesetzten Ziele und gefundenen Probleme bzw. ihre Lösungen umgesetzt werden können. In der Realisierung wurden die Konzepte zur Verbesserung des Klangerlebnisses in der IW und der Soundentwicklung umgesetzt. Die abschließene Evaluation stellte fest, wie die entwickelten Sounds durch Probanden für den Einsatz im Kontext der IW bewertet werden, und welche Einstellung die Probanden zu verschiedenen Klangwiedergabegeräten haben.
 

Prüfling
Jonas Lamperti

Literatur

Norman, D.A. & Draper, S.W. (1986). User Centered System Design. Hillsdale: Lawrence Erlbaum Associates.
Chernyshov, G., Chen, J., Lai, Y., Noriyasu, V., & Kunze, K. (2016). Ambient Rhythm: Melodic Sonification of Status Information for IoT-enabled Devices. Proceedings of the 6th International Conference on the Internet of Things (pp. 1-6). Stuttgart, Germany: ACM.
Coad, Lefebvre, & Luca, D. (1999). Feature-Driven Development. In Coad, Lefebvre, & D. Luca, Java Modeling in Color: Enterprise Components and Process. Prentice Hall PTR.
Drossos, K., Floros, A., & Kanellopoulos, N.-G. (2012). Affective acoustic ecology: towards emotionally enhanced sound events. Proceedings of the 7th Audio Mostly Conference: A Conference on Interaction with Sound (pp. 109-116). Curfu, Greece: ACM.
Wenzel, E. M. (1993). Perceptual vs. hardware performance in advanced acoustic interface design. Proceedings of the INTERACT '93 and CHI '93 Conference on Human Factors in Computing Systems (pp. 363-366). Amsterdam, The Netherlands: ACM.
Wilson, G., Freeman, E., & Brewster, S. (2016). Multimodal affective feedback: combining thermal, vibrotactile, audio and visual signals. Proceedings of the 18th ACM International Conference on Multimodal Interaction (pp. 400-401). Tokyo, Japan: ACM.
 

Starttermin

Okt. 2017

Abgeschlossen

Mai 2018

Zitation kopiert