13.07.2021 11:23
Wenn Trommeln sprechen: Wie wir Sprache und Musik unterscheiden
Im Alltag sind wir von vielerlei Geräuschen umgeben, die wir normalerweise gut unterscheiden können. Wenn wir zum Beispiel das Radio einschalten, merken wir schnell, ob wir Musik hören oder jemand spricht. Aber was, wenn Sprache und Musik ähnlich klingen? Wie unterscheiden wir sie dann? Ein Team aus Wissenschaftlerinnen des Frankfurter Max-Planck-Instituts für empirische Ästhetik, des Max Planck NYU Center for Language, Music, and Emotion (CLaME) und der Arizona State University ist dieser Frage auf die Spur gegangen.
Schon mehrfach wurde verglichen, wie Menschen Sprache bzw. Musik wahrnehmen. Die Unterschiede sind jedoch schwer zu erfassen – vor allem, wenn es Überschneidungen gibt, wie bei Reimen oder in der Rap-Musik. Um die Grenzen besser abstecken zu können, initiierte das internationale Forschungsteam eine Online-Studie mit mehr als hundert Personen mit insgesamt 15 verschiedenen muttersprachlichen Hintergründen.
Im Fokus der Studie stand die „sprechende“ Dùndún-Trommel. Diese wird im Südwesten Nigerias als Musikinstrument verwendet, aber auch zur Kommunikation eingesetzt. Die Trommel imitiert die tonale Sprache der Yorùbá, wodurch ein sogenanntes Sprachsurrogat entsteht. Eine kurze Einführung vermittelte allen Teilnehmer:innen ein Basiswissen über das Instrument, wobei etwa die Hälfte von ihnen schon vorher mit der Dùndún vertraut waren.
Die Wissenschaftlerinnen verglichen die akustischen Eigenschaften sprachlicher und musikalischer Dùndún-Aufnahmen. Dann baten sie die Studienteilnehmer:innen, dieselben Aufnahmen anzuhören und anzugeben, ob sie Sprache oder Musik hörten.
„Die meisten waren in der Lage, einen Großteil der Ausschnitte so zu identifizieren, wie sie vom Interpreten beabsichtigt waren – mit einer wenig überraschenden Tendenz zur musikähnlichen Kategorie. Personen, die mit dem Instrument vertraut waren, schnitten besonders gut ab, aber auch die anderen lagen bei ihren Beurteilungen über dem Zufallsniveau“, berichtet Pauline Larrouy-Maestri vom Max-Planck-Institut für empirische Ästhetik.
Mithilfe der erhobenen Daten entwickelten die Forscherinnen ein statistisches Modell, anhand dessen vorhergesagt werden kann, wann ein Klangbeispiel als musikähnlich oder sprachähnlich wahrgenommen wird. Das Modell zeigt, dass sich Zuhörer:innen bei der Unterscheidung auf mehrere akustische Merkmale verlassen.
Lautstärke, Tonhöhe, Klangfarbe und Timing erwiesen sich dabei als maßgeblich. Ein regelmäßiger Rhythmus und häufige Änderungen in der Klangfarbe lassen eine Sequenz beispielsweise eher musikähnlich klingen, während eine geringere Intensität und weniger Änderungen in der Tonhöhe sprachähnlich anmuten. Die Vertrautheit mit dem Instrument beeinflusst schließlich, inwiefern Zuhörer:innen diese akustischen Merkmale einsetzen.
Die Erkenntnisse wurden kürzlich in der Fachzeitschrift „Frontiers in Psychology“ veröffentlicht. Mit diesen Ergebnissen liefert die Studie empirische Belege für die Relevanz akustischer Merkmale sowie Erkenntnisse zur Rolle kultureller Hintergründe von Zuhörer:innen und erweitert damit das Wissen um die Bildung von Wahrnehmungskategorien bei Sprache und Musik.
Wissenschaftliche Ansprechpartner:
Max-Planck-Institut für empirische Ästhetik
Pauline Larrouy-Maestri
pauline.larrouy-maestri@ae.mpg.de
Originalpublikation:
Durojaye, C., Fink, L., Roeske, T., Wald-Fuhrmann, M. und Larrouy-Maestri, P. (2021). Perception of Nigerian Dùndún Talking Drum Performances as Speech-Like vs. Music-Like: The Role of Familiarity and Acoustic Cues. Frontiers in Psychology 12:652673.
https://doi.org/10.3389/fpsyg.2021.652673
Merkmale dieser Pressemitteilung:
Journalisten, Wissenschaftler
Kulturwissenschaften, Medien- und Kommunikationswissenschaften, Musik / Theater, Psychologie, Sprache / Literatur
überregional
Forschungsergebnisse, Wissenschaftliche Publikationen
Deutsch