© Universität Bielefeld
uni.aktuell-Archiv
Veröffentlicht am
8. April 2014
Kategorie:
Forschung & Wissenschaft
Was vom Himmel tönt, klingt hoch
Bielefelder Neurowissenschaftler beweisen Zusammenhang zwischen räumlicher Lage und Tonlage
Warum benutzen Menschen, wenn sie eine Tonlage beschreiben, meist die räumlichen Begriffe „hoch“ beziehungsweise „tief“? Und warum werden hohe Noten stets oben auf den Notenlinien verzeichnet? Ein Team von Neurowissenschaftlern der Universität Bielefeld, des Max-Planck-Instituts für biologische Kybernetik in Tübingen und des Bernstein Zentrums für Computational Neuroscience Tübingen hat eine Erklärung dafür gefunden. Deren Untersuchung zeigt: Die räumliche Lage hängt tatsächlich mit der Tonhöhe zusammen. Geräusche, die von einer räumlich erhöhten Quelle ausgehen, befinden sich meist in einer höheren Tonlage. Geräusche, die von unten kommen, klingen eher tief und dumpf. Das Forscherteam hat seine Studie am Montag (7.4.2014) im Fachmagazin PNAS veröffentlicht.
Das Forschungsteam hat drei Ansätze kombiniert, um den Zusammenhang
zwischen Schallfrequenz und räumlicher Lage zu untersuchen: Zunächst
nahmen die Forscher eine große Anzahl natürlicher Umgebungsgeräusche auf
und analysierten diese. Dabei fanden sie heraus, dass hoch frequentere
Töne tatsächlich häufiger von einer höheren Raumposition ausgehen.
Dann analysierten die Wissenschaftler, wie das menschliche Außenohr Geräusche filtert. „Dabei zeigte sich, dass Geräusche aufgrund der asymmetrisch gebogenen Form der Ohrmuschel gefiltert werden und zwar derart, dass hohe Töne eine höhere Intensität aufweisen, wenn sie von oben kommen“, erklärt Professor Dr. Marc Ernst. Er leitet die Forschungsgruppe Kognitive Neurowissenschaften der Fakultät für Biologie. Die Forschungsgruppe gehört zum Exzellenzcluster Kognitive Interaktionstechnologie (CITEC).
Der dritte Teil der Studie war ein Verhaltensexperiment. Die Forscher baten die Versuchspersonen, Geräusche mit unterschiedlicher Tonhöhe im Raum zu lokalisieren. Das Ergebnis: Die Testpersonen ordneten hochfrequente Töne in den meisten Fällen einer erhöhten räumlichen Position zu.
„Auffällig ist, dass die Ergebnisse der drei Analysen in hohem Maße übereinstimmen“, sagt Marc Ernst. „Es scheint also einen universellen Zusammenhang zwischen der Position eines Objekts und seiner Tonhöhe zu geben.“
Dr. Cesare Parise, der Erstautor der Studie, leitet von den Ergebnissen ab, dass sich das menschliche Hören im Lauf der Evolution an die statistischen Gegebenheiten der Umwelt angepasst hat. „ Die Befunde deuten in einer faszinierenden Weise darauf hin, dass sich das menschliche Ohr durch die Evolution möglicherweise genau derart geformt hat, um die akustischen Eigenschaften der Umwelt widerzuspiegeln“, sagt Parise.
Seiner Einschätzung nach lassen sich die Ergebnisse für die Entwicklung neuartiger Audio-Technologien für die Raumwahrnehmung nutzen. Dazu gehören Ohrprothesen und Hörgeräte, die optimiert sind, hohe Geräusche von hoch gelagerten Tonquellen und tiefe Geräusche von unten wahrzunehmen. Auch für virtuelle Welten und Computerspiele, in denen Geräusche künstlich erzeugt werden, könne das neue Wissen genutzt werden. Auch für die Konstruktion von Geräten, die Sonifikation verwenden, seien die Erkenntnisse hilfreich. Sonifikation ist eine Methode, die nicht-sprachlichen Klang nutzt, um Informationen zu übertragen.
Neben der Verknüpfung von Tonlage und räumlicher Höhe gibt es in der menschlichen Wahrnehmung weitere scheinbar willkürliche Zuordnungen von Sinnesempfindungen: Beispielsweise werden gelb-rote Farben mit warmen Temperaturen assoziiert oder saure Speisen als scharf empfunden. Die aktuelle Studie legt nahe, dass viele der scheinbar willkürlichen Zuordnungen möglicherweise statistische Gesetzmäßigkeiten widerspiegeln, die in der natürlichen Umwelt zu finden sind.
Die aktuelle Studie ist Teil der Forschung der Forschungsgruppe Kognitive Neurowissenschaf-ten. Die Gruppe forscht vor allem zu multisensorischer Wahrnehmung, zur Verbindung von Sinneswahrnehmung und Bewegung, zum Wahrnehmungslernen und Mensch-Maschine-Interaktion. Zu der Gruppe gehören 15 Mitglieder mit unterschiedlichem wissenschaftlichem Hintergrund, von Biologie über Kognitionswissenschaft und Psychologie bis hin zu Medizin, Physik und Ingenieurswissenschaft.
Das Projekt wurde vom Max-Planck-Institut für biologische Kybernetik in Tübingen und dem Bernstein Zentrum Tübingen unterstützt. Das Max-Planck-Institut für biologische Kybernetik forscht an der Aufklärung von kognitiven Prozessen auf experimentellem, theoretischem und methodischem Gebiet. Es beschäftigt rund 300 Mitarbeiterinnen und Mitarbeiter aus mehr als 40 Ländern und hat seinen Sitz auf dem Max-Planck-Campus in Tübingen. Das Institut gehört zur Max-Planck-Gesellschaft zur Förderung der Wissenschaften. Das Bernstein Zentrum Tübingen ist Teil des Nationalen Bernstein Netzwerks Computational Neuroscience. Seit 2004 fördert das Bundesministerium für Bildung und Forschung mit dieser Initiative die neue Forschungsdisziplin Computational Neuroscience (Computationale Neurowissenschaft).
Originalveröffentlichung:
Cesare Parise, Katharina Knorre, Marc Ernst: Natural auditory scene statistics shapes human spatial hearing. PNAS, www.pnas.org/lookup/suppl/doi:10.1073/pnas.1322705111, erschienen am 7. April 2014.
Kontakt:
Professor Dr. Marc Ernst, Universität Bielefeld
Fakultät für Biologie
Telefon: 0521 106-5700
E-Mail: marc.ernst@uni-bielefeld.de
Dr. Cesare Parise, Universität Bielefeld
Fakultät für Biologie
Telefon: 0521 106-5703
E-Mail: cesare.parise@uni-bielefeld.de
Warum benutzen Menschen, wenn sie eine Tonlage beschreiben, meist die räumlichen Begriffe „hoch“ beziehungsweise „tief“? Und warum werden hohe Noten stets oben auf den Notenlinien verzeichnet? Ein Team von Neurowissenschaftlern der Universität Bielefeld, des Max-Planck-Instituts für biologische Kybernetik in Tübingen und des Bernstein Zentrums für Computational Neuroscience Tübingen hat eine Erklärung dafür gefunden. Deren Untersuchung zeigt: Die räumliche Lage hängt tatsächlich mit der Tonhöhe zusammen. Geräusche, die von einer räumlich erhöhten Quelle ausgehen, befinden sich meist in einer höheren Tonlage. Geräusche, die von unten kommen, klingen eher tief und dumpf. Das Forscherteam hat seine Studie am Montag (7.4.2014) im Fachmagazin PNAS veröffentlicht.
Forscher
der Universität Bielefeld haben nachgewiesen, warum Menschen Geräusche
von hoch gelegenen Objekten oft als hohe Töne wahrnehmen. Ihre Analyse
deutet darauf hin, dass die Form des menschlichen Ohrs die akustischen
Merkmale der natürlichen Umwelt widerspiegelt. Foto: Parise & Ernst
Dann analysierten die Wissenschaftler, wie das menschliche Außenohr Geräusche filtert. „Dabei zeigte sich, dass Geräusche aufgrund der asymmetrisch gebogenen Form der Ohrmuschel gefiltert werden und zwar derart, dass hohe Töne eine höhere Intensität aufweisen, wenn sie von oben kommen“, erklärt Professor Dr. Marc Ernst. Er leitet die Forschungsgruppe Kognitive Neurowissenschaften der Fakultät für Biologie. Die Forschungsgruppe gehört zum Exzellenzcluster Kognitive Interaktionstechnologie (CITEC).
Der dritte Teil der Studie war ein Verhaltensexperiment. Die Forscher baten die Versuchspersonen, Geräusche mit unterschiedlicher Tonhöhe im Raum zu lokalisieren. Das Ergebnis: Die Testpersonen ordneten hochfrequente Töne in den meisten Fällen einer erhöhten räumlichen Position zu.
„Auffällig ist, dass die Ergebnisse der drei Analysen in hohem Maße übereinstimmen“, sagt Marc Ernst. „Es scheint also einen universellen Zusammenhang zwischen der Position eines Objekts und seiner Tonhöhe zu geben.“
Dr. Cesare Parise, der Erstautor der Studie, leitet von den Ergebnissen ab, dass sich das menschliche Hören im Lauf der Evolution an die statistischen Gegebenheiten der Umwelt angepasst hat. „ Die Befunde deuten in einer faszinierenden Weise darauf hin, dass sich das menschliche Ohr durch die Evolution möglicherweise genau derart geformt hat, um die akustischen Eigenschaften der Umwelt widerzuspiegeln“, sagt Parise.
Seiner Einschätzung nach lassen sich die Ergebnisse für die Entwicklung neuartiger Audio-Technologien für die Raumwahrnehmung nutzen. Dazu gehören Ohrprothesen und Hörgeräte, die optimiert sind, hohe Geräusche von hoch gelagerten Tonquellen und tiefe Geräusche von unten wahrzunehmen. Auch für virtuelle Welten und Computerspiele, in denen Geräusche künstlich erzeugt werden, könne das neue Wissen genutzt werden. Auch für die Konstruktion von Geräten, die Sonifikation verwenden, seien die Erkenntnisse hilfreich. Sonifikation ist eine Methode, die nicht-sprachlichen Klang nutzt, um Informationen zu übertragen.
Neben der Verknüpfung von Tonlage und räumlicher Höhe gibt es in der menschlichen Wahrnehmung weitere scheinbar willkürliche Zuordnungen von Sinnesempfindungen: Beispielsweise werden gelb-rote Farben mit warmen Temperaturen assoziiert oder saure Speisen als scharf empfunden. Die aktuelle Studie legt nahe, dass viele der scheinbar willkürlichen Zuordnungen möglicherweise statistische Gesetzmäßigkeiten widerspiegeln, die in der natürlichen Umwelt zu finden sind.
Die aktuelle Studie ist Teil der Forschung der Forschungsgruppe Kognitive Neurowissenschaf-ten. Die Gruppe forscht vor allem zu multisensorischer Wahrnehmung, zur Verbindung von Sinneswahrnehmung und Bewegung, zum Wahrnehmungslernen und Mensch-Maschine-Interaktion. Zu der Gruppe gehören 15 Mitglieder mit unterschiedlichem wissenschaftlichem Hintergrund, von Biologie über Kognitionswissenschaft und Psychologie bis hin zu Medizin, Physik und Ingenieurswissenschaft.
Das Projekt wurde vom Max-Planck-Institut für biologische Kybernetik in Tübingen und dem Bernstein Zentrum Tübingen unterstützt. Das Max-Planck-Institut für biologische Kybernetik forscht an der Aufklärung von kognitiven Prozessen auf experimentellem, theoretischem und methodischem Gebiet. Es beschäftigt rund 300 Mitarbeiterinnen und Mitarbeiter aus mehr als 40 Ländern und hat seinen Sitz auf dem Max-Planck-Campus in Tübingen. Das Institut gehört zur Max-Planck-Gesellschaft zur Förderung der Wissenschaften. Das Bernstein Zentrum Tübingen ist Teil des Nationalen Bernstein Netzwerks Computational Neuroscience. Seit 2004 fördert das Bundesministerium für Bildung und Forschung mit dieser Initiative die neue Forschungsdisziplin Computational Neuroscience (Computationale Neurowissenschaft).
Originalveröffentlichung:
Cesare Parise, Katharina Knorre, Marc Ernst: Natural auditory scene statistics shapes human spatial hearing. PNAS, www.pnas.org/lookup/suppl/doi:10.1073/pnas.1322705111, erschienen am 7. April 2014.
Kontakt:
Professor Dr. Marc Ernst, Universität Bielefeld
Fakultät für Biologie
Telefon: 0521 106-5700
E-Mail: marc.ernst@uni-bielefeld.de
Dr. Cesare Parise, Universität Bielefeld
Fakultät für Biologie
Telefon: 0521 106-5703
E-Mail: cesare.parise@uni-bielefeld.de