Um alle Funktionen dieser Seite zu nutzen, aktivieren Sie bitte die Cookies in Ihrem Browser.
my.bionity.com
Mit einem my.bionity.com-Account haben Sie immer alles im Überblick - und können sich Ihre eigene Website und Ihren individuellen Newsletter konfigurieren.
- Meine Merkliste
- Meine gespeicherte Suche
- Meine gespeicherten Themen
- Meine Newsletter
Lokalisation (Akustik)Unter Lokalisation versteht man das Erkennen von Richtung und Entfernung einer Schallquelle als Richtungshören und Entfernungshören, also die Richtungslokalisation und die Entfernungslokalisation.
Die Lokalisation von Schallquellen ist ein Ergebnis des beidohrigen (binauralen) Hörens. Dieser Artikel beschreibt die Lokalisation von Schallquellen beim Menschen. Bei Tieren spielen z. T. noch andere Effekte eine Rolle (z. B. Einfluss von Ohrbewegungen). Wenn Fledermäuse hohe Töne ausstoßen und aus den Reflexionen, also aus den Sekundärsignalen das Hindernis erkennen, dann wird dieses Ortung genannt. Weiteres empfehlenswertes FachwissenPrinzip der Lokalisation im RaumIm Bild sind die möglichen Ebenen dargestellt, die zur Lokalisation einer Schallquelle im Raum genutzt werden können. Für eine eindeutige Lokalisation sind aber nur folgende Angaben erforderlich:
Mit den ersten beiden Angaben kann man winkelmäßig den gesamten Raum aufspannen (Drehen der Halbebene um den Winkel der Vollebene). Dieses entspricht auch dem Zusammenspiel der Mechanismen, die das Gehör zur Lokalisation von Schallquellen benutzt. Je nach den Mechanismen, die das Gehör zur Lokalisation benutzt, sind folgende Kategorien zu unterscheiden (Halbebene, Vollebene und Entfernung):
Mit Hilfe der ersten beiden Mechanismen lässt sich der Raumwinkel bestimmen, unter dem der Schall einfällt und mit Hilfe des letzten Mechanismus die Entfernung. Für die Auswertung einer Einfallsrichtung in der Frontalebene besitzt das Gehör keine direkten Mechanismen. Schallquellen in der Frontalebene werden über die Kombination der Mechanismen für horizontalen Einfallswinkel und Medianebene lokalisiert. Bestimmung der seitlichen Einfallsrichtung: links, geradeaus, rechtsZur Bestimmung der seitlichen Einfallsrichtung (Schall links, geradeaus, rechts) wertet das Gehör folgende Informationen als Ohrsignale aus:
Bei tiefen Frequenzen unterhalb von ca. 800 Hz werden vor allem Laufzeitunterschiede ausgewertet (Phasenlaufzeiten), bei hohen Frequenzen oberhalb von ca. 1600 Hz vor allem Pegelunterschiede. Dazwischen liegt ein Überlappungsbereich, in dem beide Mechanismen eine Rolle spielen. Die Qualität der Richtungsbestimmung wird hiervon aber nicht beeinträchtigt. Auswertung bei tiefen FrequenzenBei tiefen Frequenzen unterhalb 800 Hz sind die Abmessungen des Kopfes mit einer Wegstrecke d = 21,5 cm von Ohr zu Ohr, entsprechend einer Laufzeitdifferenz von 0,63 ms, kleiner als die halbe Wellenlänge des Schalls. Hier kann das Gehör Phasenlaufzeiten zwischen beiden Ohren sehr exakt auswerten. Die Pegelunterschiede sind hierbei so gering, dass sie keine genaue Auswertung gestatten. Frequenzen unterhalb von 80 Hz sind nicht mehr in ihrer Richtung zu lokalisieren. Auswertung bei hohen FrequenzenBei hohen Frequenzen oberhalb von 1600 Hz sind die Abmessungen des Kopfes größer als die Wellenlänge des Schalls. Hier kann das Gehör aus Phasenlaufzeiten die Richtung nicht mehr eindeutig bestimmen. Dafür werden Pegelunterschiede größer, die dann auch vom Gehör ausgewertet werden. Zusätzlich werden (auch bei höheren Frequenzen) Gruppenlaufzeiten zwischen beiden Ohren ausgewertet: Das heißt, setzt ein Schall neu ein, lässt sich aus der Verzögerung des Schalleinsatzes zwischen beiden Ohren die Richtung bestimmen. Dieser Mechanismus ist besonders in halliger Umgebung wichtig. Bei Einsatz des Schalls gibt es einen kurzen Zeitraum, in dem schon der Direktschall den Hörer erreicht, aber noch kein reflektierter Schall. Das Gehör nutzt diesen Zeitraum der Anfangszeitlücke (ITDG = "Initial Time Delay Gap") zur Richtungsbestimmung und behält die erkannte Richtung bei, solange aufgrund der Reflexionen keine eindeutige Richtungsbestimmung mehr möglich ist. Diese Mechanismen können nicht zwischen vorne und hinten unterscheiden. Entsprechend kann durch diese Mechanismen auch nicht die gesamte Horizontalebene aufgespannt werden. Bestimmung der Einfallsrichtung in der Medianebene: vorn, oben, hinten und untenDas Außenohr des Menschen, das heißt die Ohrmuschel und der Anfang des Gehörgangs wirken als richtungsselektive Filter. In der Struktur der Ohrmuschel werden je nach Schalleinfallsrichtung in der Medianebene unterschiedliche Resonanzen angeregt. Dieses führt dazu, dass jede dieser Richtungen (vorne, oben, hinten, unten) ein unterschiedliches Resonanzmuster besitzt. Der Frequenzgang der Ohren bekommt so richtungsspezifische Muster eingeprägt, die vom Gehör-Gehirn-System ausgewertet werden. (Richtungsbestimmende Bänder) Diese Muster im Frequenzgang sind individuell, je nach Form und Größe der eigenen Ohrmuschel. Bekommt man Schall über Kopfhörer dargeboten, der von einem anderen Kopf mit anderen Ohrmuscheln aufgenommen wurde, wird die Erkennung der Richtung in der Medianebene nicht mehr problemlos möglich. Beispiel: Das überwiegende Hinten-Lokalisieren von Kunstkopfaufnahmen und die „Im-Kopf-Lokalisation (IKL)“. Bestimmung der Entfernung der SchallquelleDie Bestimmung der Entfernung der Schallquelle ist beim Menschen nur eingeschränkt möglich. Als Indizien für die Entfernungsbestimmung im Nahbereich dienen z. B. extreme Pegelunterschiede (z. B. beim Flüstern in ein Ohr), spezielle Resonanzmuster der Ohrmuschel im Nahbereich. Zur Entfernungswahrnehmung können folgende Informationen genutzt werden:
SignalverarbeitungDie Lokalisation von Schallquellen durch das menschliche Ohr erfolgt in sogenannten Frequenzgruppen. Der Hörbereich ist in etwa 24 Frequenzgruppen eingeteilt, mit jeweils einer Breite von 1 Bark oder 100 Mel. Zur Richtungsbestimmung werden die Signalanteile innerhalb einer Frequenzgruppe gemeinsam ausgewertet. Das Gehör kann die Schallsignale einer lokalisierten Schallquelle aus Umgebungsgeräuschen extrahieren. Zum Beispiel kann sich das Gehör auf einen Sprecher konzentrieren, wenn gleichzeitig andere Sprecher dazwischen reden. Lokalisation in geschlossenen RäumenIn geschlossenen Räumen wirkt nicht nur der Schall aus der Richtung der Schallquelle auf das Gehör ein, sondern auch von den Wänden reflektierter Schall. Zur Richtungsbestimmung wird aber nur der zuerst eintreffene Direktschall, nicht aber der später eintreffende reflektierte Schall vom Gehör ausgewertet (Gesetz der ersten Wellenfront). Hierdurch bleibt eine korrekte Richtungsbestimmung der Schallquelle möglich. Hierzu wertet das Gehör starke zeitliche Änderungen der Lautstärke in verschiedenen Frequenzgruppen aus. Kommt es zu einem starken Anstieg der Lautstärke in einer oder mehreren Frequenzgruppen, handelt es sich mit großer Wahrscheinlichkeit um den Direktschall einer Schallquelle, die neu einsetzt oder deren Signal die Eigenschaften verändert. Dieser kurze Zeitraum wird vom Gehör zur Richtungsbestimmung (und auch Lautheitsbestimmung) genutzt. Später eintreffende Reflexionen erhöhen die Lautstärke in den betroffenen Frequenzgruppen nicht mehr so stark, so dass hier keine neue Richtungsbestimmung erfolgt. Die einmal erkannte Richtung wird dann so lange als Richtung der Schallquelle benutzt, bis aufgrund von stärkeren Lautstärkeanstiegen wieder eine neue Richtungsbestimmung möglich ist. Siehe Franssen-Effekt. Abgrenzung zu anderen BegriffenDer Begriff „Lokalisation“ wird benutzt, wenn durch einen passiven Empfänger (z. B. die menschlichen Ohren) die Position eines aktiven Senders (z. B. eines Sprechers) bestimmt wird. Dem gegenüber wird der Begriff Ortung benutzt, wenn durch einen aktiven Sender und Empfänger (z. B. eine Fledermaus) die Position eines passiven Reflektors (z. B. ein Insekt) bestimmt wird. Technische Ortungsverfahren wie Radar, Echolot und aktive Sonarverfahren nutzen die Reflexion ausgesandter Wellen an den zu ortenden Objekten. So ist es auch bei den Fledermäusen: diese orten aktiv, indem sie Ultraschall-Laute ausstoßen und die dabei entstehenden Reflexionen zur Hindernis- und Beuteerkennung auswerten. Technische Verfahren wie die Funkpeilung, die Satellitennavigation, passive Sonarverfahren und Infraschallsensoren werten jedoch ganz ähnliche Zusammenhänge wie das menschliche Ohr aus, z. B. die Gruppenlaufzeit oder die Phasenlage. Bei diesen passiven Verfahren, insbesondere beim passiven Sonar, spricht man ebenfalls von Lokalisation. Mit Lateralisation bezeichnet man die Bestimmung der Position von Hörereignissen, die im Kopf wahrgenommen werden. Diese Hörereignisse entstehen, wenn z. B. über Kopfhörer Schall dargeboten wird, bei dem die Laufzeit- und Pegeldifferenzen nicht mit denen des "natürlichen" Hörens übereinstimmen. Lateralisationsexperimente werden z. B. benutzt, um den Einfluss von Pegel- und Laufzeitdifferenzen an den Ohren einzeln und unabhängig voneinander zu untersuchen. Werden Hörereignisse außerhalb des Kopfes wahrgenommen, so ist der Begriff Lokalisation zur Beschreibung der Richtung und Entfernung des Hörereignisses korrekt. In einigen Veröffentlichungen wird die seitliche Auslenkung einer Phantomschallquelle bei Lautsprecher-Stereofonie unrichtig mit „Lateralisation“ bezeichnet; dafür sollte das geeignetere Wort „Lokalisation“ verwendet werden. Lokalisation bei der Stereo-LautsprecherwiedergabeBeim Stereohören im Stereodreieck werden die Orte der Phantomschallquellen auf der Lautsprecherbasis durch die Hörereignisrichtung als Auslenkung in Prozent aus der Mitte (Center) lokalisiert und angegeben. Frequenzneutrale Interchannel-Pegeldifferenzen und Interchannel-Laufzeitdifferenzen führen durch Summenlokalisation zu verschiebbaren Phantomschallquellen. Bei der Lautsprecherstereofonie sind Spektraldifferenzen, das sind frequenzabhängige Pegeldifferenzen zu vermeiden, weil diese zu Klangverfärbungen bei seitlichen Schalleinfallsrichtungen führen. Siehe auchAkustik | Ohr | Kunstkopf | Hörversuch | Hörereignisrichtung | Phantomschallquelle | Stereofonie | Unschärfe | |
Dieser Artikel basiert auf dem Artikel Lokalisation_(Akustik) aus der freien Enzyklopädie Wikipedia und steht unter der GNU-Lizenz für freie Dokumentation. In der Wikipedia ist eine Liste der Autoren verfügbar. |