Menschen seien sehr gut darin, Sprache auch unter schwierigen Bedingungen zu verstehen. Doch gerade für schwerhörige Menschen machten laute Hintergrundgeräusche es sehr schwierig, einem Sprecher zu folgen. Hörgeräte helfen dabei kaum, da sie es derzeit noch nicht ausreichend schaffen, Hintergrundgeräusche herauszufiltern, erklärt die Friedrich-Alexander-Universität Erlangen-Nürnberg.

Wissenschaftlerinnen und Wissenschaftler der Friedrich-Alexander-Universität Erlangen-Nürnberg (FAU) entwickeln demnach eine Methode, die Menschen helfe, Sprache trotz Hintergrundrauschen besser zu verstehen. Die Ergebnisse der Studie wurden im Wissenschaftsjournal PNAS veröffentlicht*.

"Stören Geräusche wie laute Musik, klirrendes Besteck im Restaurant oder raunende Stimmen das Hören, machen es solche Schallquellen insbesondere für Hörgerätträgerinnen und -trägern schwierig, ihr Gegenüber, mit dem sie ein Gespräch führen möchten, zu verstehen. Das liegt daran, dass Hörgeräte zwar leise Schallsignale verstärken, aber nicht die volle Bandbreite des Gehörs adäquat bedienen können", so die FAU.

Forschende der FAU zeigten:  Wenn zusätzlich zum Sprachsignal ein Vibrationsimpuls übermittelt wird, sich das Spracherstehen von Testpersonen in Räumen, in denen ein hoher Geräuschpegel herrscht, signifikant verbessere. Im Experiment hätten die Wissenschaftlerinnen und Wissenschaftler einen kleinen Vibrationsmotor verwendet, den Experimentteilnehmerinnen und -teilnehmer zwischen Daumen und Zeigefinger halten. An dieser Stelle sei der Körper besonders sensibel für taktile Signale.

Der Impuls, den der Motor sendet, sei mit der Vibration vergleichbar, die von Smartphone-Displays beim Berühren ausgeht. Im Zentrum jeder gesprochenen Silbe gebe der Motor eine leichte Vibration.  Dieser Impuls helfe beim Verstehen, weil das Nervensystem, das für das Fühlen zuständig ist, das Signal unter anderem an den auditorischen Kortex – den Bereich, der im Gehirn dafür zuständig ist, Schall- und Sprachsignale zu verarbeiten – weitergebe. In diesem Hirnareal werde so der Rhythmus von Silben nachgebildet und unterstütze damit das Dekodieren von Silben sowie das Verstehen des Sprachsignals.

"Im Experiment wählten die Forschenden bestimmte Sprachsignale, die sie den Teilnehmerinnen und Teilnehmern vorspielten. Die Zentren der gesprochenen Silben wurden im Vorhinein berechnet und der Vibrationsmotor so angesteuert, dass er zu den entsprechenden Zeiten ein Signal sendete. Ob sich die Impulse auch zum richtigen Zeitpunkt übermitteln lassen, wenn die Wissenschaftlerinnen und Wissenschaftler die Zentren der Silben nicht vor dem Experiment berechnen, wollen sie im nächsten Schritt herausfinden", erklärt die Uni.

Auch ob der Zeigefinger die optimale Stelle ist, den Motor zu halten, wollen sie demnach erforschen, denn "für die Kombination mit einem Hörgerät wäre auch die Nähe des Ohres eine gute Stelle, das haptische Signal zu übermitteln". Die Ergebnisse, die heute schon vorliegen, sollen zur Entwicklung neuer multisensorischer Hörhilfen führen, die Benutzerinnen und Benutzer helfen, Sprache besser zu verstehen.

Vorschaubild: © Mark Paton/ Unsplash (Symbolfoto)