KI verbessert Hörerlebnis bei Hörimplantaten

In lauter Umgebung ist es mit einem Hörgerät oder Hörimplantat schwer, ein Gegenüber zu verstehen, weil derzeitige Audioprozessoren noch Schwierigkeiten haben, sich präzise genug auf bestimmte Schallquellen zu fokussieren. Dass Künstliche Intelligenz dieses Problem lösen könnte, zeigen Forschende des Hörforschungslabors der Universität Bern und des Inselspitals nun in einer Machbarkeitsstudie.

Hörgeräte oder Hörimplantate sind aktuell nicht sehr gut darin, für den Träger oder die Trägerin aus vielen Schallquellen gezielt Sprache herauszufiltern – eine natürliche Fähigkeit unseres Gehirns, die bei gesundem Hören funktioniert und in Fachkreisen als «Cocktail-Party-Effekt» bezeichnet wird. Entsprechend schwierig ist es für Personen mit Hörhilfen, in lauter Umgebung einer Unterhaltung zu folgen. Forschende des Hörforschungslabors (HRL) des ARTORG Center, Universität Bern, und des Inselspitals haben nun einen ungewöhnlichen Ansatz erarbeitet, um Hörhilfen in dieser Hinsicht zu verbessern: virtuelle Zusatzmikrofone, deren Signale von einer Künstlichen Intelligenz errechnet werden.

Wie ein unsichtbares Mikrofon auf der Stirn

Je mehr Mikrofone ein Audioprozessor zur Verfügung hat und je breiter diese verteilt sind, desto besser kann eine Hörhilfe den Schall aus einer bestimmten Richtung fokussieren. Die meisten Hörgeräte besitzen aus Platzgründen zwei nahe beieinander liegende Mikrofone. Im ersten Teil der Studie hat das Hearing Research Laboratory (HRL) ermittelt, dass die optimale Mikrofon-Position (für eine bessere Fokussierung) mitten auf der Stirn liegt - allerdings eine sehr impraktikable Stelle. «Dieses Problem wollten wir umgehen, indem wir dem Audioprozessors mit künstlicher Intelligenz ein virtuelles Mikrofon hinzufügen,» erklärt Tim Fischer, Postdoktorand am HRL, den unkonventionellen Lösungsansatz.

Cocktail-Party-Daten, ein lernendes Neuronales Netzwerk, ein Probandentest

Für den Studienaufbau nutzten die Ingenieure des ARTORG Center den «Bern Cocktail-Party-Datensatz», eine Sammlung einer Vielzahl von Geräusch-Szenarien mit mehreren Schallquellen aus Multi-Mikrofon-Aufnahmen von Hörgerät- oder Cochlea-Implantat-Trägern. Anhand von 65 Stunden Audioaufnahmen (über 78‘000 Audiodateien) trainierten sie ein neuronales Netzwerk zur Verfeinerung eines häufig eingesetzten Richtwirkungs-Algorithmus (Beamforming). Für ein verbessertes Sprachverstehen errechnete der Deep-Learning-Ansatz zusätzliche virtuelle Mikrofon-Signale aus dem Audiodaten-Gemisch. 20 Probandinnen und Probanden testeten das KI-verstärkte Hören in einem subjektiven Hörtest, begleitet von objektiven Messungen. Insbesondere in Cocktail-Party-Settings verbesserten die virtuell abgetasteten Mikrofonsignale die Sprachqualität signifikant. Hörgeräte- und Cochlea-Implantat-Nutzende könnten daher besonders in lauten Umgebungen von dem vorgestellten Ansatz profitieren. Die Machbarkeitsstudie wurde nun im Science Direct-Journal «Hearing Research» publiziert.

«Ich denke, dass Künstliche Intelligenz einen wichtigen Beitrag für die nächste Generation von Hörprothesen darstellt, da sie grosses Potenzial für eine Verbesserung des Sprachverstehens, insbesondere in schwierigen Hörsituationen hat,» sagt Marco Caversaccio, Chefarzt und HNO-Klinikdirektor. Da auditive Unterstützungs-Technologien und -Implantate zu einem Schwerpunkt der Forschungsarbeit am Inselspital gehören, werden hier wichtige datenbasierte Grundlagen für eine Weiterentwicklung geschaffen, die dem natürlichen Hörerlebnis näher kommen soll. Die neuartigen Ansätze kommen im Rahmen von Translationsstudien direkt den Patientinnen und Patienten zugute.

Ausblick

Obwohl die virtuell addierten Mikrofone die Qualität des Sprachverstehens mit Hörhilfe innerhalb dieser Studie deutlich verbesserten, müssen weitere Studien noch einige technische Hürden nehmen, bevor die Methodik in Hörgeräten oder Cochlea-Implantat-Audioprozessoren eingesetzt werden kann. Dazu gehört etwa ein stabil funktionierendes Richtungsverstehen auch in Umgebungen mit einem grossen Nachhall.

Hörforschungs-Labor (Hearing Research Laboratory)

Das Hearing Research Lab ist eine klinisch ausgerichtete Forschungskooperation zwischen dem ARTORG Center for Biomedical Engineering Research, Universität Bern, und der Universitätsklinik für Hals-, Nasen- und Ohrenkrankheiten, Kopf- und Halschirurgie des Inselspitals (Universitätsspital Bern). Ein multidisziplinäres Team vereint die Expertise von Ingenieurswissenschaften, Audiologie, Chirurgie und Physik. Ziel ist es, neuartige medizinische Technologien zu entwickeln, die hörgeschädigten Menschen helfen und Klinikerinnen und Kliniken bei der Diagnose und Behandlung von Innenohrerkrankungen unterstützen. Das Spektrum der Forschungsaktivitäten umfasst psychoakustische Experimente, anatomische und elektrophysiologische Studien, das Design und die Implementierung klinischer Software und Medizinalprodukte sowie die Durchführung von Beobachtungsstudien und klinischen Versuchen. Um nachhaltige Forschungsfortschritte zu fördern, arbeitet das Hearing Research Lab aktiv mit führenden medizinischen, akademischen und industriellen Partnern in der Hörforschung zusammen.

Hearing Research Lab

Quelle: Inselgruppe

30.06.2021