• Beschreibung

    Die akustische (Sprach-)Kommunikation ist die Grundlage unserer Kultur, unterliegt jedoch aufgrund verschiedener Beeinträchtigungen (z.B. Störschall, zunehmen Hörschäden in der Bevölkerung, Nachhall, Nutzer-Präferenzen und -Erwartungen,...) starken Herausforderungen - von der Wohnumgebung für ältere Menschen über die Bahnhofshalle bis zur Kommunikation im Auto oder auf einer Cocktail-Party. Die verfügbaren technischen Lösungen zur individuellen Unterstützung der Hörwahrnehmung (z.B. Hörgeräte, Bluetooth-Headsets) sind in ihrer Zielgruppe, ihrem jeweiligen Anwendungs-Szenario und ihrer Funktionalität (d.h. tatsächliche Hör-Unterstützung des individuellen Benutzers) stark limitiert.Aus akustischer Sicht lässt sich dies auf das bisher ungelöste Störquellen-, Darbietungs- und Anpassungsproblem zurückführen. Wie können diese Probleme (approximativ) gelöst werden, um die korrekte Wahrnehmung eines akustischen Signals (Sprache, Musik, Warnsignal,...) beim individuellen Menschen (normalhörig oder mit offenem oder verdecktem Hörverlust) und bei einer akustisch schwierigen Situation sicherzustellen?Zur Beantwortung dieser zentralen Forschungs-Fragen sollen Hörmodelle und Algorithmen erforscht und als Teil von Demonstratoren entwickelt werden, welche die akustische Wahrnehmung in möglichst vielen Situationen für möglichst viele individuelle Benutzerprofile vorhersagbar und steuerbar machen. Die Demonstratoren sollen als Grundlage für zukünftige Systeme dienen, die langfristig die akustische Wahrnehmung für alle Menschen in allen akustischen Situationen optimieren.

    Projektdetails

    Projektleitung
    Prof. Dr.-Ing. Matthias Blau
    Gefördert durch
    Forschungsgemeinschaft Deutscher Hörgeräte-Akustiker (FDHA)
    Mittelherkünfte
    Drittmittel