Team Audiosignalverarbeitung

Die wesentliche Forschungs- und Entwicklungsaufgaben der Arbeitsgruppe Audiosignalverarbeitung sind:

  • Ein- und Mehrkanalige Geräuschreduktionsalgorithmen einschließlich der notwendigen Vorverarbeitung
  • Monitoring und Analyse von akustischen Daten
  • Verbesserung der Lehre als Forschungsaufgabe
  • Allgemeiner technischer Support in Fragen der Daten- und Signalverarbeitung

Laufende Projekte

Binaurales Hören in der realen und virtuellen Welt zur Verbesserung der Hör-Erfahrung von Schulkindern (ViWer-S)

Das Vorhaben ViWer-S setzt sich zum Ziel, die Hörwahrnehmung von Kindern in Gruppen, speziell in Schulklassen zu verbessern. Im Fokus stehen Kinder mit einer Schwäche der räumlichen auditiven Wahrnehmung. Das räumliche Hören trägt wesentlich zur Nachhall- und Störgeräuschreduktion bei und ermöglicht auch in akustisch schwierigen Umgebungen eine hohe Sprachverständlichkeit.

In diesem Vorhaben behandeln wir dieses Themenfeld mit zwei unterschiedlichen Ansätzen. Zum einen wird eine technische Hörhilfe für die Nutzung im Klassenraum entwickelt (Teilprojekt „Besser Hören im realen Klassenraum“, Jade HS) und zum anderen werden die räumlichen Wahrnehmungsfähigkeiten mit Hilfe eines App-basierten Systems trainiert (Teilprojekt „App-basiertes Lernen“, TH Köln). Im Teilprojekt „Besser Hören im realen Klassenraum“ soll ein System entwickelt werden, das es ermöglicht, in der realen Klassenraumsituation die räumliche Position der sprechenden Personen (Lehrer_innen oder Mitschüler_innen) zu schätzen, die Signale zu verbessern (Enthallung und Störgeräuschbefreiung) und anschließend bezogen auf die Kopfausrichtung räumlich richtig dem Kind zu präsentieren

Antragsteller_innen:  Jörg Bitzer, Karsten Plotz, Christoph Pörschmann (TH Köln)
Projektleitung: Christoph Pörschmann (TH Köln),  Jörg Bitzer (Jade Hochschule)
Mitarbeiter_innen (Jade HS): Ulrik Kowalk, Petra von Gablenz, Annäus Wiltfang
Projektlaufzeit: 01/2019 – 12/2022
Fördermittelgeber: BMBF (IngenieurNachwuchs)
In Kooperation mit: Technische Hochschule Köln

Interaktives Skript basierend auf Python Jupyter Notebooks (InSPy)

„Sage es mir, und ich werde es vergessen. Zeige es mir, und ich werde es vielleicht behalten. Lass es mich tun, und ich werde es können (Konfuzius).“

In diesem Sinne soll im vorgeschlagenen Projekt die klassische Form des Vorlesungs-Skriptes als Buch/PDF-Dokument vom Zeigen des Textes zu einer interaktiven Form des Mitarbeitens, Gestaltens und Verstehens gebracht werden. Durch Nutzung von sog. Notebooks (Live-Skripte in Matlab oder Jupyter Notebook für Python) ist es möglich, Text und Bild interaktiv zu gestalten. Der Source-Code, der ein Bild generiert, liegt vor und kann verändert werden, so dass der Einfluss einzelner Parameter deutlicher wird. Die direkte Verknüpfung von Übungsaufgaben und Script ist ebenfalls möglich. Hypertextverknüpfungen ermöglichen, die Zusammenhänge deutlicher zu gestalten. Langfristig erlernen die Studierenden nebenbei als Kompetenz, wie wiss. Ergebnisse richtig und der Disziplin entsprechend dargestellt und die dafür benötigten Grafiken erzeugt werden. Die Mitgestaltung durch eine Anbindung an das bereits vorhandene Versionsverwaltungssystem GitLab motiviert die Kursteilnehmenden zusätzlich, da Lücken oder Fehler direkt verbessert werden können.

Antragsteller_innen: Jörg Bitzer
Projektleitung: Jörg Bitzer
Mitarbeiter_innen: Sven Kissner
Projektlaufzeit: 01/2021 – 12/2022
Fördermittelgeber: MWK (Innovation Plus 2020/21)

Web-basierter Audio-Editor zur robusten Daten-Gewinnung und Online-Verarbeitung (WE-DO)

Vermittlung von maschinellem Lernen und modernen Signalverarbeitungsalgorithmen in der Anwendung für Sprache und Musik ist anspruchsvoll und erfordert von den Studierenden ein hohes Abstraktionsvermögen in kurzer Zeit. In diesem Projekt soll als wesentliches neues Werkzeug ein web-basierter Audio-Editor entwickelt werden, der die Lehre für diesen wichtigen Bereich unterstützt. Durch die zweisemestrige Laufzeit können die Studierenden aktiv in den Entwicklungs- und Evaluationsprozessprozess eingebunden werden. Das fertige Projekt wird als Open-Source Werkzeug der Allgemeinheit zur Verfügung gestellt und bietet auch für den Bereich „Citizen Science“ großes Potenzial.

Ziel des Projektes ist die Entwicklung eines web-basierten, einfach zu nutzenden Audio-Editors mit der Anbindung an eine vorhandene Audiodatenbank. Dies ermöglicht Stu­die­renden, eigene Audio-Aufzeichnungen (z.B. Umweltgeräusche, aufgenommen mit dem Smartphone) mit einer Wellenformdarstellung zu schneiden, zu klassifizieren (Tags mit zeitlichen Markern vergeben) und auf Verstöße gegen den Datenschutz (un­gewollte Aufzeichnung von privaten Gesprächen im Hintergrund) zu prüfen. Mit Hilfe des Editors können die in der Vorlesung bearbeiteten und entwickelten Audio-Effekte direkt an eigenem Audio-Material getestet werden. Zusätzlich ermöglicht der Editor, be­stehende Audiodatenbanken zur Bearbeitung, für das Tagging und zur Klassifikation zu nutzen.

Antragsteller_innen: Jörg Bitzer
Projektleitung: Jörg Bitzer
Mitarbeiter_innen: Sven Franz
Projektlaufzeit: 01/2022 – 12/2022
Fördermittelgeber: MWK (Innovation Plus 2021/22)
 

Good auditory ecology for active and healthy aging - Gutes Hören für aktives und gesundes Altern AudEc

AudEc ist ein schwedisch-britisch-deutsches Kooperationsprojekt. Wissenschaftler_innen erforschen die akustischen Alltagsbedingungen und ihre Wahrnehmung durch das alternde Gehör. Eine zentrale Methode des Projekts ist das Ecological Momentary Assessment (EMA). Unter EMA versteht man eine vielfach wiederholte, mit digitalen Hilfsmitteln durchgeführte Erhebung subjektiver und objektiver Daten im Alltag.

In AudEc wird das EMA-System olMEGA eingesetzt, das hier am IHA im Forschungsschwerpunkt HALLO entwickelt wurde und kontinuierlich weiterentwickelt wird. Die Probandenuntersuchungen finden in Linköping statt. Teilnehmen werden Frauen und Männer zwischen 65-80 Jahren.

Zunächst führen die Studienteilnehmer_innen eine dreiwöchige EMA durch. Die Alltagsdaten werden individuell analysiert. Für jede Teilnehmerin, jeden Teilnehmer wird eine einzelne Hörsituation mit störenden Umgebungsgeräuschen ausgewählt, die als besonders schwierig beschrieben wurde. Aus den objektiven technischen Daten, die für diese schwierige Situation gespeichert sind, wird sodann ein individualisierter Hörtest erstellt. Jede Teilnehmerin, jeder Teilnehmer wird in der Störschallkondition getestet, die als besonders schwierig und störend erlebt wurde. Zusätzlich werden verschiedene hörrelevante Größen in Laborexperimenten untersucht. In einem der Experimente geht es um die Verwendung von Kommunikationsstrategien. Zwei Teilnehmer_innen erhalten eine Aufgabe (Bildervergleich), die nur mit einem fortgesetzten Frage- und Antwortdialog zu bewältigen ist. Die solcherart motivierten Gespräche werden mit verschiedenen, alltagsnahen Störgeräuschen begleitet.

AudEc ist wie die Vorgängerprojekte HALLO und IHAB-RL ein stark interdisziplinär ausgerichtetes Projekt. An der Planung und Durchführung sind Wissenschaftler_innen aus der Psychologie, Audiologie, Signalverarbeitung und der Rehabilitationsforschung beteiligt.

Antragsteller_innen: Inga Holube   Mary Rudner   Jörg Bitzer   Valerie Hazan
Projektleitung: Inga Holube (bis 2021: Mary Rudner)
Mitarbeiter_innen: Sven Franz   Holger Groenwold   Elisabeth Ingo   Ulrik Kowalk   Petra von Gablenz
Projektlaufzeit: 07/2021 – 12/2022
Fördermittelgeber: Forte (SE)
In Kooperation mit: Universität Linköping University College London

Analyse der Sprachaktivität bei Kindern und älteren Menschen (ASKME)

Ziel dieses Antrags ist der Aufbau einer hard- und software-basierten Lösung zur dauerhaften akustischen Datenaufzeichnung unter Berücksichtigung der Privatsphäre. Motiviert ist die Projektidee durch die Notwendigkeit, bei bestimmten definierten Forschungsfragen Proband_innen in ihrem natürlichen Lebensalltag zu beobachten, ohne das gesprochene Wort aufzuzeichnen, da dies im privaten Raum nur mit der Zustimmung aller beteiligten Personen erfolgen darf. Als mögliche Anwendungen werden die Sprachentwicklung von Kindern oder die Demenz- und Depressionsdetektion bei älteren Menschen adressiert. Für beide Aufgaben muss die Sprachaktivität der Proband_innen und der jeweiligen Betreuer_innen bzw. Eltern gemessen werden. Als Ergebnis liegt im Erfolgsfall ein Komplettsystem vor, das durch eine Pilot-Studie validiert ist und in mehreren internationalen Fachartikeln technisch und in der Anwendung vorgestellt wurde.

Antragsteller_innen: Jörg Bitzer
Projektleitung: Jörg Bitzer
Mitarbeiter_innen: Jule Pohlhausen
Projektlaufzeit: 08/2022 – 07/2025
Fördermittelgeber: Jade Hochschule (Jade2Pro 2.0)
In Kooperation mit: Universität Oldenburg

Publikationen

Vollständige Liste aller Publikationen:

Übersicht aller Publikationen der AG Audio-SV (neue Web-Seite TGM Publikationsdatenbank)

Publikationsauswahl nach Themen:

Monitoring und Analyse von akustischen Daten:

Gablenz, P. v., Kowalk, U., Bitzer, J., Meis, M. & Holube, I. (2021). Individual Hearing Aid Benefit in Real Life Evaluated Using Ecological Momentary Assessment. Trends in Hearing 25, 1-18.

Ohlenbusch, M., Ahrens, A., Rollwage, C. & Bitzer, J. (2021). Robust Drone Detection for Acoustic Monitoring Applications. 2020 28th European Signal Processing Conference (EUSIPCO), pp. 6-10.

Holube, I., Gablenz, P. v. & Bitzer, J. (2020). Ecological Momentary Assessment (EMA) in hearing research – current state, challenges, and future directions. Ear and Hearing 41 (S1), 79S-90S.

Kowalk, U., Franz, S., Groenewold, H., Holube, I., Gablenz, P. v. & Bitzer, J. (2020). olMEGA: An open source android solution for ecological momentary assessment. GMS Zeitschrift für Audiologie - Audiological Acoustics 2, 1-9.

Bitzer, J., Bilert, S. & Holube, I. (2018). Evaluation of binaural Own Voice Detection (OVD) algorithms. Speech Communication; 13th ITG-Symposium, Oldenburg, Germany, VDE, pp. 161-165.

Franz, S., Groenewold, H., Holube, I. & Bitzer, J. (2018). Open Hardware Mobile Wireless Serial Audio Transmission Unit for Acoustical Ecological Momentary Assessment using Bluetooth RFCOMM. 144th Convention of the Audio Engineering Society, 23.-26. Mai, Mailand, Italien.

Groenewold, H., Franz, S., Holube, I. & Bitzer, J. (2018). Wearable mobile Bluetooth device for stereo audio transmission to a modified Android smartphone. 144th Convention of the Audio Engineering Society, 23.-26. Mai, Mailand, Italien.

Bitzer, J. & Kissner, S. (2016). Two-channel Coherence-Based Own Voice Detection for Privacy-aware Longterm Acoustic Measurements. Speech Communication; 12. ITG Symposium; Proceedings of, pp. 1–5.

Bitzer, J., Kissner, S. & Holube, I. (2016). Privacy-Aware Acoustic Assessments of Everyday Life. J. Audio Eng. Soc 64 (6), 395–404.

 

Signalverarbeitung für die Akustik / akustische Messtechnik:

Imbery, C., Franz, S., van de Par, S. & Bitzer, J. (2019). Auditory Facing Angle Perception: The Effect of Different Source Positions in a Real and an Anechoic Environment. Acta Acustica united with Acustica 105 (3), 492–505.

Busse, C., Krause, T., Ostermann, J. & Bitzer, J. (2019). Improved Gunshot Classification by Using Artificial Data. Audio Engineering Society Conference: 2019 AES INTERNATIONAL CONFERENCE ON AUDIO FORENSICS.

Imbery, C., Franz, S., van de Par, S. & Bitzer, J. (2018). Method to Estimate the Acoustic Center of Directional Sources and its Psychoacoustic Evaluation. J. Audio Eng. Soc 66 (12), 1062–1071.

Dollack, F., Imbery, C. & Bitzer, J. (2017). On the Analysis of Acoustic Distance Perception in a Head Mounted Display. pp. 051-054.

 

Geräuschreduktion:

Ruhland, M., Bitzer, J., Brandt, M. & Goetze, S. (2015). Reduction of gaussian, supergaussian, and impulsive noise by interpolation of the binary mask residual. Audio, Speech, and Language Processing, IEEE/ACM Transactions on 23 (10), 1680-1691.

Gerlach, S., Bitzer, J., Goetze, S. & Doclo, S. (2014). Joint estimation of pitch and direction of arrival: improving robustness and accuracy for multi-speaker scenarios. EURASIP Journal on Audio, Speech, and Music Processing 2014 (1), 1-17.

Bitzer, J. & Brandt, M. (2010). Speech enhancement by adaptive noise cancellation: Problems, algorithms, and limits. Audio Engineering Society Conference: 39th International Conference: Audio Forensics: Practices and Challenges.

Bitzer, J. (2002). Mehrkanalige Geräuschunterdrückungssysteme: eine vergleichende Analyse. Vol. 33, Shaker.

Bitzer, J. & Simmer, K. U. (2001). Superdirective microphone arrays. In: Microphone arrays, Springer Berlin Heidelberg, pp. 19-38.

Simmer, K. U., Bitzer, J. & Marro, C. (2001). Post-filtering techniques. In: Microphone arrays, Springer Berlin Heidelberg, pp. 39-60.

 

Audiorestauration:

Brandt, M., Doclo, S. & Bitzer, J. (2019). Automatic Noise PSD Estimation for Restoration of Archived Audio. J. Audio Eng. Soc 67 (1/2), 38–53.

Brandt, M., Doclo, S., Gerkmann, T. & Bitzer, J. (2017). Impulsive Disturbances in Audio Archives: Signal Classification for Automatic Restoration. J. Audio Eng. Soc 65 (10), 826–840.

Brandt, M. & Bitzer, J. (2014). Automatic Detection of Hum in Audio Signals. Journal of the Audio Engineering Society 62 (9), 584-595.

Brandt, M. & Bitzer, J. (2012). Hum Removal Filters: Overview and Analysis. Audio Engineering Society Convention 132.

Brandt, M., Schmidt, T. & Bitzer, J. (2011). Evaluation of a New Algorithm for Automatic Hum Detection in Audio Recordings. Audio Engineering Society Convention 130.