Music Information Retrieval

Der Forschungsbreich Music Information Retrieval (MIR) umfasst die Extraktion und Aggregation von Informationen aus musikalischen Audiodaten. MIR bezieht seine Methoden dabei aus einer Vielzahl von Disziplinen, einschließlich Psychologie, Informatik, Machine Learning und Musiktheorie. Anwendungen reichen dabei von Aufgaben zur Feature-Extraktion zur Beschreibung des Audiomaterials bis hin zur Erkennung von Eigenschaften wie Tonhöhe, Anfangszeit, Dauer und Quelle eines musikalischen Signals.
 

Die Forschung und Entwicklung in MIR und seinen Teilbereichen (z.B. automatische Musiktranskription, Audio-Inhaltsanalyse oder Musikgenerierung) befasst sich mit der Notwendigkeit einer intelligenten und automatisierten Verarbeitung der steigenden Zahl von öffentlichen und firmeninternen Audio- und Musikdaten, beispielsweise aus dem Internet. Die Extraktion dieser musikalischen und wahrnehmbaren Informationen aus Audiodaten hilft Menschen und Maschinen gleichermaßen auf innovative Weise mit Musik zu interagieren. 

Beispiel für ein automatisiertes Transkriptionssystem eines 10-Sekunden-Audioclips, Halbtonspektrum [oben], Geschätzte Referenztranskription [unten]

Mit unserem interdisziplinären Team sind wir in der Lage, ein breites Spektrum an MIR-bezogenen Aufgaben anzubieten. Dabei können wir den gesamten Prozess von Exploration, Analyse oder Visualisierung bis hin zur Modellbildung auf Ihren Daten anbieten. 

Wir stellen das Know-How aktueller Signalverarbeitungs- und Machine-Learning-Methoden zur Verfügung, um Ihr Produkt mit Anwendungen wie automatische Musiktranskription, Quellentrennung und Instrumentenidentifikation, automatische Kategorisierung oder Empfehlungssysteme zu optimieren.

Publications (selection)

Multi-track crosstalk reduction using spectral subtraction.

Seipel, F., & Lerch, A.

Audio Engineering Society Convention 144. Audio Engineering Society, 2018.

Greb, F., Steffens, J., & Schlotz, W.

Music & Science, 1(2), 205920431875595, 2018

Modeling Music-Selection Behavior in Everyday Life: A Multilevel Statistical Learning Approach and Mediation Analysis of Experience Sampling Data.

Greb, F., Steffens, J., & Schlotz, W.

Frontiers in Psychology, 10, 390. 2019

Smartphone-Assessed Movement Predicts Music Properties

Irrgang, M., Steffens, J., & Egermann, H.

MOCO: 5th International Conference on Movement and Computing, Genoa, Italy. 2018

Steffens, J., Lepa, S., Herzog, M., Schönrock, A., Peeters, G., & Egermann, H.

Extended Abstracts for the Late-Breaking Demo Session of the 18th ISMIR Conference 2017.