Music Information Retrieval
Der Forschungsbreich Music Information Retrieval (MIR) umfasst die Extraktion und Aggregation von Informationen aus musikalischen Audiodaten. MIR bezieht seine Methoden dabei aus einer Vielzahl von Disziplinen, einschließlich Psychologie, Informatik, Machine Learning und Musiktheorie. Anwendungen reichen dabei von Aufgaben zur Feature-Extraktion zur Beschreibung des Audiomaterials bis hin zur Erkennung von Eigenschaften wie Tonhöhe, Anfangszeit, Dauer und Quelle eines musikalischen Signals.
Die Forschung und Entwicklung in MIR und seinen Teilbereichen (z.B. automatische Musiktranskription, Audio-Inhaltsanalyse oder Musikgenerierung) befasst sich mit der Notwendigkeit einer intelligenten und automatisierten Verarbeitung der steigenden Zahl von öffentlichen und firmeninternen Audio- und Musikdaten, beispielsweise aus dem Internet. Die Extraktion dieser musikalischen und wahrnehmbaren Informationen aus Audiodaten hilft Menschen und Maschinen gleichermaßen auf innovative Weise mit Musik zu interagieren.
Beispiel für ein automatisiertes Transkriptionssystem eines 10-Sekunden-Audioclips, Halbtonspektrum [oben], Geschätzte Referenztranskription [unten]
Mit unserem interdisziplinären Team sind wir in der Lage, ein breites Spektrum an MIR-bezogenen Aufgaben anzubieten. Dabei können wir den gesamten Prozess von Exploration, Analyse oder Visualisierung bis hin zur Modellbildung auf Ihren Daten anbieten.
Wir stellen das Know-How aktueller Signalverarbeitungs- und Machine-Learning-Methoden zur Verfügung, um Ihr Produkt mit Anwendungen wie automatische Musiktranskription, Quellentrennung und Instrumentenidentifikation, automatische Kategorisierung oder Empfehlungssysteme zu optimieren.
Publications (selection)
Multi-track crosstalk reduction using spectral subtraction.
Seipel, F., & Lerch, A.
Audio Engineering Society Convention 144. Audio Engineering Society, 2018.
Understanding music-selection behavior via statistical learning
Greb, F., Steffens, J., & Schlotz, W.
Music & Science, 1(2), 205920431875595, 2018
Modeling Music-Selection Behavior in Everyday Life: A Multilevel Statistical Learning Approach and Mediation Analysis of Experience Sampling Data.
Greb, F., Steffens, J., & Schlotz, W.
Frontiers in Psychology, 10, 390. 2019
Smartphone-Assessed Movement Predicts Music Properties
Irrgang, M., Steffens, J., & Egermann, H.
MOCO: 5th International Conference on Movement and Computing, Genoa, Italy. 2018
High-level chord features extracted from audio can predict perceived musical expression
Steffens, J., Lepa, S., Herzog, M., Schönrock, A., Peeters, G., & Egermann, H.
Extended Abstracts for the Late-Breaking Demo Session of the 18th ISMIR Conference 2017.