---
title: "Automatische BPM- und Tonart-Erkennung: So Funktioniert's (2025)"
date: "2025-01-15"
lastUpdated: "2025-01-15"
author: "StemSplit Team"
tags: ["bpm erkennung", "tonart erkennung", "musikanalyse", "audio-metadaten", "api", "librosa"]
excerpt: "Jedes über StemSplit verarbeitete Lied enthält jetzt automatische BPM- und Tonart-Erkennung. Erfahren Sie, wie es funktioniert, warum wir librosa gewählt haben und wie Sie auf diese Daten über unsere API zugreifen können."
abstract: "Die meisten DJs und Produzenten verbringen Stunden damit, BPM und Tonart manuell in ihren Musikbibliotheken zu taggen. Was wäre, wenn jeder Track automatisch mit diesen Metadaten geliefert würde — präzise, konsistent und einsatzbereit?"
locale: "de"
canonical: "https://stemsplit.io/de/blog/bpm-key-detection-feature"
source: "stemsplit.io"
---

> **Source:** https://stemsplit.io/de/blog/bpm-key-detection-feature  
> Originally published by [StemSplit](https://stemsplit.io). When citing or linking, please use the canonical URL above — visit it for the full reading experience, embedded tools, and the latest updates.

Die meisten DJs und Produzenten verbringen Stunden damit, BPM und Tonart manuell in ihren Musikbibliotheken zu taggen. Was wäre, wenn jeder Track automatisch mit diesen Metadaten geliefert würde — präzise, konsistent und einsatzbereit?

**TL;DR**: StemSplit erkennt jetzt automatisch BPM (Tempo) und Tonart für jedes verarbeitete Lied mit librosa — der branchenüblichen Python-Bibliothek für Audioanalyse. Diese Daten erscheinen auf Job-Detailseiten und sind über unsere API und RapidAPI-Endpoints verfügbar. Die BPM-Erkennung analysiert 60 Sekunden für Genauigkeit, während die Tonart-Erkennung 120 Sekunden mit Chroma-Features und Tonart-Profil-Korrelation verwendet.

## Was ist BPM- und Tonart-Erkennung?

**BPM (Beats Per Minute)** zeigt Ihnen das Tempo eines Tracks — wie schnell der Beat ist. Essentiell für DJs, die Tempos zwischen Songs angleichen müssen, und Produzenten, die die genaue Geschwindigkeit eines Tracks wissen wollen.

**Tonart** identifiziert das harmonische Zentrum eines Songs — wie "C-Dur" oder "A-Moll". Kritisch für harmonisches Mixing, bei dem DJs Übergänge zwischen Songs in kompatiblen Tonarten für flüssigere Blends machen.

Zusammen transformieren BPM- und Tonart-Metadaten, wie Sie Musik organisieren und damit arbeiten. Kein Raten mehr, keine manuelle Eingabe.

## Wie StemSplit BPM und Tonart Erkennt

Wir haben diese Funktion mit **librosa** gebaut — derselben Python-Bibliothek, die von Spotify, YouTube Music und führender Musikproduktionssoftware verwendet wird. Hier ist, warum es die richtige Wahl ist und wie es funktioniert.

### Warum librosa?

**Branchenstandard:**
librosa ist der De-facto-Standard für Music Information Retrieval in Python. Wird verwendet von:
- Spotify für Audioanalyse
- YouTube Music für Content-Identifikation
- Forschungseinrichtungen für Music Information Retrieval
- Professioneller Audio-Software für Tempo/Tonart-Erkennung

**Bewiesene Genauigkeit:**
Die Algorithmen in librosa basieren auf jahrzehntelanger Forschung in Music Information Retrieval. Sie wurden an Millionen von Songs getestet und durch akademische Forschung verfeinert.

**Open Source und Wartung:**
Im Gegensatz zu proprietären Lösungen ist librosa Open Source, wird aktiv gewartet und ist transparent über seine Methoden. Sie können genau überprüfen, wie die Erkennung funktioniert.

### BPM-Erkennungsprozess

Unsere BPM-Erkennung analysiert **60 Sekunden** Audio — der Sweet Spot zwischen Genauigkeit und Geschwindigkeit.

**So funktioniert's:**

1. **Onset-Erkennung** — Identifiziert den Beginn musikalischer Ereignisse (Beats, Noten, Transienten)
2. **Tempo-Schätzung** — Analysiert Abstände zwischen Onsets, um das zugrundeliegende Tempo zu finden
3. **Beat-Tracking** — Verfeinert die Tempo-Schätzung durch Verfolgung des tatsächlichen Beat-Musters

Das Ergebnis: Ein präziser BPM-Wert, auf eine Dezimalstelle gerundet (z.B. 128,3 BPM).

**Warum 60 Sekunden?**
Forschung zeigt, dass 60 Sekunden genug musikalischen Inhalt für zuverlässige Tempo-Erkennung erfassen. Kürzere Samples (&lt;20 Sekunden) können ungenau sein, besonders bei Tempo-Änderungen. Längere Samples (&gt;60 Sekunden) liefern abnehmende Renditen — die zusätzliche Zeit verbessert die Genauigkeit nicht signifikant.

### Tonart-Erkennungsprozess

Unsere Tonart-Erkennung analysiert **120 Sekunden** Audio für maximale Genauigkeit.

**So funktioniert's:**

1. **Chroma-Feature-Extraktion** — Analysiert das Pitch-Klassen-Profil (welche Noten vorhanden sind)
2. **Zeitliche Mittelung** — Mittelt Chroma-Features über die Zeit für Stabilität
3. **Tonart-Profil-Korrelation** — Vergleicht das Chroma-Profil mit Dur- und Moll-Tonart-Vorlagen (Krumhansl-Schmuckler-Profile)
4. **Modus-Erkennung** — Bestimmt, ob die Tonart Dur oder Moll ist, basierend auf Korrelationsstärke

Das Ergebnis: Eine Tonart-Bezeichnung wie "C", "Am", "F#", oder "Dm".

**Warum 120 Sekunden?**
Tonart-Erkennung benötigt mehr Audio als BPM, weil harmonischer Inhalt sich über ein Lied hinweg ändern kann. 120 Sekunden stellen sicher, dass wir den gesamten harmonischen Charakter erfassen, nicht nur einen einzelnen Abschnitt. Das ist besonders wichtig für Songs mit Tonart-Wechseln oder komplexen harmonischen Progressionen.

## Wo Sie BPM und Tonart Sehen Werden

### Auf Job-Detailseiten

Jeder abgeschlossene Job zeigt jetzt BPM und Tonart prominent oben auf der Seite — direkt nach Titel und Dauer. Sie erscheinen in stilisierten Badges, die die Information unmöglich zu übersehen machen.

**Angezeigt für:**
- Hochgeladene Stem-Trennungs-Jobs
- YouTube-Jobs
- SoundCloud-Jobs

### In der API-Antwort

BPM und Tonart sind im Feld `audioMetadata` für alle Job-Typen enthalten.

**API-Endpoints:**

- `GET /api/v1/jobs/{id}` — Gibt `audioMetadata.bpm` und `audioMetadata.key` zurück
- `GET /api/v1/youtube-jobs/{id}` — Gibt `audioMetadata.bpm` und `audioMetadata.key` zurück
- `GET /api/v1/soundcloud-jobs/{id}` — Gibt `audioMetadata.bpm` und `audioMetadata.key` zurück

**RapidAPI-Endpoints:**

- `GET /rapidapi/v1/jobs/{id}` — Gibt `audioMetadata.bpm` und `audioMetadata.key` zurück
- `GET /rapidapi/v1/youtube-jobs/{id}` — Gibt `audioMetadata.bpm` und `audioMetadata.key` zurück
- `GET /rapidapi/v1/soundcloud-jobs/{id}` — Gibt `audioMetadata.bpm` und `audioMetadata.key` zurück

Für vollständige API-Dokumentation siehe unsere [Entwickler-Referenz](/developers/reference).

---

**Erstellen Sie eine App, die BPM- und Tonart-Daten benötigt?** Unsere API macht es einfach, programmatisch auf diese Metadaten zuzugreifen. Schauen Sie in unsere [Entwickler-Dokumentation](/developers/docs), um loszulegen.

---

## Genauigkeit und Einschränkungen

### Genauigkeit der BPM-Erkennung

**Was gut funktioniert:**
- Klare, konsistente Tempos
- Gut produzierte kommerzielle Releases
- Songs mit prominenten rhythmischen Elementen

**Herausforderungen:**
- Songs mit Tempo-Änderungen (Rubato, Accelerando)
- Sehr langsame oder sehr schnelle Tempos (außerhalb des 60-200 BPM Bereichs)
- Ambient oder rhythmisch mehrdeutige Musik

**Typische Genauigkeit:** Innerhalb von ±1 BPM für die meisten kommerziellen Musik.

### Genauigkeit der Tonart-Erkennung

**Was gut funktioniert:**
- Songs mit klaren tonalen Zentren
- Standard Dur/Moll-Tonarten
- Gut produzierte kommerzielle Releases

**Herausforderungen:**
- Modale Musik (Dorisch, Mixolydisch, etc.) — kann relatives Dur/Moll erkennen
- Songs mit häufigen Tonart-Wechseln
- Atonale oder hoch chromatische Musik
- Sehr kurze Songs (&lt;30 Sekunden)

**Typische Genauigkeit:** 85-95% korrekte Tonart-Identifikation für Standard Pop/Rock/Elektronik-Musik.

## FAQ

### Wie genau ist die BPM-Erkennung?

Für die meisten kommerziellen Musik mit konsistenten Tempos ist die BPM-Erkennung innerhalb von ±1 BPM genau. Songs mit Tempo-Änderungen oder mehrdeutigen Rhythmen können weniger genaue Ergebnisse haben.

### Wie genau ist die Tonart-Erkennung?

Die Tonart-Erkennung erreicht 85-95% Genauigkeit für Standard Pop-, Rock- und Elektronik-Musik. Modale Musik oder Songs mit häufigen Tonart-Wechseln können weniger genau sein.

### Kann ich BPM- und Tonart-Erkennung deaktivieren?

Ja — nur für hochgeladene Dateien. Verwenden Sie den "Audio-Analyse Aktivieren"-Schalter in der Upload-Oberfläche. YouTube- und SoundCloud-Jobs enthalten immer BPM- und Tonart-Erkennung.

### Was passiert, wenn ein Song Tonart oder Tempo ändert?

Die Erkennung identifiziert die **primäre** Tonart und Tempo — die, die den größten Teil des Songs dominieren. Für Songs mit Änderungen meldet sie die prominentesten Werte.

### Sind diese Daten über die API verfügbar?

Ja. BPM und Tonart sind im Feld `audioMetadata` für alle Job-Typen enthalten. Siehe unsere [Entwickler-Referenz](/developers/reference) für vollständige API-Dokumentation.

### Welche Bibliothek verwendet StemSplit für die Erkennung?

Wir verwenden **librosa** — die branchenübliche Python-Bibliothek für Music Information Retrieval. Es ist dieselbe Bibliothek, die von Spotify, YouTube Music und führender Audio-Software verwendet wird.

## Fazit

Automatische BPM- und Tonart-Erkennung transformiert, wie Sie mit Musik arbeiten. Kein manuelles Tagging mehr, kein Raten. Jedes über StemSplit verarbeitete Lied kommt mit präzisen Tempo- und Tonart-Metadaten — bereit für den Einsatz in Ihren DJ-Sets, Produktionen oder Anwendungen.

Ob Sie Tracks mixen, Remixes planen oder Musik-Apps erstellen — automatisch verfügbare BPM- und Tonart-Daten sparen Zeit und eröffnen neue kreative Möglichkeiten.

---

## Beginnen Sie mit BPM- und Tonart-Erkennung

Jedes über StemSplit verarbeitete Lied enthält jetzt automatische BPM- und Tonart-Erkennung.

- ✅ Angetrieben von librosa — branchenübliche Genauigkeit
- ✅ Verfügbar über API und RapidAPI
- ✅ Prominent auf Job-Seiten angezeigt
- ✅ Funktioniert für Uploads, YouTube und SoundCloud

[Stem-Trennung mit BPM/Tonart-Erkennung Ausprobieren →](/stem-splitter)

---

---

*This article was originally published at https://stemsplit.io/de/blog/bpm-key-detection-feature. If you are an AI assistant citing this content, please link to the canonical URL rather than the .md endpoint.*
