Spotify’s KI erkennt rechtsradikale Bezüge in Liedern – Ein bedenkliches Beispiel

(Picture Credits to Spotify)

Ein verstörendes Beispiel

Heute widmen wir uns einem ernüchternden Thema und zwar der Erkennung und Verbreitung rechtsradikaler Inhalte durch die KI von Spotify. Der Anlass ist erschreckend: Junge Menschen grölen „Ausländer raus“ zum Song „L'amour Toujours“. Dieses Video hat bereits breite mediale Aufmerksamkeit erhalten.

Vor Kurzem wurde berichtet, dass sich eine ähnliche Szene auf einem Schützenfest bei Vechta ereignete. Dies hat für mich, Jan Schmidt-Prüfer, eine persönliche Bedeutung, da ich familiäre Wurzeln in dieser Region habe. Aus Neugier habe ich „L'amour Toujours“ auf Spotify gesucht und bekam erschreckende Vorschläge:

  • „I’m still standing“ – gesungen vom Führer

  • „Ich wähle die AfD“

  • Deutschlandlied – mit Eisernem Kreuz im Bild

  • „Deutschland über alles“ – mit Reichskriegsflagge

Der Algorithmus und sein Lernen

Offensichtlich hat der Algorithmus von Spotify gelernt, dass Neonazis „L'amour Toujours“ für ihre Zwecke missbrauchen. Diese Verbindung zeigt, wie mächtig und zugleich gefährlich algorithmische Empfehlungen sein können. Anstatt diese Inhalte zu blockieren oder zu entfernen, scheint die KI sie aktiv zu fördern.

Ein tieferes Problem

Das eigentliche Problem geht jedoch tiefer: Warum sind solche Lieder überhaupt auf Spotify verfügbar? Diese Tatsache wirft ernsthafte Fragen zur Inhaltsmoderation und den Richtlinien von Spotify auf. Es ist unverständlich und inakzeptabel, dass rechtsradikale und hasserfüllte Inhalte auf einer weit verbreiteten Plattform existieren dürfen.

Ein Aufruf zum Handeln

Es ist unerlässlich, dass Spotify und ähnliche Plattformen Verantwortung übernehmen und ihre Algorithmen sowie die Verfügbarkeit von Inhalten strenger kontrollieren. Rechtsradikale Inhalte haben keinen Platz in unserer Gesellschaft und sollten konsequent entfernt werden.

Fazit

Die KI von Spotify hat offenkundig erkannt, dass bestimmte Songs von Neonazis missbraucht werden. Doch anstatt diese zu unterbinden, werden ähnliche Inhalte sogar vorgeschlagen. Dies ist ein beunruhigendes Zeichen dafür, wie viel Arbeit noch getan werden muss, um hasserfüllte und gefährliche Inhalte aus den digitalen Räumen zu verbannen.

Zurück
Zurück

Aus Skizze wird Kunst: Tool-Empfehlung Magnific AI

Weiter
Weiter

Sorgen in der KI-Welt: Google und OpenAI verlieren Schlüsselmitarbeiter