Bild-Schrott und Video-Slop: Die visuelle Vermüllung von Social Media und dem Internet

KI-generierters Bild, Jesus als Krabbe

Man scrollt durch Facebook, durch Instagram oder durch YouTube und plötzlich taucht es auf: Ein Foto von Jesus, der aus Krabben besteht. Ein sechsfingriger Weihnachtsmann. Ein Kurzfilm, in dem ein Affe in dramatischen menschlichen Situationen zu sehen ist – ein Kanal, der dasselbe Video in hundert Variationen hochlädt. Oder ein Kindervideo, in dem Buchstaben durchs Bild hüpfen, unterlegt mit Kinderlachen, ohne jeden erkennbaren Inhalt.

Das ist kein Zufall. Das ist Geschäftsmodell.

Schweinefutter für den Algorithmus

Slop bezeichnet ursprünglich das minderwertige Futter, das man Schweinen gibt: schnell produziert, billig, von zweifelhaftem Inhalt. Als digitale Metapher beschreibt er maschinell erzeugte Inhalte für Algorithmen oder inhaltlich fragwürdige Massenware, um die Aufmerksamkeit von Menschen zu binden. Der Begriff wurde im Mai 2024 durch den Programmierer Simon Willison geprägt und im Dezember 2025 von Merriam-Webster, der Macquarie Dictionary und der American Dialect Society zum Wort des Jahres gekürt – ein deutliches Zeichen dafür, wie sehr das Phänomen im kollektiven Bewusstsein angekommen ist.

Bisher hatte ich mich in diesem Blog vor allem mit dem Textproblem beschäftigt – mit KI-Slop als SEO-Spam, der das Internet als Wissensquelle nachhaltig zerstört. Aber das visuelle Pendant ist mindestens genauso schlimm und trifft Menschen in einem noch unmittelbareren Bereich: im Scrollen, im passiven Konsum, im alltäglichen Umgang mit den sozialen Medien.

Zahlen, die erschrecken

Berichten zufolge kursieren bereits über 15 Milliarden KI-generierter Bilder online. Allein Nutzerinnen und Nutzer von DALL-E 2 erzeugen täglich über 2 Millionen Bilder – rund eine Milliarde in 15 Monaten aus einem einzigen Programm. Bei Deepfakes schätzt das Cybersicherheitsunternehmen DeepStrike einen Anstieg von rund 500.000 im Jahr 2023 auf etwa 8 Millionen im Jahr 2025 – ein jährliches Wachstum von fast 900 Prozent.

Auf YouTube sieht es nicht besser aus. Der südkoreanische Kanal Three Minutes Wisdom kommt auf über 2 Milliarden Aufrufe und geschätzte 4 Millionen Dollar Jahreseinnahmen – mit 140 Videos, die fotorealistische Szenen zeigen, in denen Wildtiere von niedlichen Haustieren besiegt werden. Ein einzelner indischer Kanal erzielt mit immer wieder ähnlichen Affen-Videos über 2 Milliarden Views und geschätzte 4,25 Millionen Dollar Jahreseinnahmen. Das sind keine Ausreißer. Das ist Industrie. Youtube bemüht sich nach erheblicher Kritik um Schadensbegrenzung und löscht Kanäle, aber wie bei Hydra wachsen die Slop erbrechenden Köpfe schneller nach, als man sie abschlagen kann.

Das Geschäftsmodell dahinter

Der Mechanismus ist derselbe wie beim Text-Slop, nur noch rücksichtsloser: Generative KI macht es möglich, in kürzester Zeit Hunderte von Videos oder Zehntausende von Bildern zu produzieren. Der Aufwand geht gegen null, die Marge ist hoch. Wenn die Produktionskosten gegen null tendieren, ist der Anreiz, KI-Slop zu produzieren, schlicht zu verlockend. Selbst minimales Engagement kann über Werbung, Affiliate-Marketing oder Plattform-Monetarisierungssysteme positive Renditen einbringen, insbesondere wenn diese enormen mengen erzeugt werden und Manschen tendieren dazu sich Bilder oder Videos eher anzusehen und mit ihnen zu interagieren, als mit Texten, die gelesen und inhaltlich erfasst werden müssen.

Plattformen wie Facebook, YouTube und TikTok sind an diesem Prozess aktiv beteiligt – ausnahmsweise nicht von Anfang an durch bösen Willen, sondern durch das schlichte Funktionsprinzip ihrer Algorithmen: Engagement ist Engagement, egal ob echt oder erschlichen. Das gilt besonders für Facebook, dessen Nutzerbasis zunehmend aus Menschen über 55 Jahren besteht – einer Gruppe, die besonders anfällig für Fehlinformationen und Betrug ist. Betrüger nutzen KI-Tools, um gefälschte Bilder und Videos über erfundene Krisen zu erstellen und damit Spendengelder zu erschwindeln. Dazu kommt  aber inzwischen selbstverständlich, dass man die Nutzer°Innen auf den Plattformen gebunden werden sollen – und was sie bindet ist dabei Meta logischerweise völlig egal.

Kinder als bevorzugte Zielgruppe

Besonders unangenehm wird es bei Kinderformaten. Eine Untersuchung der New York Times vom März 2026 ergab, dass rund 40 Prozent der Kindern empfohlenen Videos auf YouTube – sowohl auf der Hauptplattform als auch auf YouTube Kids – offenbar KI-generierter Slop sind. Die Videos behaupten häufig, lehrreich zu sein, zeigen aber grellen sinnlosen Inhalt. YouTube-Chef Neal Mohan erklärte im Januar 2026 zwar, die Bekämpfung von KI-Müll sei eine der obersten Prioritäten für das Jahr – Aktivistinnen und Aktivisten weisen aber darauf hin, dass Kinder, die noch nicht lesen können, Kennzeichnungen wie „KI-generierter Inhalt“ schlicht nicht verstehen.

Das ist keine Kunst und wer mitmacht, ist Teil des Problems

Dieser Bilderschrott und diese Videolawine sind keine Kunst. Kunst entsteht nicht aus dem Befehl, möglichst viel Engagement zu erzeugen. Kunst entsteht aus einem Blickwinkel, einer Absicht, einer menschlichen Erfahrung. Was KI-Slop produziert, ist das Gegenteil davon: Inhalte ohne Perspektive, ohne Aussage, ohne jede Intention außer der, einen Algorithmus zu stimulieren, ein Konto zu befüllen und Kunst zu simulieren: seelenloses, unkreatives visuelles Schweinefutter. KI-Bilder zu erzeugen ist wie einen Groschen in einen Kaugummiautomaten zu werfen und hinterher zu behaupten, man habe eine geile blaue Kugel „erschaffen“.

Wer jetzt sagt, aber für den privaten Gebrauch ist das kein Problem, sollte der Realität ins Gesicht sehen: Wer selbst KI-generierte Bilder oder Videos ins Netz stellt – auch wenn es nur zum Spaß ist, auch wenn es nur für die eigene Mastodon-Timeline oder den Freundeskreis gedacht ist – trägt zur zum einen Normalisierung dieser Inhaltsflut bei. Die Grenze zwischen harmlosen KI-Spielereien und industriellem Slop ist fließend. Jedes KI-Bild, das geteilt wird, trainiert Algorithmen darauf, KI-Inhalte als normal zu behandeln, verdrängt echte kreative Arbeit aus Feeds und Sichtbarkeit und senkt die kollektive Hemmschwelle weiter ab. Das gilt auch dann, wenn keinerlei kommerzielle Absicht dahintersteckt. Weiterhin erzeugen die „zum Spaß“ generierten Bilder und Videos einen enormen Stromverbrauch (und erwärmen damit das Klima) und verschwenden völlig sinnlos hunderttausende Liter Wasser, denn selbst wenn man selbst nur einen überflüssigen, hässlichen Filmclip erzeugt, tun Millionen Menschen dasselbe. Zeit Strom und Wasser wären besser für andere zwecke angelegt, zudem die Ergebnisse hässlich bis cringe sind – und ganz sicher keine Kunst, denn Gericht haben bereits bestätigt dass zu einem Schöpfungsakt und um eine Schöpfungshöhe zu erreichen der Mensch die Hauptarbeit leisten muss. Das tut er nicht, wenn er einen „Prompt“ in einen Generator tippt, denn das Ergebnis ist nicht vorherzusagen (Kaugummikugel), somit kein Schöpfungsakt, somit keine Kunst (auch wenn die Marketingstrategen der Anbieter der bilderzeugenden KI-Systeme selbstverständlich etwas anderes erzählen).

Das Wettrennen, das niemand gewinnen kann

KI-Slop ist zum Äquivalent von E-Mail-Spam geworden – aber noch schwerer zu ignorieren und noch täuschender. Und ähnlich wie beim Spam-Problem der frühen 2000er-Jahre ist das Grundproblem struktureller Natur: Solange der wirtschaftliche Anreiz besteht, wird der Müll produziert werden. Plattform-Regeln helfen wenig, wenn die Regelumgehung selbst automatisierbar ist.

Was man selbst tun kann: den eigenen Feed bewusster kuratieren, auf Plattformen ausweichen, die weniger auf Engagement-Farming ausgelegt sind – das Fediverse bietet hier echte Alternativen –, und vor allem: selbst keine KI-generierten Bilder und Videos teilen. Nicht aus Purismus, sondern weil jede geteilte KI-Grafik die Lawine ein kleines Stück größer macht.

Und nicht zuletzt sollte man die Entscheidung treffen, echte, lebende Künstler°Innen zu unterstützen, statt emotionsloser KI-Modelle, bereitgestellt von US Big-Tech, mit der klaren Absicht, jegliche Kunst überflüssig zu machen und Künstler°Innen dazu zu bringen sich weit unter wert zu verkaufen, weil „sonst macht das halt jemand mit  KI“. Wer so denkt, unterstützt unethische Geschäftspraktiken.

Und bei all dem haben wir noch überhaupt nicht darüber gesprochen, dass die bildgebenden Modelle mit urheberrechtlich geschützten Daten trainiert wurden, ohne die Urheber°Innen um Erlaubnis zu fragen, was nach Einschätzung und einschlägigen Urteilen von Gerichten klar rechtswidrig ist. Wer die Modelle nutzt, unterstützt milliardenfache urheberrechtliche Verstöße und handelt somit ebenfalls unethisch.

Ethik stört allerdings beim Geldverdienen, deswegen ist sie heutzutage selten im Zentrum des Interesses …

p.s.: Das Krabben-Jesus -Bild hatte schon jemand anderer generiert, da ist der Schaden am Klima schon lange angerichtet. Neuen Slop wollte ich für diesen Artikel nicht generieren.


Quellen:

  • Simon Willison: Slop is the new name for unwanted AI-generated content, Mai 2024, simonwillison.net
  • Kapwing: AI Slop Report: The Global Rise of Low-Quality AI Videos, Dezember 2025, kapwing.com
  • The Decoder: YouTube wird laut Studie schon von KI-Slop-Videos überrollt, 29. Dezember 2025, the-decoder.de
  • Digital Watch Observatory: AI slop’s meteoric rise and the impact of synthetic content in 2026, Februar 2026, dig.watch
  • DeepStrike / Earthsky: Deepfakes are flooding the web, and anyone can make them, Januar 2026, earthsky.org
  • Euronews: AI slop is flooding the Internet, Februar 2025, euronews.com
  • Wikipedia: AI slop, Stand April 2026, en.wikipedia.org – inkl. NYT-Recherche zu Kindervideos, März 2026
  • Vietnam.vn (dt.): Experten fordern YouTube auf, KI-generierte niveaulose Videos für kleine Kinder vollständig zu verbieten, April 2026, vietnam.vn

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Nach oben scrollen