In letzter Zeit fällt es mir immer öfter auf: man sucht nach etwas Konkretem, einem Warentest, einer technischen Lösung, einem Produktvergleich, und landet auf einer Seite, die aussieht wie ein Artikel, sich liest wie ein Artikel, aber keiner ist. Stattdessen: fünftausend Wörter Fließtext mit schwer zu fassend unkonkretem Inhalt, drei Cookie-Banner übereinander, acht Werbeanzeigen und am Ende ein Affiliate-Link zu einem Produkt, das man weder braucht noch wollte, oder die Webseite selbst will Dir irgendwas verkaufen über das soeben ausladend schwadroniert wurde.
Willkommen in der Gegenwart des Internets.
Das hat einen Namen: AI Slop. Und es ist dabei, das freie, offene Internet als Wissensquelle nachhaltig kaputtzumachen.
Was ist AI Slop überhaupt?
„Slop“ bezeichnet ursprünglich das mindere Futter, das man früher den Schweinen gab: Brei, schnell und billig produziert. Als digitale Metapher beschreibt er maschinell erzeugte Inhalte niedriger Qualität, deren einziger Zweck darin besteht, Klicks zu generieren und Geld zu verdienen. Der Begriff wurde im Mai 2024 durch den Programmierer Simon Willison erfunden und wird zunehmend populärer.
Die Verbreitung ist höchst beunruhigend: Meltwater stellte fest, dass Erwähnungen von „AI Slop“ 2025 im Vergleich zu 2024 um das Neunfache zunahmen. Die SEO-Firma Graphite schätzt, dass KI-generierte Artikel inzwischen mehr als die Hälfte aller englischsprachigen Inhalte im Netz ausmachen. Eine Ahrefs-Analyse von 900.000 neu veröffentlichten Seiten aus April 2025 ergab, dass 74,2 Prozent KI-generiertes Material enthielten. Merriam-Webster kürte „AI Slop“ 2025 zum Wort des Jahres.
Das Geschäftsmodell dahinter
Das Problem ist schwer einzudämmen, weil dahinter gleich mehrere Geschäftsmodelle stecken, die sich gegenseitig verstärken.
Das bekannteste: Werbeeinnahmen über Traffic. Je mehr Artikel eine Seite hat, desto mehr Einstiegspunkte für Suchmaschinen. Mit KI lassen sich heute für wenige Cent Texte produzieren, für die eine menschliche Autorin Stunden bräuchte.
Mindestens genauso verbreitet ist der direkte Verkauf von Produkten und Dienstleistungen zweifelhafter Qualität. Ein SEO-optimierter Artikel positioniert sich als unabhängiger Ratgeber: „Die 10 besten Supplemente für mehr Energie“, „Welcher KI-Kurs lohnt sich wirklich?“ und führt über Affiliate-Links zu Produkten, an denen die Betreiber bei jedem Verkauf mitverdienen. Die Artikel klingen fachkundig, sind es aber nicht. Ihre eigentliche Funktion ist reine Verkaufsförderung, verkleidet als Information.
Dazu kommt die dritte Variante: das Bewerben von KI-Dienstleistungen selbst, schlechten Textagenturen, fragwürdigen Kursen zum Thema „mit KI Geld verdienen“ oder automatischen SEO-Paketen. Der Slop-Content ist hier nicht nur Nebenprodukt, sondern quasi selbsterfüllende Prophezeihung.
SEO: Das Tor zum Slop
Suchmaschinenoptimierung ist an sich nichts Schlimmes (oder, halt: je nachdem, wie sie hergestellt wird möglicherweise schon, aber das ist ein anderes Thema). Das Problem entsteht, wenn SEO zum einzigen Zweck wird, wenn Inhalte nicht mehr für Menschen, sondern ausschließlich für Algorithmen geschrieben werden. Das war in gewissen Grenzen schon lange ein Problem, passiert allerdings vermehrt, seit Google durch ihre eigene KI ausgewählte Ergebnisse an den Anfang seiner Suchergebnisse stellt.
Einen KI-Text mit den richtigen Keywords zu fluten, auf die richtige Länge zu bringen und mit einem plausiblen Titel zu versehen, das ist vollständig automatisierbar. Das Ergebnis sieht wie ein Artikel aus. Es klingt wie ein Artikel. Es ist aber keiner.
Google selbst bezeichnet die Nutzung von KI zur Manipulation des Suchrankings als Verstoß gegen die eigenen Spam-Regeln. Der März-2024-Core-Update brachte eine Reduktion minderwertiger Inhalte um 45 Prozent und dennoch bleibt das Problem massiv. Es ist ein Wettrüsten: Kaum werden die schwächsten Seiten ausgesiebt, entstehen neue. Über 1.400 Webseiten erhielten allein nach diesem Update manuelle Strafen und wurden vollständig aus dem Index entfernt, mit einem Trafficverlust von geschätzten 20 Millionen Besucherinnen und Besuchern pro Monat.
Schlangenöl per Algorithmus – und die inhaltliche Gefahr
KI-Modelle generieren Text auf Basis statistischer Muster, nicht auf Basis von Fakten. Eine Studie zur Qualität wissenschaftlicher Zitate durch KI-Modelle fand, dass GPT-4.0 dabei in 28,6 Prozent der Fälle halluzinierte, also schlicht Textefrei erfand, und die Quellen gleich dazu log. Ein Text, der sich liest wie ein fundierter Ratgeber, aber mit Quellenverweisen gespickt ist, die nirgendwo existieren.
Für Bereiche wie Gesundheit, Finanzen, Recht und viele andere Themen ist das nicht nur ärgerlich, sondern möglicherweise sogar gefährlich. Eine falsche Empfehlung zu einem Medikament, ein erfundener Rechtstipp und jemand trifft darauf basierend eine Entscheidung. Obendrauf kommen Dutzende Tracker und Werbenetze, die im Hintergrund Besucherdaten abgreifen, oft ohne angemessene Einwilligung und somit in Deutschland oft jenseits jeder DSGVO-Konformität.
Die langfristige Gefahr: Der Teufelskreis
Das Beunruhigende ist bereits der aktuelle Zustand, noch erschreckender ist in meinen Augen allerdings die Dynamik und der Ausblick in eine Zukunft des Internets, das nur noch aus hinein verklapptem KI-Slop besteht. Und diese Zukunft könnte näher liegen, als man annimmt.
Forscher beschreiben einen Mechanismus namens „Retrieval Collapse“: Wenn SEO-optimierter Slop die oberen Suchergebnisse dominiert, reduziert sich die Quellvielfalt drastisch. KI-Modelle, die auf diesen Inhalten trainiert werden oder sie als Quellen nutzen, erben deren Fehler und Erfindungen (Forscher nennen diesen inzestuösen Prozess, den „Habsburg-Effekt“, weil die sich damals auch nur untereinander fortgepflanzt haben). Eine Abwärtsspirale.
Gleichzeitig erzeugte Google mit Stand März 2025 bereits für 18 Prozent aller Suchanfragen eine KI-generierte Zusammenfassung und Nutzerinnen und Nutzer klickten dabei nur noch in 8 Prozent der Fälle auf die dahinterliegenden Quellen, heute sind das noch viel mehr. Wenn die Zusammenfassung falsch ist (und das ist sie Stand heute via Google Gemini bei über 60 Prozent der Ergebnisse), bemerkt es kaum jemand. Das Weltwirtschaftsforum stufte KI-gestützte Falschinformationen im Global Risks Report 2024 als die größte Einzelgefahr für eine globale Krise in den nächsten zwei Jahren ein.
Was man selbst tun kann
Einen einfachen Ausweg gibt es nicht. Aber ein paar Dinge helfen:
Superlativen und Zahl-Listen misstrauen. „Die 15 besten Produkte für…“ ist fast immer SEO-Content mit Affiliate-Absicht. Artikel ohne erkennbare Autor°Innen sind ein weiteres Warnsignal.
Quellen prüfen. Wenn ein Artikel Studien oder Zahlen nennt: nachschauen, ob die Quelle existiert. Halluzinierte Zitate sind ein Markenzeichen von unbearbeitetem KI-Output.
Alternativen zu Google nutzen. Es gibt zahllose Suchmaschinen abseits von Google – und damit meine ich nicht Bing, die dieselben Probleme hat, wie Google, erst recht seit Microsoft selbst in alle seine Produkte die nicht schnell genug fliehen können, irgendeinen KI-Slop einbaut und dafür bereits den Namen „Microslop“ verliehen bekam. Duckduckgo, Ecosia, es gibt Suchmaschinen-Alternativen abseits von Google und die sind heute nicht mehr schlechter als der Platzhirsch. Oder eine SearxNG-Instanz nutzen, das ist eine Metasuchmaschine, die Ergebnisse verschiedener Suchmaschinen zusammenfasst und die man sogar auf einem eigenen Server installieren kann, wenn man die technischen Fähigkeiten dazu hat. Aber auch alternative Suchmaschinen zeigen prinzipbedingt leider KI-Slop-Ergebnisse an; man wird allerdings Googles Halluzinationsweltmeister Gemini auf diesem Weg los und auch Tracker werden von SearxNG nicht durchgereicht.
Ad-Blocker einsetzen. uBlock Origin oder Privacy Badger reduzieren den Tracker-Bloat.
Aber all das hilft einem selbstverständlich nicht dabei, schnell relevante gesuchte Informationen zu finden, wenn die im Slop absaufen und unsichtbar werden.
Fazit
Das Internet als freie Wissensquelle entstand durch Menschen, die Inhalte erstellten, teilten und kuratierten – und durch das Versprechen der Suchmaschinenanbieter, dass eine Suchanfrage zu hilfreichen, echten Informationen führt. Dieses Versprechen wird gerade systematisch gebrochen.
AI Slop ist nicht nur das Problem einer verantwortungslosen Technologie. Es ist das Problem einer Ökonomie, die Reichweite über Wahrheit und Verkauf über Vertrauen stellt. Das Problem existiert seit Jahren, die KI macht das nur billiger, schneller und schlimmer. Den Schaden tragen am Ende alle – außer denen, die die Einnahmen kassieren.
Es ist frustrierend zu erkennen, dass die millionenfach ins Netz verklappten KI-Slops das Internet als kulturelle Errungenschaft nachhaltig zerstören und wir diese Müllhalde vermutlich nie wieder los werden können. Es ist dringend notwendig, technische und gesellschaftliche Gegenmittel zu finden.
Disclaimer: Meine Texte schreibe ich selbst, sie werden allerdings mit Hilfe eines lokalen Languagetool-Servers überarbeitet und vermutlich arbeitet auch die von mir genutzte Stilanalyse in Papyrus Autor, die mich dabei unterstützt, Sätze und Absätze umzustellen, mit KI-Unterstützung.
Quellen:
- Simon Willison „Slop is the new name for unwanted AI-generated content“, Mai 2024, (simonwillison.net und https://simonwillison.net/tags/slop/)
- Meltwater / Euronews: „2025 wurde KI-Müll massentauglich“, Dezember 2025 (euronews.com – Vorsicht, Trackerinvasion, alle ablehnen!)
- Graphite / Ahrefs-Analyse, zit. nach ipullrank.com (ipullrank.com)
- Reuters Institute Oxford / science.orf.at (science.orf.at)
- Google: Spam-Richtlinien und AI-Content-Guidance (developers.google.com)
- Google March 2024 Core Update / manuelle Strafen, zit. nach seoprofy.com (seoprofy.com) und searchxpro.com (searchxpro.com)
- Halluzinierungsrate GPT-4.0: 28,6 %, zit. nach seoprofy.com, a.a.O.
- Mimikama: Gedankenstriche und der Habsburg-Effekt, April 2025 (mimikama.education)
- Pew Research Center: AI Overviews Klickverhalten, März 2025, zit. nach ipullrank.com, a.a.O. (pewresearch.org)
- WEF: Global Risks Report 2024, zit. nach teachtoday.de (teachtoday.de)
- arxiv.org: „Retrieval Collapses When AI Pollutes the Web“, Februar 2026 (arxiv.org)
- Kaessler, Martin: „Der große AI Slop“, Oktober 2025 (martinkaessler.com)
Bild „endless mirror“ aus der Wikipedia, CC0

