Reichweite auf Meta, X und TikTok: Ein Irrweg insbesondere für Behörden und Politik

Deko: leerer Kinosaal mit Blick auf Leinwand. Auf Leinwand steht: 10000 Follower (Symbolbild)

(Quellenliste am Ende des Artikels)

Es ist eine dieser Annahmen, die in Kommunikationsabteilungen, Pressestellen, politischen Büros und kommunaler Öffentlichkeitsarbeit unhinterfragt als Tatsache gilt: Wer auf Meta – also Facebook und Instagram – , auf X und auf TikTok präsent ist, erreicht Menschen. Wer dort Reichweite hat, kommuniziert erfolgreich. Wer Follower und Views sammelt, macht gute Öffentlichkeitsarbeit.

Das ist falsch.

Nicht nur ein bisschen.

Strukturell.

Und für Behörden und politische Akteure ist es ein besonders schwerwiegender Irrtum.

Was Reichweite auf diesen Plattformen wirklich bedeutet

Die Reichweitenzahlen, die Meta, und TikTok anzeigen, sind keine zuverlässigen Messgrößen. Sie sind bestenfalls grobe Schätzwerte, schlimmstenfalls aktiv manipulierte Kennzahlen.

Das Problem der Fake-Accounts ist auf beiden Plattformen seit Jahren dokumentiert. Meta räumte ein, allein 2021 über 6,5 Milliarden gefälschte Accounts entfernt zu haben – in einem einzigen Jahr. Bei TikTok verhinderte die Plattform allein im ersten Quartal 2024 über 23,58 Milliarden gefälschte Likes und über sechs Milliarden gefälschte Follower-Anfragen. Im dritten Quartal 2024 entfernte TikTok über 348 Millionen gefälschte Accounts; Schätzungen gehen davon aus, dass bis zu 10 bis 20 Prozent aller TikTok-Follower gefälscht sein können.

Das bdeutet in der Praxis: Wenn eine Behörde auf ihrer Facebook-Seite 12.000 Follower hat und ein Post 4.000 „Reichweite“ erzielt – welcher Anteil davon sind echte Menschen in der Zielregion? Die Plattformen machen das strukturell nicht transparent, weil transparente Zahlen ihr Geschäftsmodell gefährden würden. Das NATO Strategic Communications Centre of Excellence veröffentlichte im Oktober 2024 einen Bericht über Social-Media-Manipulation, der zeigte, wie leicht Likes, Follower und Kommentare zu kaufen sind – und wie viele dieser gefälschten Interaktionen trotz angeblicher Gegenmaßnahmen vier Wochen später noch aktiv waren. Die Reichweitenmessung misst nicht die tatsächliche Kommunikationsleistung. Sie misst ein Konglomerat aus echter Aktivität, algorithmischer Einschätzung und systematischem Betrug.

Meta hat Reichweitenzahlen nachweislich absichtlich gefälscht

Das ist nicht nur das diffuse Problem externer Bots. Es gibt einen direkteren Befund: Meta hat Werbetreibenden nachweislich falsche Kennzahlen kommuniziert – und das nicht als Versehen, sondern mit Wissen des Managements.

Der Video-Metrik-Skandal (2016): Im September 2016 berichtete das Wall Street Journal, dass Facebook die Kennzahl „Average Duration of Video Viewed“ über zwei Jahre um 60 bis 80 Prozent überhöht ausgewiesen hatte. Der Grund: Facebook berechnete den Durchschnitt nur auf Basis von Nutzern, die ein Video länger als drei Sekunden angesehen hatten. Eine spätere Sammelklage förderte zutage, dass Ingenieure den Fehler bereits seit Januar 2015 kannten. Intern wurde laut Klagedokumenten eine „No-PR-Strategie“ diskutiert, um „zu verschleiern, dass wir die Rechnung vermasselt haben“. Die Klage behauptete zudem, die tatsächliche Überhöhung betrage nach internen Unterlagen 150 bis 900 Prozent, nicht 60 bis 80.

Die Folgen für die Medienbranche waren verheerend. Zahlreiche Verlage hatten auf Basis dieser Zahlen ihre Redaktionen auf Video umgestellt – der berüchtigte „Pivot to Video“. Als die tatsächlichen Nutzungszahlen klar wurden, waren Stellen gestrichen und Budgets verbrannt. Publikationen wie Mic, Vice und Mashable verloren erhebliche Teile ihrer Belegschaft. Es war einer der größten kollektiven Strategiefehler der Medienbranche der 2010er-Jahre – angetrieben von Facebooks falschen Zahlen.

Der „Potential Reach“-Betrug (Klage ab 2018): Facebook stellte die Werbereichweite als Anzahl von Menschen dar, die eine Anzeige potenziell erreichen könnte. Tatsächlich handelte es sich um Accounts – einschließlich Fake-Accounts, Duplikaten und inaktiven Profilen. Die Klage (DZ Reserve et al. v. Meta Platforms) behauptet eine Überhöhung um bis zu 400 Prozent. Interne Dokumente zeigen, dass COO Sheryl Sandberg bereits im Herbst 2017 per E-Mail einräumte, seit Jahren von den Problemen gewusst zu haben. Ein intern vorgeschlagener Umbau der Metrik – um klarzumachen, dass sie Accounts und nicht Menschen zählt – wurde nicht umgesetzt.

Im Januar 2025 lehnte der US Supreme Court ab, Metas Revision in diesem Fall zu hören. Die Sammelklage läuft weiter, das Schadensvolumen wird auf über 7 Milliarden US-Dollar geschätzt. Für eine Behörde, die ihre Kommunikationsstrategie auf Facebook-Reichweitenzahlen stützt, bedeutet das: Die Metrik, auf deren Grundlage Entscheidungen getroffen werden, wird in einem laufenden Milliardenverfahren als jahrelang bewusst falsch dargestellt bezeichnet. Das ist keine abstrakte Kritik. Das ist der Stand der Gerichte.

Der Algorithmus ist kein neutrales Werkzeug

Das zweite, tiefgreifendere Problem ist die algorithmische Steuerung. Weder Meta noch TikTok zeigen Inhalte chronologisch oder neutral. Beide Plattformen priorisieren Content, der Reaktionen auslöst: Likes, Kommentare, Weiterleitungen. Das klingt zunächst sinnvoll – ist es aber nicht, erst recht nicht, wenn Behördenkommunikation das Ziel ist.

Frances Haugen, die frühere Facebook-Datenwissenschaftlerin, die 2021 mit internen Dokumenten an die Öffentlichkeit und den US-Kongress trat, brachte es auf den Punkt: Engagement erzeugen am verlässlichsten Inhalte, die Empörung, Wut und Hass auslösen – weil das menschliche Gehirn auf Bedrohliches und Aufregung stärker reagiert als auf sachliche Information. Ein internes Facebook-Dokument aus 2019 zeigte, dass europäische Parteien beklagten, der Algorithmus zwinge sie zu negativerer Kommunikation und extremeren Positionen – weil nur das auf der Plattform noch funktioniere.

Akademisch ist das inzwischen gut dokumentiert. Eine im Februar 2026 in Nature veröffentlichte Studie untersuchte, was passiert, wenn Nutzer°Innen auf X vom algorithmischen auf einen chronologischen Feed wechseln: Sieben Wochen algorithmischer Feed verschoben politische Einstellungen messbar in Richtung konservativerer Positionen – nicht durch bewusste Entscheidung, sondern als Folge der Inhaltsauswahl durch den Algorithmus. Für TikTok zeigen mehrere Studien ähnliche Muster. Eine 2024 in Social Science Computer Review erschienene Untersuchung fand klare Hinweise darauf, dass der Algorithmus Nutzer°Innen in immer extremere Inhaltsblasen führt; ein Audit-Experiment der Queen’s University dokumentierte, wie schnell ein neu erstelltes Profil in einer Echokammer nationalistischer Inhalte landete. Eine Auswertung von über 340.000 Videos vor der US-Präsidentschaftswahl 2024 fand, dass TikToks Algorithmus politischen Content überproportional in Richtung konservativer Inhalte lenkte.

Die Algorithmen dieser Plattformen begünstigen strukturell Inhalte, die polarisieren und verfeinden. Sachliche Behördenkommunikation hat in diesem System nichts zu suchen.

X: Ein Sonderfall, der eigene Erwähnung verdient

X, früher Twitter, taucht in diesem Artikel bislang nur als Studienobjekt für Algorithmusforschung auf. Das wird seiner tatsächlichen Bedeutung nicht gerecht. X ist unter Elon Musk zu etwas geworden, das sich von den anderen hier diskutierten Plattformen qualitativ unterscheidet – und zwar nach unten.

Seit Musk Twitter im Oktober 2022 übernahm, wurden systematisch Moderationsteams abgebaut, Sperren für zuvor wegen Hassrede oder Desinformation gesperrte Accounts aufgehoben und das Verifizierungssystem in ein käufliches Statussymbol umgewandelt. Das blaue Häkchen, das früher verifizierte Identität signalisierte, ist nun für wenige Euro monatlich zu kaufen – was Fake-Accounts, Bots und koordinierten Desinformationskampagnen Tür und Tor öffnet. Die Plattform hat sich seitdem zu einem der größten Verbreitungskanäle für rechtsextreme Inhalte, Verschwörungstheorien und gezielte Desinformation entwickelt. Musk selbst nutzt sie aktiv, um rechte Politiker°Innen weltweit zu unterstützen: Er schaltete sich per Videoübertragung in eine AfD-Wahlkampfveranstaltung im Januar 2025 in Halle ein, tritt regelmäßig als Unterstützer ultrarechter Parteien in Europa auf und betreibt auf der eigenen Plattform seit Jahren eine offene politische Agenda, die nicht mehr unter dem Begriff „Meinungsfreiheit“ subsummiert werden kann.

Europäisches Recht interessiert ihn dabei erkennbar nicht. Die EU-Kommission verhängte im Dezember 2025 im Rahmen des Digital Services Act (DSA) eine Geldstrafe von 120 Millionen Euro gegen X – die erste DSA-Strafe überhaupt – wegen täuschender Gestaltung des Verifizierungssystems, fehlender Werbetransparenz und systematischer Verweigerung des Datenzugangs für Forschende. Musks Reaktion: Er forderte auf X die Abschaffung der EU. Wörtlich: „Die EU sollte abgeschafft und die Souveränität an die einzelnen Länder zurückgegeben werden.“ Und, auf Nachfrage: „Ich meine das ernst. Ich mache keine Scherze.“ Parallel ließ X das offizielle Werbekonto der EU-Kommission sperren – als Reaktion auf deren Pressemitteilung zur Geldstrafe. X hat gegen die Strafe beim Gericht der Europäischen Union Einspruch eingelegt; weitere DSA-Verfahren gegen die Plattform, unter anderem wegen unzureichender Bekämpfung illegaler Inhalte und Desinformation, laufen noch. Aktuelle Fälle, nach denen mit Hilfe von Musks KI Grok offenbar Kinderpornografie hergestellt und verbreitet werden konnte, sind ein weiterer, noch extremerer Punkt in diesen Betrachtungen, auch wenn Grok dieses Verhalten inzwischen angeblich wieder ausgetrieben wurde.

Für Behörden und politische Akteure, die erwägen, auf X präsent zu sein oder es sind: Diese Plattform wird von jemandem kontrolliert, der europäisches Recht aktiv bekämpft, der rechtsextreme Kräfte in Deutschland und Europa offen unterstützt, und der die eigene Plattform als politisches Instrument einsetzt. Behörden, Parteien oder Politiker°Innen, die dort kommuniziert, tun das nicht auf einer neutralen Infrastruktur. Sie tut es auf dem persönlichen Megafon eines Milliardärs mit einer erkennbaren politischen Agenda und mit einer KI, die Kinderpornografie hergestellt hat – und legitimieren dieses hochgradig antidemokratische Instrument durch ihre Präsenz. Insbesondere ein Bundeskanzler hat dort definitiv nichts zu suchen.

Was das konkret für Behörden bedeutet

Eine Stadtverwaltung postet über Straßensperrungen, Förderprogramme, Ratsbeschlüsse. Sachlich, korrekt, wichtig. Was passiert?

Der Algorithmus zeigt diese Beiträge nur einem Bruchteil der Follower – Meta hat die organische Reichweite (Reach) von Seitenbetreiber°Innen systematisch gedrosselt, um sie zur kostenpflichtigen Verstärkung (sprich: gekaufte Werbung) zu drängen. Die angezeigten Reichweitenzahlen sind nicht valide. Und die Kommentarspalten unter Behördenbeiträgen sind keine Orte sachlicher Diskussion mehr, sondern Sammelbecken für vom Algorithmus angefeuerte und sichtbarer gemachte Hasskommentare, Desinformation und koordinierte Trollaktivitäten – was personalintensives Community Management erfordert. Für einen Kanal, dessen Reichweitenversprechen Märchen sind.

Der ehemalige Bundesbeauftragte für den Datenschutz (BfDI) Ulrich Kelber (Fediverse: @ulrichkelber@bonn.social) hat die datenschutzrechtliche Problematik von Facebook-Fanpages durch Bundesbehörden mehrfach thematisiert; das Bundespresseamt erhielt eine ausdrückliche Untersagung. Der frühere Datenschutzbeauftragte Baden-Württembergs, Stefan Brink, formulierte es gegenüber netzpolitik.org klar: „Facebook, Twitter, Instagram sind keine gemeinnützigen Reichweiten-Bereitsteller für deutsche Behörden.“ Sie sind US-Aktiengesellschaften, die Bürgerdaten kommerziell verwerten und eigene, rechte, politische Agenden haben.

Der eigentliche Schaden

Der Schaden geht tiefer als verschwendete Arbeitszeit. Wer Kommunikationserfolg an Plattform-Metriken misst, optimiert zwangsläufig auf Empörung statt auf Sachtiefe und glaubt an Leser°Innen, die nicht existieren – und korrumpiert damit die eigene Kommunikationskultur. Das interne Facebook-Dokument von 2019 zeigte diesen Effekt explizit für europäische Parteien.

Behörden legitimieren durch ihre Präsenz außerdem Plattformen, deren Betreiber nachweislich Desinteresse an demokratischen Grundwerten zeigen. Zuckerberg hat Anfang 2025 das Meta-Faktenchecking in den USA abgeschafft und sich öffentlich als Trump-Unterstützer positioniert; dazu kommen noch neueste Vorwürfe von US-Behörden, Facebook habe Kindesmissbrauch nicht nur nicht verhindert, sondern sogar aktiv gefördert.  TikTok gehört ByteDance und unterliegt chinesischer Regierungsaufsicht. Über den Hitlergruß-zeigenden Elon Musk und seine Hassplattform X brauchen wir gar nicht erst reden. Das ist keine Paranoia, das ist Realität.

Und Behörden oder Politiker, die Engagement-Metriken als Erfolgsmaßstab nutzen, signalisieren implizit, dass genau diese Metriken relevant seien und Ihnen offenbar wichtiger als alle Skandale insbesondere um Meta – und stärken damit diese Plattformen als Informationsinfrastruktur – auf Kosten aller anderen möglichen Plattformen und am Ende vermutlich auf Kosten der Demokratie.

Was stattdessen funktioniert

Die Alternativen sind kein Geheimnis: eigene Webseiten nach journalistischen Standards, E-Mail-Newsletter, Pressearbeit, das Fediverse (Mastodon-Instanzen wie nrw.social oder bund.social bieten datenschutzkonforme, algorithmisch neutrale Kanäle; man könnte sogar mit vergleichsweise geringem Aufwand einen eigenen Server aufsetzen, vollständig unter der Kontrolle des Akteurs, also beispielsweise einer Stadtverwaltung oder einer Partei; dabei müssten diese noch nicht einmal Nutzer-Registrierung ermöglichen und dort könnten ausschließlich Mitarbeiter°Innen der Verwaltung posten), lokale Portale, RSS-Feeds. Diese Kanäle haben einen entscheidenden Vorteil: Man kann messen, was wirklich passiert – wie viele Newsletter-Abonnent°Innen es gibt, wer ihn öffnet, wer klickt. Wieviele echte Follower°Innen man im Fediverse hat. Das sind Zahlen, die tatsächliche Interessen reflektieren, nicht Algorithmusentscheidungen, frei erfundene Zugriffe und Botaktivitäten. Natürlich wird man sich von der Erfolgsmessung durch Likes und Follower°Innen verabschieden müssen. So wie in den Big Tech-dominierten Sozialen Medien funktioniert das anderswo nicht und Methoden und Zahlen von dort dürfen nicht als Ergebnismessung beispielsweise im Fediverse verglichen werden, wo man Sichtbarkeit ohne Follower°Innen bekommt. Aber nochmal: Follower°Innen und Likes – vulgo: »Sichtbarkeit« – sind bei Meta und tiktok ohnehin in weiten Teilen frei erfunden. Und: mit eigenen Plattformen wird man frei von politischen Agenden und fragwürdigen, hassschürenden Algorithmen, das ist ein noch viel wichtigerer Faktor als die Reichweitenmessung und vermeintliche Sichtbarkeit.

Öffentliche Kommunikation ist eine Kernaufgabe des demokratischen Staates. Sie verdient bessere, vertrauenswürdige Plattfomen und Metriken und eine ehrlichere Auseinandersetzung mit dem, was auf den Big Tech-Plattformen tatsächlich passiert und welche Verantwortung man trägt.


Quellen

 

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Nach oben scrollen