Soziale Netzwerke heizen die Proteste in England an. Das ist stoßend. Aber leichtgläubige Nutzer sind Teil des Problems
Was nach der Tötung der drei Mädchen in Southport im Internet geschah, ist ein Lehrstück über die Auswirkung von Fake News in Zeiten eines Informationsvakuums. Daraus lernen müssen sowohl Firmen als auch Nutzer.
Ein grauenhafter Gewaltakt versetzte die vergangene Woche in Schockstarre. Warum sticht ein Jugendlicher wahllos Mädchen nieder? Was ist sein Motiv? Wer ist er? Und wie kann es sein, dass die Behörden die Tat nicht verhindern konnten? Die Fragen waren schnell da. Doch die Antworten lesen auf sich warten.
Das ist typisch für Attentate, Amokläufe, Terroranschläge: Das Informationsbedürfnis der Menschen unmittelbar nach den Greueltaten ist riesig. Doch die Sachlage ist erst einmal unklar, Informationen aus zuverlässigen Quellen wie der Polizei sind nicht unmittelbar erhältlich. Es entsteht ein Informationsvakuum. Und dies nutzt Extremisten, Opportunisten und fremde Mächte, um mit erfundenen Informationen viel Aufmerksamkeit zu erzeugen, Menschen aufzuhetzen und Geld zu verdienen.
So geschehen in England vergangene Woche. Alles beginnt mit einem Post eines LinkedIn-Nutzers, laut eigener Angabe der Vater von zwei Mädchen, die beim Gewaltakt in Southport anwesend waren. Er schrieb, der Angreifer sei ein „Migrant“ gewesen. Weiter solle Grossbritannien nun die Grenzen «komplett schliessen». So berichtet es zumindest das britische Institute for Stategic Dialogue, eine Organisation, die unter anderem die Verbreitung von Desinformation im Internet beobachtet.
Ein anderer Nutzer teilt einen Screenshot des Linkedin-Posts auf X. Er behauptet, ohne eine Quelle zu nennen, er wisse, wie der Täter heisse: Ali al-Shakati. Angeblich sei er erst kürzlich mit einem Boot nach England migriert. Weiter habe er bereits vor der Tat unter Beobachtung des Nachrichtendienstes MI6 gestanden.
Hinter der Falschinformation steckt diskriminierende Erzählung: Ausländer sind gewaltbereit, Bootsmigranten verdächtig, besonders solche, deren Namen muslimisch klingen. Weiter sagt der Staat, unschuldige Britinnen und Briten vor gefährlichen Tätern zu schützen.
Daraus resultierte in einer bestimmten Gesellschaftsschicht in Grossbritannien eine Mischung aus Angst, Wut und Ohnmacht, die die Menschen in einen Aktionismus versetzt. Innerhalb eines Tages veröffentlichen rund 18 000 verschiedene Nutzerkonten Beiträge mit dem erfundenen Namen Ali al-Shakati.
Dann springt ein zwielichtiger Akteur auf die Aktualität: Channel3Now, eine Webseite mit Verbindungen zu Russland und Pakistan, die aussieht wie ein Newsportal, aber keine Journalisten beschäftigt, greift das Gerücht in einem inzwischen gelöschten Artikel auf und teilt diesen wiederum auf X. Der Post Wird schnell zwei Millionen Mal aufgerufen.
Soziale Netzwerke empfehlen den erfundenen Namen
Die Empörung verbreitet sich online aber nicht nur, weil viele Leute die erfundene Geschichte teilen, sondern auch, weil Empfehlungsalgorithmen der sozialen Netzwerke auf die Falschnachricht aufspringen.
Auf X erscheint der erfundene Name als Suchbegriff in den Trends und verschafft ihm so mehr Aufmerksamkeit. Und wer auf Tiktok das Wort „Southport“ in das Suchfeld eingibt, erhält als Vorschlag in der Rubrik „Andere Nutzer suchen“ den Suchbegriff „Ali al-Shakati in Southport festgenommen“ – auch noch neun Stunden, nachdem die Polizei mitgeteilt hatte, dass der Name erfunden sei, und die Öffentlichkeit hatte darum gebeten, Spekulationen über den Täter zu unterlassen.
Das ist stoßend. Es ist das Eine, wenn soziale Netzwerke möglichst viel Meinungsfreiheit ermöglichen und auch kontroverse Wortmeldungen stehen lassen. Aber es ist etwas anderes, Nutzern aktiv Falschnachrichten zu empfehlen – zu einem Zeitpunkt, an dem bereits klar war, dass Name und Hintergrund des Täters frei erfunden waren. Denn durch das proaktive Handeln der Plattformen erreichten die Falschinformationen auch Leute, die ihr ohne Empfehlungsalgorithmus vielleicht nie begegnet wären.
Für Tiktok und X hat dies eine wirtschaftliche Logik: Die Plattformen verdienen Geld damit, wenn Nutzerinnen und Nutzer möglichst lange auf ihren Websites und Apps verweilen. Wer dort empörende Dinge liest, bleibt länger online, das weiss man aus der jahrelangen Beobachtung. Damit ist davon auszugehen, dass sich die Netzwerke an den Falschinformationen bereichern konnten.
Britische Politikerinnen und Politiker wie die Innenministerin Yvette Cooper kritisieren soziale Netzwerke nun zu Recht und sagen, diese hätten schneller reagieren müssen, Falschinformationen als solche kennzeichnen und Aufrufe zu Gewalt löschen müssen.
Dennoch greift es zu kurz, den Plattformen die gesamte Verantwortung für die Eskalation der Gewalt zuzuschreiben. Schliesslich haben tausende britische Nutzerinnen und Nutzer die erfundene Story über den kriminellen Migranten leichtgläubig geteilt, ohne vorher den Wahrheitsgehalt überprüft zu haben.
Das zeigt: Nutzerinnen und Nutzer sozialer Netzwerke müssen noch mehr auf die Konsequenzen ihres Online-Verhaltens achten. Wer ohne eigene Recherche unbestätigte Gerüchte verbreitet, trägt eine Mitverantwortung an der Eskalation.