Entwicklung und
Zusammenarbeit

Elasticsearch Mini

Elasticsearch Mini

Soziales Netzwerk

Facebook und die Fake News

Beim Thema Fake News denkt jeder automatisch gleich auch an Facebook. Das weltweit größte soziale Netzwerk hat nur halbgare Konzepte gegen Falschnachrichten und Desinformation zu bieten und gerät derzeit durch einen der größten Datenskandale aller Zeiten in Verruf.
Facebook bemüht sich nicht ernsthaft im Kampf gegen Fake News. Nano Calvo/Lineair Facebook bemüht sich nicht ernsthaft im Kampf gegen Fake News.

„Wenn die Message stimmt, ist uns eigentlich egal, woher das Ganze kommt oder wie es erstellt wurde. Dann ist es auch nicht so tragisch, dass es fake ist.“ Das Zitat stammt von Christian Lüth, Pressesprecher der rechtsnationalistischen Partei AfD. Es bezieht sich auf eine Bildmontage, die 2017 getweetet wurde und auf der eine Politikerin der Jungen Union zur Antifa-Steinewerferin umgedeutet wurde. Das Zitat ist ein Bekenntnis zum postfaktischen Zeitalter, in dem das Schüren von Angst vor linken Krawallmachern, Flüchtlingen und kritischen Medien mehr zählt als faktische Genauigkeit.

Falschnachrichten oder Fake News sind kein neues Phänomen – man denke nur an die gefälschten Hitler-Tagebücher, die das Magazin Stern 1983 veröffentlichte, oder die angebliche Existenz von Massenvernichtungswaffen im Irak, die 2003 zur Rechtfertigung des US-Kriegseinsatzes diente. Neu ist, dass mithilfe der sozialen Medien jeder Einzelne Desinformationen verbreiten kann, während die klassischen Medien ihre Filter- und Vermittlerfunktion immer mehr verlieren.

Ein Problem dabei sind auch die sogenannten Social Bots, das sind leicht zu erstellende Computerprogramme, die automatisiert bestimmte Aufgaben erfüllen. Sie können in sozialen Netzwerken menschliche Identitäten in Fake-Accounts vortäuschen und diese mit Falschmeldungen oder Hetzkampagnen überfluten. Social Bots teilen ihre Beiträge gegenseitig und setzen damit Scheinthemen, die echte Diskussionen überlagern.

Beim Thema Fake News geht es fast automatisch auch immer um Facebook. Das soziale Netzwerk hat fast 2,2 Milliarden aktive Nutzer, deutlich mehr als ein Viertel der Weltbevölkerung. Viele junge Menschen auch in Entwicklungsländern beziehen ihre Informationen fast ausschließlich über Facebook.

Facebook liebt das Extreme. Und es liebt Nachrichten, die Emotionen wecken und in großer Zahl geteilt werden. Viele Nutzer fühlen sich von Fake News angesprochen, weil sie viel spannender als die Nachrichten der etablierten Medien anmuten.


Einfluss von Fake News

Wie groß der Einfluss von Falschmeldungen ist, zeigt etwa die Abstimmung um den Austritt Britanniens aus der EU. Die Briten stimmten für den Brexit, nachdem die Befürworter die Lüge in die Welt gesetzt hatten, ohne EU-Mitgliedschaft könnte das nationale Gesundheitswesen wöchentlich 350 Millionen Pfund pro Woche mehr bekommen. US-Präsidentschaftskandidatin Hillary Clinton wurde im Wahlkampf wahlweise als Drahtzieherin von Kinderpornoringen oder Sympathisantin von Al-Kaida- oder IS-Terroristen verunglimpft – am Ende gewann Donald Trump, der von Fake News mehr versteht als von Politik. Die Verbindungen des US-Präsidenten nach Russland sind Gegenstand von Ermittlungen. Russische Trollfabriken, die im Auftrag des Staates verdeckt Manipulationen im Internet betreiben sollen, werden verdächtigt, die US-Wahl in den sozialen Medien maßgeblich beeinflusst zu haben.

Im Präsidentschaftswahlkampf in Kenia waren in den sozialen Medien gefälschte CNN- und BBC-Videos im Umlauf, die mit ebenfalls gefälschten Zahlen einen hohen Vorsprung des Amtsinhabers Uhuru Kenyatta vor seinem Herausforderer Raila Odinga verkündeten. Dass Kenyattas Wahlsieg nur vereinzelt zu Ausschreitungen führte und nicht in eine Gewalteskalation wie nach der Wahl 2007 mündete, ist wohl der Erfahrung der Wähler im Umgang mit Fake News zu verdanken. In einer Umfrage der Beratungsfirma Portland unter 2000 Kenianern gaben 90 Prozent der Befragten an, ihnen seien vor der Wahl Falschmeldungen untergekommen, von denen 87 Prozent vorsätzlich falsch waren.

In den sozialen Medien sind Fake News nicht nur politisch motiviert, sondern auch ein lukratives Geschäft. Erst im August 2017 kam Facebook auf die Idee, ein Werbeverbot für Seitenbetreiber zu verkünden, die wiederholt Fake News teilen. Facebook argumentiert, dass es „auf diese Weise unwirtschaftlich“ für Seitenbetreiber werde, Falschmeldungen zu verbreiten. Allerdings kann das Verbot wieder aufgehoben werden, wenn die Seitenbetreiber mit der Veröffentlichung von Falschmeldungen aufhören.

Ein größeres Problem geht von privaten Accounts aus. Facebook weigert sich, anonymisierte Daten über Produktion und Verbreitung von Desinformation auf privaten Accounts für wissenschaftliche Zwecke zur Verfügung zu stellen. Der Tech-Konzern begründet dies mit dem Schutz der Privatsphäre seiner Nutzer. Dieser Schutz war Facebook bei finanziellen Kooperationen mit Datenbrokern bis zuletzt aber wenig wichtig, wie auch der jüngste Datenskandal zeigt.


Der Facebook-Datenskandal

Im März wurde durch einen Whistleblower bekannt, dass sich die britische Datenanalysefirma Cambridge Analytica (CA) illegal Daten beschafft hatte. Facebook soll seit 2015 vom Datenraub gewusst, aber nichts unternommen haben. Facebook forderte lediglich die Löschung der Daten, ohne zu prüfen, ob CA dieser Forderung nachkam. CA agierte mithilfe einer Dritt-App, heruntergeladen von 270 000 Facebook-Nutzern. Was diese für einen harmlosen Persönlichkeitstest im Dienste der Wissenschaft hielten, war in Wahrheit eine Strategie zum Aufbau psychologischer Wahlkampagnen. Mit der Einwilligung zur Teilnahme gaben die 270 000 Nutzer nicht nur ihre eigenen Daten preis, sondern die ihrer Facebook-Freunde gleich mit, wodurch sich CA Datensätze von bis 87 Millionen Nutzern verschaffte.

Eine Undercover-Reportage des britischen Senders Channel 4 legt nahe, dass CA das Wahlverhalten der Social-Media-Nutzer mit Fake News und inszenierten Sexskandalen manipulierte. Offiziell brüs­tet sich die Firma, die von Trumps ehemaligem Chefstrategen Stephen Bannon mitaufgebaut wurde, nicht nur mit ihrem Einfluss auf die US-Wahl, sondern auch auf das Brexit-Votum, die Wahlen in Kenia 2013 und 2017 sowie viele andere Wahlen auf allen Kontinenten. Vieles davon dürfte Übertreibung zu Marketingzwecken sein, denn Cambridge Analytica arbeitete auch für den erfolglosen Präsidentschaftsbewerber Ted Cruz.

So oder so hat der Skandal dem Ruf von Facebook nachhaltig geschadet. Mehrere Unternehmen haben bereits ihren Rückzug aus dem sozialen Netzwerk verkündet. Facebook-Chef Mark Zuckerberg musste sich vor dem US-Kongress rechtfertigen, und es gibt Forderungen, den Tech-Konzern zu zerschlagen, um seine Vormachtstellung einzudämmen.

Vor allem nach der US-Wahl 2016 geriet Facebook schwer in die Kritik, weil es nichts gegen die Häufung von Fake News unternahm. Trump-Unterstützer setzten skrupelloser auf Falschmeldungen als die Gegenseite und profitierten dabei vom Facebook-Algorithmus, der oft geteilte Inhalte bevorzugt und in die Newsfeeds der Nutzer spült. Der Wahrheitsgehalt spielt dabei keine Rolle: Die Falschmeldung über eine Wahlempfehlung des Papstes für Trump wurde bis zum Wahltag mehr als 960 000 Mal geteilt, die Aufdeckung der Fälschung nur 34 000 Mal. Trotzdem bezeichnete Zuckerberg den Vorwurf, Facebook habe den Ausgang der Wahl beeinflusst, als „ziemlich verrückte Idee“.

Auf massiven öffentlichen Druck hin entwickelte Facebook dann doch ein halbgares Konzept, um die Verbreitung von Fake News einzudämmen. Im Frühjahr 2017 führte der Konzern in den USA in Zusammenarbeit mit externen Nachrichtenseiten eine Kennzeichnung umstrittener Inhalte ein: Ein von mindestens zwei Prüfern beanstandeter Beitrag wurde mit einem „Disputed“-Flag versehen, gekennzeichnet durch ein rotes Warndreieck. Mindestens zwei Prüfer sollten es sein, weil Facebook die Messlatte für das Stigma möglichst hoch ansetzen wollte. Mit dieser Strategie gab der Konzern die Bringschuld an die Nutzer weiter, denn diese mussten potenzielle Fake News zunächst melden, damit die externen Prüfer überhaupt ins Spiel kamen.

Am Ende musste Facebook zugeben, dass die Warndreieck-Strategie nicht funktionierte. Die externe Prüfung dauerte oft mehrere Tage, die Falschmeldung wurde in dieser Zeit schon tausendfach geteilt. Außerdem gelten nicht gekennzeichnete Inhalte plötzlich umso mehr als unumstritten. Nach Facebooks eigenen Angaben blieb die „Disputed“-Flag meist wirkungslos – und erzielte im schlimmsten Fall den gegenteiligen Effekt. Verschwörungstheoretiker und Demagogen drehten den Spieß um und bezichtigten den politischen Gegner der Lüge. Niemand schreit so oft „Fake News“ auf Twitter wie der US-Präsident – und verbreitet so viele Unwahrheiten.

Ende 2017 schaffte Facebook das Warndreieck ab und setzt seitdem auf verwandte Inhalte, die die Falschnachricht in einen Kontext setzen. Dafür ist laut Facebook nur noch ein Faktenprüfer notwendig, was die Bearbeitungsdauer verkürzt. Die Klickrate von Fake News bleibe durch die neue Strategie zwar unverändert, die Falschnachrichten würden jedoch weniger verbreitet. Weil Facebook so geizig mit seinen Daten umgeht, lassen sich diese Angaben kaum überprüfen. Externe Faktenprüfer klagen jedenfalls darüber, dass ihre Arbeit durch die mangelnde Kooperation des Tech-Konzerns erschwert wird.


Patrick Schlereth ist Redakteur des Digitalressorts der Frankfurter Rundschau.
http://www.fr.de