Whistleblowerin Frances Haugen : „Facebook betreibt digitalen Kolonialismus“

Vor sechs Monaten ging Haugen mit den „Facebook-Files“ an die Öffentlichkeit. Was hat sich seitdem verbessert? Ein Interview über die Zukunft von Social Media.

Whistleblowerin Frances Haugen : „Facebook betreibt digitalen Kolonialismus“

Frances Haugen will eine NGO gründen, um sich für Standards auf sozialen Netzwerken einzusetzen.imago images/ZUMA Wire

Frau Haugen, vor einem halben Jahr sind Sie mit den „Facebook Files“ an die Öffentlichkeit gegangen. Was haben wir daraus gelernt?
Unsere Fähigkeit, ein Problem zu lösen, hängt sehr stark davon ab, wie wir es betrachten beziehungsweise „framen“. Vorher musste die Öffentlichkeit Facebooks Framing der Probleme auf der Plattform einfach akzeptieren, weil das Unternehmen keinen Blick hinter die Kulissen erlaubt hat.

Deswegen drehte sich die öffentliche Debatte jahrelang nur darum, ob Facebook die Meinungsfreiheit einschränkt oder nicht – das war volle Absicht. Deswegen bekommt das Aufsichtsgremium, das Facebook selbst eingesetzt hat, nur strittige Fälle vorgelegt, bei denen es um Entscheidungen zu Inhalten geht.

Whistleblowerin Frances Haugen : „Facebook betreibt digitalen Kolonialismus“

Jetzt kostenlos testen!

Ich habe großen Respekt vor den Mitgliedern des Oversight Boards und ihrer Arbeit, aber sie sind total frustriert.

Sie werden beispielsweise nicht darüber informiert, wie Facebook Inhalte über verschiedene Sprachen hinweg ausspielt und moderiert oder wie die KI-Systeme in unterschiedlichen Sprachen funktionieren oder wirken. Wir sehen jetzt, dass das Problem viel größer ist als die Frage nach der Abwägung zwischen Meinungsfreiheit und Zensur.

Wie meinen Sie das?
Wenn man es nicht besser weiß, kann man auch keine Veränderung erwirken. Die Enthüllungen haben gezeigt, dass Facebook zwanzig oder dreißig Lösungswege für Probleme auf der Plattform kennt, die das Produkt sicherer machen würden, diese aber nicht implementiert.

Es gäbe sicher noch mehr, wenn Wissenschaft und Zivilgesellschaft mit am Tisch säßen und mitarbeiten könnten. Das ist die eigentliche Wirkung der „Facebook Files“ gewesen: Die Öffentlichkeit akzeptiert nicht mehr, dass die Verhältnisse auf der Plattform sein müssen, wie sie derzeit sind.

Wir wissen jetzt, dass soziale Medien ernsthafte gesundheitliche und mentale Schäden verursachen. Das ist nicht mehr nur ein diffuses Gefühl, dass etwas nicht stimmt.

Gab es seitdem denn greifbare Veränderungen?
Besonders hervorzuheben sind die Jugendschutzmaßnahmen auf Instagram, Eltern bekommen mehr Kontrolle über die Accounts ihrer Kinder. Diese Änderungen sind eigentlich schon seit über zehn Jahren nötig, ausgerechnet jetzt wurden sie eingeführt.

Ich sage ja nicht, dass ein kausaler Zusammenhang besteht, aber nun ja, entscheiden Sie selbst… Außerdem hat Facebook ein neues verbessertes KI-System eingeführt, das Hassrede besser erkennen soll.

Das heißt zwar noch lange nicht, dass es nicht die gleichen Probleme hat wie sein Vorgänger, aber das sind alles Schritte in die richtige Richtung. Und gesetzgeberische Maßnahmen wie der Digital Services Act (DSA) der EU werden den Weg für weitere Veränderungen ebnen, weil damit erstmals Transparenzauflagen für Plattformen verbindlich vorgeschrieben werden.

Was hat sich persönlich für Sie verändert seit den Enthüllungen?
Das Entscheidende für mich ist, dass ich wieder ruhig schlafen kann, seit ich an die Öffentlichkeit gegangen bin. Ansonsten lebe ich ein ruhiges Leben in Puerto Rico und schätze mich sehr glücklich, dass ich keine Hetze oder Anfeindungen in den sozialen Medien erfahren habe. Das scheint ja eher die Ausnahme zu sein.

Die Welt ist eine andere geworden. Welche Lehren sollten wir aus dem Krieg in der Ukraine ziehen bezüglich der Regulierung der Plattformen?
Das ist eine extrem wichtige Frage, die wir uns jetzt stellen müssen. In meiner Zeit bei Facebook habe ich mich damit beschäftigt, wie man koordinierte Desinformationsnetzwerke aufspürt und mit ihnen umgeht.

Da geht es um ganz grundsätzliche Maßnahmen, etwa darum, wie man bekannte Akteure nachhaltig von der Plattform verbannt. Aber wir konnten immer nur an einem Drittel der Fälle arbeiten, von denen wir wussten, weil es nicht genug Ressourcen gab.

Das zeigt, wie wenig Facebook über die Jahre in dieses Problem investiert hat, das rächt sich jetzt. Das macht mich wirklich wahnsinnig wütend. Facebook hat ja die Technologien, um koordinierte Netzwerke hinter Desinformationskampagnen aufzuspüren.

Das sind auch keine neuen Phänomene, solche Kampagnen gab es von beiden Konfliktparteien seit mindestens 2015. Es ergibt natürlich auch Sinn, dass Menschen in diese Entscheidungen involviert sind und solche Netzwerke nicht vollautomatisch gesperrt werden.

Aber dafür benötigt es eben genug Personal, das auch Sprachen wie Ukrainisch spricht. Wenn Ressourcen nämlich einfach aus anderen Bereichen abgezogen werden, um kurzfristig auf Situationen wie in der Ukraine zu reagieren, eröffnet man Flanken an anderer Stelle. China kann sich gerade mit Blick auf Taiwan austoben und auch die Wahl in Frankreich wäre ein leichtes Ziel in dieser Situation.

Ein schwerwiegender Fehler kam auch erst letzte Woche ans Tageslicht. Laut internen Dokumenten, über die „The Verge“ zuerst berichtete, wurden über ein halbes Jahr versehentlich schädliche Inhalte, die bereits von unabhängigen Faktenprüfern als solche gekennzeichnet waren, verbreitet, statt unterdrückt. Das hat deren Aufrufe weltweit um bis zu 30 Prozent erhöht. Überrascht Sie so etwas noch?
Das ist ein gutes Beispiel dafür, dass Facebook an allen Ecken und Enden spart, wenn es im Dunkeln operieren darf. Sie verstehen nicht wirklich, wie ihre eigenen Algorithmen funktionieren, weil die Probleme nicht mit der notwendigen Sorgfalt analysiert werden.

Es gab auch mal ein Tool, mit dem man in bis zu zehn Facebook-Gruppen gleichzeitig posten konnte. So ist ganz einfach, eine Beeinflussungsoperation durchzuführen. Dass Fehlinformationen in der Zeit um fünfunddreißig Prozent stiegen, hing damit zusammen.

Es hat Monate gedauert, bis das jemand gemerkt hat. Eigentlich kein Wunder: Ich möchte daran erinnern, dass Facebook innerhalb eines Jahres Aktien im Wert von etwa 75 Milliarden Dollar zurückgekauft hat. Dennoch haben sie damit geprahlt, dass sie fünf Milliarden Dollar pro Jahr für die Sicherheit ausgeben.

Man hätte mehr Datenwissenschaftler einsetzen können und das Problem früher gelöst, jedes zusätzliche Prozent dieser 75 Milliarden hätte für die Sicherheit von Usern einen rieseigen Unterschied gemacht. Sie reinvestieren nicht in das Unternehmen, sie kaufen keine anderen Vermögenswerte, sie zünden es an.

Whistleblowerin Frances Haugen : „Facebook betreibt digitalen Kolonialismus“

Facebook will mehr sein als ein soziales Netzwerk. Die Umbenennung in Meta ist ein Zeichen dafür.REUTERS/Dado Ruvic

Solchen systemischen Risiken sollen ja mit dem Digital Services Act (DSA) ein Ende gesetzt werden. Ende April steht der vielleicht letzte DSA-Trilog an. Worauf kommt es aus ihrer Sicht bei der Regulierung der Plattformen am meisten an?
Man muss systemisch an die Plattformen rangehen und soziale Medien von Grund auf demokratisch und sicher designen. Dafür braucht es einerseits Transparenz. Facebook hat verhindert, dass ein öffentliches Modell der Rechenschaftspflicht aufgebaut werden kann, indem es alle Informationen verborgen hat.

Durch den DSA könnte sich das verbessern. Der Plan, die Ausnahmeregelung für Geschäftsgeheimnisse abzuschaffen, ist schon mal gut. Außerdem sollten Daten nicht nur zertifizierten Wissenschaftlern zu Forschungszwecken, sondern auch NGOs zugänglich gemacht werden.

Der andere Punkt betrifft politische Werbung. Im Moment richtet sich der Preis für Anzeigen nach der Qualität, und der Maßstab für Qualität sind die Reaktionen. Wenn Sie also eine wütende, polarisierende, abwertende Werbung schalten, ist das fünfmal billiger als eine einfühlsame oder mitfühlende Werbung. Das ist schlecht für unsere Demokratie.

Sie sprechen heute im Digitalausschuss. Wird das auch Ihre Botschaft an die Parlamentarier sein?
Ein weiterer wichtiger Punkt ist sprachliche Gleichbehandlung. Die Systeme werden derzeit von englischsprachigen Menschen in einem englischsprachigen Land entwickelt. Ich denke, das ist eine Form des digitalen Kolonialismus.

Länder wie Äthiopien haben bereits gesagt, dass Facebook ihr Land zerstört hat und sie ihre eigenen sozialen Medien aufbauen wollen. Ich sehe die Gefahr, dass Länder mit fragiler Staatlichkeit am Ende doch auf Angebote wie We Chat aus China zurückgreifen.

Wenn wir die Probleme nicht mit Blick auf alle Sprachräume angehen, werden die Chinesen auf den Plan treten und als nächstes die digitale Seidenstraße aufbauen. Wollen wir ein freies und demokratisches Internet wirklich so bereitwillig aufgeben?

Der DSA geht diese Probleme ja an, wird aber ja erstmal nur in Europa helfen, oder?
In der Europäischen Union gibt es immerhin 24 Amtssprachen und die Realität ist, dass Facebook nicht mehr segmentiert arbeiten kann. Als Großbritannien letzten Sommer neue Kinderschutzregeln verabschiedete, hat Instagram überraschenderweise in der Woche, in der sie in Kraft traten, eine Reihe von Maßnahmen für diese Zielgruppe eingeführt.

Es bietet sich hier wirklich eine große Chance, dass die Produkte insgesamt sicherer werden. Denn von Risikominderungsmaßnahmen profitieren am Ende alle Länder. Etwa davon, dass zuerst auf einen Link geklickt werden muss, bevor er geteilt werden kann oder von unabhängigen Faktenchecks.

In Deutschland plant die aktuelle Regierung über den DSA hinaus noch ein digitales Gewaltschutzgesetz und eine Überarbeitung des Netzwerkdurchsetzungsgesetzes. Sollte die DSA der Goldstandard werden oder finden sie es sinnvoll, dass national bestimmte Dinge weitergeführt werden?
Es kommt darauf an. Lösungen, die uns offensichtlich erscheinen, wie Inhalte auf der Plattform zu moderieren, sind vielleicht nicht die effektivsten Maßnahmen gegen Hass im Netz. Ich befürworte, dass Inhalte von Menschen innerhalb von 24 Stunden geprüft werden müssen, aber nicht unbedingt starre Löschfristen. Hier habe ich Sorge vor Overblocking. Meines Erachtens sind die Lösungen, die wir brauchen, aber nicht inhaltsbezogen.

[Wenn Sie alle aktuellen Entwicklungen zur Coronavirus-Pandemie live auf Ihr Handy haben wollen, empfehlen wir Ihnen unsere App, die Sie hier für Apple- und Android-Geräte herunterladen können.]

Diskutiert werden zum Beispiel auch gerichtliche Verfahren, mit denen zeitweilige oder – im Fall von Wiederholungstätern – auch dauerhafte Accountsperren verhängt werden können.
An die Wiederholungstäter ranzugehen ist eine gute Idee, denn diese verursachen einen überproportional großen Teil der Probleme. Ich bin auch dafür, dass die Justiz Zugang zu Facebook-Daten erhält, um schnelle Entscheidungen treffen zu können.

Es gibt definitiv ein Muster, dass sich Menschen, selbst wenn sie vor Gericht gehen, nicht durchsetzen können, weil Facebook die Daten zu ihren Fällen nicht rausrückt. Das ganze Justizsystem darauf auszurichten, mit Hass auf Plattformen umzugehen, ist aber wiederum nicht der richtige Weg. Der Königsweg bleibt, das Produkt insgesamt sicherer zu machen.

Die EU plant außerdem eine Gesetzgebung zur Durchsuchung von Chatnachrichten und Bildern mit dem Ziel, die Verbreitung von Missbrauchsdarstellungen von Kindern und sexuelle Anbahnungsversuche gegenüber Kindern einzudämmen. Dabei muss eine schwierige Abwägung getroffen werden zwischen einer Einschränkung der Privatsphäre von Nutzer:innen auf sozialen Netzwerken und Messenger-Diensten und dem Schutz der betroffenen Kinder. Wie kann das gelingen?
Wir müssen auf jeden Fall zwischen verschiedenen Plattformen unterscheiden. Es ist beispielsweise schwierig, ein Kind über Signal ausfindig zu machen und einfach so anzuschreiben, wenn man die Nummer nicht kennt. Bei Facebook Messenger ist das hingegen ganz einfach, über Hashtags, die gerade in einer bestimmten Altersgruppe oft genutzt werden.

Deswegen befürworte ich Gesetze, die das Problem kontextualisiert betrachten, Verschlüsselung nicht pauschal abschaffen wollen und Sorgfaltspflichten für die Sicherheit enthalten. Ich sehe da viele Probleme in den kommenden Jahren auf Facebook zukommen.

Zum Beispiel?
Das Unternehmen hat beispielsweise keinen Plan, wie es Kinder vor Schäden durch die Nutzung von Oculus VR-Brillen im Metaverse bewahren will. Junge Leute werden Bildschirmen mit nur wenigen Zentimetern Abstand von ihren Augen ausgesetzt, und es gibt im Vorfeld keine richtigen Studien zu den Auswirkungen.

Es schmerzt wirklich, das so klar sagen zu müssen, aber ich fürchte, wir werden noch eine Tragödie erleben, was die Effekte von Oculus und die Augen von Kindern betrifft. Ganz abgesehen von den Anbahnungsversuchen, die sie in der virtuellen Welt Horizon erleben können. Es gibt keine „safety by design“ bei Oculus, diese Debatte sollten wir jetzt führen und nicht erst in fünf Jahren.

Welche Rolle wollen Sie in der weiteren Debatte zu digitalen Plattformen und Produkten in Zukunft spielen?
In Großbritannien und der EU sind wir auf der Zielgeraden, was Verbesserungen auf Regulierungsebene betrifft. In den USA ist es mit der Gesetzgebung hingegen etwas komplizierter. Dafür können wir dort auf dem Prozessweg viel erreichen. Man kann aber nur gegen Unternehmen klagen, wenn man ihnen eine Verletzung der Sorgfaltspflicht nachweisen kann.

Dieser Standard, was realistisch von den Plattformen erwartet werden kann, muss aber erst definiert werden. Daran möchte ich zusammen mit anderen Akteuren arbeiten. Ein Beispiel wäre, was Meta tun muss, damit unter 13-Jährige keinen Zugang zu Plattformen wie Instagram erhalten.

Zwar gibt das Unternehmen damit an, dass es zuletzt 600.000 Accounts von unter 13-Jährigen gesperrt hat, andererseits lässt sich aus internen Dokumenten ableiten, dass mindestens 20 Prozent der Elfjährigen einen Instagram-Account haben. Das passt nicht zusammen.

Wie definiert man einen solchen Standard?
Ich möchte einen Entwurf vorlegen und diesen dann mit Wissenschaftlern in einem offenen Prozess diskutieren. Man kann auch Studierende einbinden, davon erhoffe ich mir kreative Ideen, wie man beispielsweise feststellt, dass jemand unter 13 ist.

Diese könnte man in einem Wiki sammeln. Im zweiten Schritt müssen wir Daten von Facebook anfragen, damit wir auch überprüfen können, ob sie die Standards einhalten. Ein dritter Weg ist, finanziellen Druck zu erzeugen. Wir wissen, dass Meta gerne den ESG-Investmentkriterien entsprechen will, damit Anteile an dem Unternehmen als ethisches Investment gelten.

Wir haben gerade einen Dialog mit ESG-Investoren auf der ganzen Welt begonnen. Wenn wir definieren, welche Standards Meta dafür erfüllen muss, haben wir etwas in der Hand und können das Unternehmen daran messen. Finanzieller Druck ist sehr effektiv.

Zusätzlich schweben mir noch Bildungs- und Dialogmaßnahmen vor, damit Data Scientists und andere Expert:innen an simulierten sozialen Netzwerken Dinge ausprobieren können.

Die Gesetze der Statistik, die auf sozialen Netzwerken herrschen, sind ganz andere, als in anderen Bereichen. Deswegen braucht es eine kritische Masse von Menschen, die davon etwas versteht. Für all diese Zwecke möchte ich demnächst eine NGO gründen.

Der neue Morgenlage-Newsletter: Jetzt gratis anmelden!

Eine Quelle: www.tagesspiegel.de

Hinterlasse eine Antwort

Deine Email-Adresse wird nicht veröffentlicht.