Skip to main content

Facebook und der Bürgerkrieg

von Kerstin Kohlenberg
Die Zeit vom 08.12.2022

Ein äthiopischer Professor wird aufgrund der Hetze eines gefälschten Facebook-Accounts ermordet. Der Artikel diskutiert die Verantwortung des Unternehmens für die Eskalation von ethnischen Konflikten weltweit, die aufgrund der Plattformbindung im Geschäftsinteresse sind (Hass = Präsenz = Wachstum). Schwerpunkt bildet die Arbeit des Oversight Board (prominent besetzte, Facebook-interne Kontrollinstanz), der Konzern muss sich vor dem amerikanischen Supreme Court verantworten.

Sie sehen hier den reinen Text in der anonymisierten Form für die Jury. Bilder, Layout oder multimediale Umsetzung sind beim Deutschen Journalistenpreis kein Bewertungskriterium. Allein das Wort zählt.

Facebook und der Bürgerkrieg

Jeder Mord hat seinen eigenen Geruch. Der Mord an dem äthiopischen Professor Meareg Amare riecht nach Mango und Diesel. Den Mangobaum hatte Meareg zusammen mit seiner Frau Nigist hinter dem Tor zu ihrem Haus gepflanzt. Der schwere, stechende Geruch von Diesel hängt in Äthiopien über fast allen Städten, über Addis Abeba, der Hauptstadt mit ihren verstopften Straßen, und über Bahir Dar, wo der Mord am 3. November 2021 geschehen ist. Es ist der Geruch vom schnellen Wachstum eines armen Landes. Der Geruch von Freiheit und Zerstörung.

Nigist Hailu war gerade in der Kirche, als der Anruf kam. Ein unbekannter Mann sei am Apparat gewesen, erzählt sie, er habe gesagt, sie solle auf keinen Fall nach Hause gehen, sondern zur Polizei. Sie sei erschrocken gewesen und sofort losgelaufen. Auf der Polizeiwache habe ihr niemand etwas sagen wollen, stattdessen habe man sie zu ihrem Haus geführt. Am Tor zum Grundstück, sagt sie, hatte sich bereits eine Menschentraube versammelt. "Dann sah ich Meareg. Er lag vor dem Haus unter dem Mangobaum." Der Mund ihres Mannes habe offen gestanden.

Später erfuhr Nigist: Die drei Täter waren mit einem Auto und zwei Motorrädern gekommen. Alle drei trugen die Uniform der bewaffneten Spezialkräfte der Lokalregierung. Sie schossen ihm, Professor Meareg Amare, in die Beine und den Rücken, dann verschwanden sie wieder.

Nigist sagt, sie sei zusammengebrochen, habe ihren toten Mann umarmt und versucht, seinen Mund zu schließen. Eine einzige Person aus der Menschentraube habe ihr geholfen. Die anderen hätten nur dagestanden und geschaut.

Die Fahrt zu Nigist – in Äthiopien sind die Vornamen das, was bei uns die Nachnamen sind – führt durch dichten Verkehr an den Rand von Addis. Vorbei an Ziegenhirten, die ihre Herden über die Fahrbahn treiben, während sie aufs Smartphone gucken, an einem gigantischen Rohbau-Komplex für ein chinesisches Hightech-Unternehmen, an Verschlägen, in denen Kaffee angeboten wird. Nigist wohnt hier im dritten Stock eines Mehrfamilienhauses, weil sie in ihrer Heimat nicht mehr sicher ist. Vor der Tür hat sie ein Metallgitter anbringen lassen. Sie muss vorsichtig sein, auch hier. Die Familie gehört zur kleinen Volksgruppe der Tigrayer, gegen die die äthiopische Regierung zwei Jahre lang Krieg geführt hat. Es ist der wohl tödlichste Konflikt unserer Zeit, 500.000 Menschen sind ihm laut Schätzungen der Universität Gent zum Opfer gefallen. Seit einigen Wochen gibt es eine vage Hoffnung auf Frieden. Die Parteien haben zugesagt, die Kämpfe zu beenden. Aber was wird aus dem Hass?

Nigist schließt die Tür und stopft eine Decke vor den Spalt am Boden. Keiner soll hören, was drinnen gesagt wird. Sie zieht das schwarze Tülltuch über ihren Haaren zurecht. Sie ist 57 Jahre alt, seit dem Mord an ihrem Mann sind die Haare grau, sagt sie. Im Wohnzimmer ein Ecksofa, ein Tisch, an der Wand ein Bild von Meareg. Sonst nichts. Ein Raum wie ein Wartezimmer. Ihre Mutter ist auch da, die beiden haben Frühstück zubereitet, Linsen, Fladenbrot, scharfe Soßen.

Nigist greift in ihre Tasche, wie ungefähr jeder dritte Äthiopier hat auch sie ein Smartphone. Ein Samsung. Auf diesem Handy wurde sie damals, nach dem Mord, von dem Unbekannten angerufen, auf diesem Handy hat sie gespeichert, was ihr von ihrem Ehemann geblieben ist. Sie zeigt Bilder, darauf ein großer, schlanker, nachdenklich wirkender Mann in Sakko und Hemd, College-Professoren-Kleidung, die Hände lässig in den Hosentaschen. Auf einem Video sieht man, wie sie lachend versucht, ihn zum Tanzen zu bringen. Auf einem anderen singt er leise für sie. Nigist rollen beim Betrachten Tränen über die Wangen. Das Handy speichert ihr Leben. Es verbindet sie über Facebook mit ihren vier Kindern, die mittlerweile alle ins Ausland geflohen sind, nach Schweden, Frankreich, in die USA. Und es verbindet sie mit einigen ihrer alten Nachbarn in der Heimatstadt. Nie zuvor waren sich die Äthiopier so nah. Nie zuvor waren sie so sehr verfeindet.

Bevor Meareg im Alter von 60 Jahren starb, wurde gegen ihn gehetzt – auf einem Facebook-Konto mit dem Namen BDU STAFF. BDU steht für Bahir Dar University. Staff heißt Personal. Das Konto sieht aus wie eine offizielle Seite, die die Universität für ihre Angestellten eingerichtet hat, also für Menschen wie Meareg, der dort 16 Jahre lang arbeitete. Zuerst als Dozent für Chemie, dann als Assistenzprofessor, kurz vor seinem Tod bekam er eine reguläre Professur. BDU STAFF postet allerdings nicht nur alltägliche Informationen über das Campusleben, über akademische oder sportliche Erfolge, sondern auch begeisterte Beiträge über den Krieg der Regierung gegen die Tigrayer.

Das Konto hat viele Leser, 50.000 Menschen folgen ihm. Am 9. Oktober 2021, knapp vier Wochen vor der Tat, wird dort ein Foto von Meareg gepostet, darüber steht: "Sein Name ist Professor Meareg Amare Abreha. Er ist ein Tigrayer." Der Beitrag ist lang, der anonyme Verfasser behauptet, Meareg habe auf der Seite der Volksbefreiungsfront von Tigray gegen die Truppen der Regierung gekämpft, danach sei er in die USA geflohen. Einen Tag später veröffentlicht BDU STAFF einen weiteren Post über Meareg, wieder samt Foto von ihm. Dieses Mal steht da, der Professor habe Gelder der Universität veruntreut und sich mit ihnen sein Haus gebaut und diverse Autos gekauft.

Einige seiner Studenten schreiben in den folgenden Tagen in die Kommentarspalte unter dem Post, dass Meareg ein Guter sei, ein prima Lehrer, ein netter Mensch. Aber die meisten Kommentatoren fordern Rache: "Worauf wartet ihr noch. Schlaft ihr? Ihr seid so peinlich, warum habt ihr sein Blut noch nicht getrunken?"

Wie sollte Facebook reguliert werden?

Auf keinem Kontinent steigt die Internetnutzung so schnell wie in Afrika. Ein Land wie Äthiopien mit seinen 120 Millionen Einwohnern, von denen die große Mehrheit immer noch keinen Zugang zum Netz hat, muss einer Plattform wie Facebook als idealer Zukunftsmarkt erscheinen. In den reichen Ländern des Westens wächst Facebook schon lange nicht mehr, fast jeder hat dort ein Smartphone, fast jeder ein Facebook-Konto, und die Jungen wenden sich sogar von der Plattform ab. In Afrika dagegen ist Facebooks Muttergesellschaft Meta gerade dabei, 45.000 Kilometer Kabel einmal um den gesamten Kontinent zu legen, um 18 Länder mit Highspeed-Internet zu versorgen. Wie viele Lügen, wie viel Hetze wird dieses Kabel nach Afrika bringen?

Facebook hat sich eine Art Hausordnung auferlegt. Umgangsregeln, weltweit gültig, für alle drei Milliarden Nutzer. Hass, Morddrohungen, Gewaltverherrlichung, Rassismus, Sex, Verschwörungstheorien oder Fake-Konten, all das ist nicht erlaubt. Verstößt ein Beitrag gegen die Hausordnung, soll er mit einem Warnhinweis versehen oder gelöscht werden. Eigentlich ganz einfach. Und doch ziemlich kompliziert. Ab wann wird legitime Kritik zu Hass oder Rassismus? Ab wann freie Meinungsäußerung zu Desinformation oder Gewaltverherrlichung? Soll das, was ein Politiker schreibt, genauso behandelt werden wie das, was ein einfacher Bürger postet? Wann ist in einem politischen Lagerkampf der Moment kurz vor zu spät erreicht, in dem man eingreifen muss?

Unmöglich, solche Fragen mal eben in einem Regelwerk zu beantworten, das sich an knapp 40 Prozent der Menschheit richtet. Facebook muss permanent neu abwägen zwischen der Freiheit eines offenen Diskurses und dem Schutz vor Enthemmung. Natürlich spielen dabei auch Geschäftsinteressen eine Rolle. Facebook verdient sein Geld damit, Werbung zu schalten für Menschen, die sich Beiträge anderer Menschen anschauen. Wenn zu viele Posts gelöscht werden, sinkt irgendwann der Umsatz.

Deshalb war es eine Überraschung, als Mark Zuckerberg das Oversight Board gründete – eine Art Obersten Gerichtshof für Facebook. Im Oktober 2020, ein Jahr vor dem Mord an Meareg, nahm er seine Arbeit auf. Er soll letztgültige Urteile sprechen über die richtige Anwendung der Hausordnung. Facebook hat versprochen, sich diesen Urteilen zu unterwerfen: Wenn sein Gerichtshof bestimmt, dass ein Beitrag gelöscht werden soll, muss Facebook dies tun. Das Board setzt also die Grenzen dessen, was auf der Plattform gesagt werden darf. Es wird zwar von Facebook finanziert, durch einen 280-Millionen-Dollar-Fonds, soll seine Entscheidungen aber unabhängig von den Geschäftsinteressen des Unternehmens treffen. Niemand kann seine Mitglieder entlassen, auch dann nicht, wenn sie Mark Zuckerberg kritisieren.

Manche sehen im Oversight Board den Beweis dafür, dass Facebook nach all der Kritik daran, welche Schäden die Plattform im gesellschaftlichen Miteinander angerichtet hat, nach all den Debatten über Polarisierung, Fake-News und anonyme Hass-Postings endlich zur Vernunft gekommen ist. Für sie sieht es so aus, als wolle Facebook jetzt Verantwortung übernehmen für die Folgen seines Tuns. Die ehemalige dänische Ministerpräsidentin Helle Thorning-Schmidt ließ sich als Mitglied des Oversight Board gewinnen, der ehemalige Chefredakteur des englischen Guardian Alan Rusbridger, die jemenitische Friedensnobelpreisträgerin Tawakkol Karman. Insgesamt 23 Juristen, Ex-Politiker und Journalisten. Sie alle eint: Sie bekommen für 15 Stunden Arbeit im Monat laut [anderem Medium] jährlich einen sechsstelligen Betrag. Und: Sie haben einen Ruf zu verlieren.

Das Board hat auch Kritiker. Sie erkennen in ihm schlicht den Versuch eines Milliardenkonzerns, sein Geschäftsmodell zu retten: Bevor staatliche Behörden uns regulieren, regulieren wir uns lieber selbst. Ein bisschen.

Das Oversight Board hat seine Zentrale in London. Es gibt kein Schild an der Tür, der genaue Ort soll geheim bleiben. Drinnen dann hohe Decken, Industrieloft-Optik, Coffeeshop-Atmosphäre, die Verkleidung der Moderne. Normalerweise säßen im Büro jetzt Menschen, die neue Fälle sichten oder aktuellen hinterherrecherchieren. Neben den 23 Mitgliedern hat das Board 78 Mitarbeiter, sie arbeiten hier in London, in San Francisco und Washington. Aber weil seit Corona alle im Homeoffice sind, ist an diesem Tag im Sommer 2022 nur Thomas Hughes da. Der Verwaltungsdirektor des Oversight Board, selbst kein Mitglied des Gremiums, das die Entscheidungen trifft, ist gerade erst aus Kalifornien zurück. Mark Zuckerberg hatte ihn und die Mitglieder zu einem ersten persönlichen Treffen eingeladen. "Bislang kannten sich alle nur von Zoom", sagt Hughes.

Noch nie hat der Oberste Gerichtshof von Facebook Journalisten Zutritt gewährt. Zu groß erschien das Risiko, dass etwas von den zum Teil heftig geführten Debatten nach draußen dringt. Erst nach langem Hin und Her gab es das Okay für diesen Besuch.

Bevor er anfing, für das Board zu arbeiten, war Thomas Hughes Direktor einer NGO, die sich für den Schutz der Meinungsfreiheit einsetzt. Sein Leben lang hat er versucht, das Leise lauter zu stellen, damit die Menschen mehr als nur eine Stimme hören. Er hat nach dem Tsunami von 2004 in Indonesien Radiostationen aufgebaut, er hat im Irak nach dem Krieg Zeitungsgründungen begleitet und an Gesetzen zur Pressefreiheit in Liberia mitgearbeitet. Immer ging es um unabhängigen Journalismus. Jetzt gebe es die sozialen Medien, sagt Hughes. Dort werde viel gebrüllt, und es gehe darum, das Gebrüll erträglich zu machen. "Es wird immer Probleme in einer Gesellschaft geben. Auch auf Facebook. Wir brauchen einfach nur ein besseres System und bessere Prozesse, um diese Probleme zu erkennen."

Allein im ersten Jahr nach der Gründung des Oversight Board erhoben Nutzer weltweit mehr als eine Million Mal Einspruch gegen eine Entscheidung von Facebook. Hughes und seine Mitarbeiter schauen sich die Einsprüche an, dann sieben sie sie wie Goldschürfer in mehreren Durchgängen – sie suchen die perfekten Beispiele, Präzedenzfälle für den Umgang mit Hass, Gewalt, Desinformation. "Ich glaube, wir können helfen, dass Facebook aus diesen Fällen lernt und besser wird", sagt Hughes.

Etwa einmal im Quartal wählen die 23 Richterinnen und Richter drei Fälle aus, die sie bearbeiten wollen, jeweils in kleinen Gruppen. Zu jedem Fall wird dann recherchiert, Experten werden befragt, Facebook muss einen Fragenkatalog beantworten. Ein langwieriger Prozess, bis heute sind erst 31 Urteile gefällt. Es ging dabei zum Beispiel um die Abbildung einer weiblichen Brust im Zusammenhang mit der Aufklärung über Brustkrebs, um die Frage, ob auf Facebook über die Haftbedingungen des Chefs der Arbeiterpartei Kurdistans (PKK) diskutiert werden darf, oder darum, ob es erlaubt sein sollte, jemanden als "feige" zu bezeichnen. In allen drei Fällen hatte Facebook eine Löschung verfügt: Die Brust war nackt, die PKK wird von Facebook als "gefährliche Organisation" eingestuft und "feige" als negative Charakterbezeichnung. Alle drei Male lautete das Urteil der Richterinnen und Richter: Die Löschung war falsch, Facebook muss sie rückgängig machen.

Der größte Fall aber war ein anderer: Donald Trump. Am 7. Januar 2021, dem Tag nach dem Sturm auf das Kapitol in Washington, sperrte Facebook Trumps Konto für immer. Es war eine hochpolitische Entscheidung, mitten im Kulturkampf zwischen Demokraten und Republikanern in den USA, in dem Facebook immer wieder von beiden Seiten unter Beschuss gerät. Vielen Linken sind die Regeln auf der Plattform zu lasch, sie machen Facebook für den Siegeszug des Trumpismus verantwortlich, für Hetze, Gewalt und Verschwörungstheorien von rechts. Viele Rechte dagegen vermuten bei jeder Löschung: Das linke Silicon Valley will uns zensieren! Natürlich auch jetzt wieder, nach der Sache mit Trump.

Facebook selbst wollte von seinem Obersten Gerichtshof wissen, ob die Sperre richtig war. Das Board gab es zu jenem Zeitpunkt erst seit wenigen Monaten, und die Mitglieder fragten sich, ob dieser Fall nicht ein bisschen zu groß für den Anfang war. "Was, wenn wir einen Fehler machen?" – so beschreibt einer, der damals dabei war, die Sorge. Sie nahmen den Fall schließlich doch an, ließen sich knapp vier Monate Zeit und kamen zu dem Ergebnis, dass Trumps Posts zum Sturm auf das Kapitol beigetragen hatten. Er hatte seinen Anhängern auf Facebook die Lüge von der gestohlenen Wahl erzählt, und sie hatten sie geglaubt. Allerdings, so das Urteil in letzter Instanz, sei eine lebenslange Sperre willkürlich. Die Richterinnen und Richter reduzierten sie auf ein halbes Jahr und verlangten von Facebook allgemeingültige Regeln für solche Beschlüsse.

Das Internet veränderte die Art, wie Menschen kommunizierten

Facebook ergänzte seine Hausordnung und verlängerte die Sperre auf zwei Jahre. Bald, am 7. Januar 2023, läuft sie aus. Spätestens dann muss Mark Zuckerberg entscheiden, ob er Trump wieder hereinlassen will, so wie es Elon Musk gerade auf Twitter gemacht hat.

Als sie ihr Urteil zu Trump verkündeten, wurden die Richterinnen und Richter grundsätzlich: Sie forderten Facebook auf, künftig politische Konflikte wie den, der die USA in eine so tiefe Krise gestürzt hat, besser im Blick zu behalten. Konflikte überall in der Welt. Und Facebook versprach, dies zu tun. Mindestens genauso wichtig wie die Frage, was Facebook mit Trump macht, ist deshalb die Frage, was Facebook aus Trump gelernt hat.

Facebook überwacht seine Plattform im Prinzip immer auf die gleiche Weise, egal ob in den USA, in Europa oder in Ostafrika. Ein Algorithmus sucht nach anstößigen Inhalten. Findet er welche, löscht er die meisten automatisch. Manchmal teilt er sie aber auch einem Menschen zu, der dann im Auftrag von Facebook eine Entscheidung treffen muss: weg damit oder nicht? In wirtschaftlich starken Ländern wie den USA oder Deutschland sitzen viele solcher sogenannten Content-Moderatoren. Für Länder wie Äthiopien, den Jemen, den Irak oder Myanmar sind kaum welche zuständig. Facebook gibt dort einfach weniger Geld aus. Es sind genau die Regionen, die oft politisch besonders instabil sind.

Im Mai 2021, als das Oversight Board seine Grundsatzentscheidung im Fall Trump verkündet, sind in Äthiopien bereits Zehntausende Menschen gestorben. Im Norden des Landes, wo die meisten Tigrayer leben, gehen Regierungstruppen gegen Rebellen vor, es kommt zu Massakern und Plünderungen, die Regierung hat die Region von jeglicher humanitärer Hilfe abgeschnitten. Bei Facebook müssen sie nun schnell ihr Versprechen einlösen. Seit einiger Zeit schon sortieren sie Staaten nach Risikokategorien ein, Äthiopien ist in der höchsten Stufe. Facebook kann die Verbreitung von Beiträgen, die es als potenziell gefährlich betrachtet, algorithmisch verlangsamen. Es kann den Algorithmus mit mehr Schlüsselbegriffen füttern, die zur Löschung von Beiträgen führen. Oder besondere Filter aktivieren, um Posts besser zu überwachen. Was genau Facebook davon in Äthiopien tut und ob sich nach Trump etwas ändert, bleibt unklar. Bekannt wird lediglich: Facebook stellt neue Content-Moderatoren ein.
Von außen betrachtet mag alles gut aussehen. Aber wie fühlt es sich an, wenn man mittendrin ist?

Als die beiden anonymen Facebook-Posts über Meareg im Oktober 2021 online gehen, steckt darin – wie in jeder effektiven Verleumdung – eine kleine Wahrheit. Meareg ist wirklich nicht in seiner Heimatstadt. Nur ist er, anders als auf dem Konto BDU STAFF behauptet, nicht in die USA geflohen, weil er für die Volksbefreiungsfront von Tigray gekämpft hätte. Er ist in die Hauptstadt Addis gefahren, um Verwandten zu helfen, die Corona haben.

In ihrer Wohnung in Addis erzählt seine Frau, wie viele Sorgen sie sich nach den Posts gemacht habe. In einer solch explosiven Lage jemanden so zu beschuldigen – ihr sei sofort klar gewesen, dass ihn das in Gefahr bringe. "Nach dem Ausbruch des Krieges hatten Nachbarn aufgehört, uns zu grüßen. Wenn wir an ihnen vorbeigegangen sind, sind sie plötzlich verstummt", sagt Nigist. "Das waren Freunde von uns!" Sie habe ihren Mann gebeten, erst einmal in Addis zu bleiben. "Aber Meareg wollte nicht. Er hat gesagt, er sei doch kein politischer Mensch."

Die beiden lernten sich 1982 kennen. Meareg war ein junger Chemielehrer im bergigen, grünen Norden Äthiopiens, in einem Vorort der mittelalterlichen Stadt Gondar. Das Land wurde damals von Kommunisten regiert, die Meareg 1983 verhaften ließen. Man warf ihm vor, ein Regimegegner zu sein, damals schon. Gefoltert hätten sie ihn, ihm mit Nägeln auf die Füße geschlagen, erzählen Nigist und ihre Mutter. Nach einem Jahr sei er freigekommen. Sie zeigen das Entlassungsdokument. Danach hätten sie ihn gepflegt. Nigist und Meareg heirateten. Später bauten sie ihr Haus in Bahir Dar und gründeten eine Familie.

Im Jahr 1991 erkämpfte die Volksbefreiungsfront von Tigray mit Verbündeten den Sieg über die Kommunisten. Für Nigist, Meareg und die vier Kinder begann eine gute Zeit. Es spielte damals keine große Rolle, welcher ethnischen Gruppe man angehörte, sagt Nigist, sie hätten gute Freunde gehabt, die keine Tigrayer waren. Sie bauten ihre Garage um und vermieteten sie. Der Mangobaum vor ihrem Haus trug von Jahr zu Jahr mehr Früchte.

Das neue Jahrtausend kam. Überall in der Welt veränderte das Internet die Art, wie Menschen dachten, kommunizierten, handelten, aber in Äthiopien blieb erst einmal fast alles beim Alten. Kaum jemand war je online, die Regierung überwachte den Zugang zum Netz, viele Seiten waren ganz gesperrt, Journalisten und Blogger wurden regelmäßig verhaftet. 2018 kam es zu Massenprotesten. Neuer Premierminister wurde Abiy Ahmed, der seine Macht im Vielvölkerstaat Äthiopien nicht auf die alten Kader aus Tigray gründete, sondern auf Angehörige einer anderen Volksgruppe, der Amhara. Für die Familie von Nigist und Meareg und für andere Tigrayer begann eine schlechte Zeit.

Abiy Ahmet hob die Zensur des Internets auf, auch Facebook war bald ohne Einschränkungen erlaubt. Amhara begannen dort, gegen Tigrayer zu hetzen, und amharische Politiker riefen dazu auf, die Region Tigray "zurückzuerobern". Die ethnischen Spannungen nahmen zu. Gerade einmal zweieinhalb Jahre nach dem Amtsantritt des neuen Premierministers startete der Krieg zwischen der Regierung und der Volksbefreiungsfront von Tigray.

Im Aufenthaltsraum eines Studentenwohnheims in Paris sitzt ein 31-jähriger Mann, der miterlebt hat, wie unter Äthiopiern die radikalen Stimmen auf Facebook immer lauter geworden sind. Es ist Abrham, der zweitälteste Sohn von Nigist und Meareg. Eigentlich promoviert er in Äthiopien in Friedens- und Konfliktforschung, aber nach dem Mord an seinem Vater hat er ein Studentenvisum für Frankreich erhalten. Abrham spricht kein Wort Französisch. Manchmal ist es vielleicht besser, nichts zu verstehen von dem, was um einen herum geschieht.

Der Mensch reagiert am stärksten auf das, was ihn am meisten empört

Er und seine Freunde hätten die Wahl der neuen Regierung am Anfang begrüßt, sagt Abrham. "Wie alle jungen Leute haben wir uns auf mehr Freiheit gefreut."

Auf Facebook folgte er damals vor allem seinen Cousins und Cousinen, Politisches postete er nicht. Und dennoch setzte ihm, dem Tigrayer, der Facebook-Algorithmus einige Monate vor dem Mord an seinem Vater folgenden Beitrag eines bekannten regierungstreuen Nationalisten mit 250.000 Followern vor die Nase: "Die politischen Forderungen der Amhara dürfen nie wieder durch die Tigrayer kompromittiert werden. Unser Kampf wird sie zum Verlierer machen. Es ist vorbei!"

Als wäre eine Tür aufgegangen, durch die kalte Luft reinzieht, kamen danach immer mehr solcher Beiträge bei Abrham an. Zum Beispiel dieser: "Wenn den Amhara eure Augenfarbe nicht gefällt, dann werden sie Mittel und Wege finden. Lasst euch das gesagt sein!" Der Autor ist ein Äthiopier, der in den USA lebt und von dort aus den Konflikt anheizt. Abrham kennt den Mann nicht – und bekam trotzdem eine Direktnachricht von ihm: "Was machst du in Bahir Dar, du dreckiger Tigrayer?"

Wie gut solche Inhalte, rein ökonomisch betrachtet, für Facebook sind, weiß die Plattform schon lange. 2007 gründete Facebook ein "Wachstums-Team". Die Nutzer wurden zu so etwas wie Patienten, denen man mithilfe permanent veränderter Algorithmen immer neue experimentelle Medikamente zuführte. Das Team beobachtete, wie sich der jeweilige Algorithmus-Cocktail auf das Verhalten eines Nutzers auswirkte. Blieb er länger auf Facebook? Konnte man ihm also mehr Werbung zeigen? Es stellte sich bald heraus, welches Medikament am besten half: Hass. Der Mensch reagiert am stärksten auf das, was ihn am meisten empört. Die Empörung teilt er dann, er will mehr davon. So wird aus Facebook kein Ort des netten Beisammenseins, sondern ein Fußballstadion, in dem Menschen zusammenwachsen, indem sie gegen die Fans des anderen Teams sind.

Abrham meldete Facebook knapp 20 Beiträge. Das geht ganz leicht, man muss nur mit der Maus auf die drei Pünktchen am rechten Rand eines Posts gehen, klick, ein Fenster öffnet sich, man drückt auf "Beitrag melden", wieder klick, man wählt aus zwischen Kategorien wie "Belästigung", "Terrorismus" oder "Hassrede". Klick. Fertig.

Facebook lehnte jedes Mal eine Löschung mit der Begründung ab, der Inhalt verstoße nicht gegen die Hausordnung. Wenn Abrham solche Nachrichten in seinem Newsfeed nicht mehr sehen wolle, könne er ja die Person blockieren, schrieb ihm Facebook.

Im Oversight Board wissen manche genau, wie es ist, zum Opfer einer Hasskampagne in den sozialen Medien zu werden. Maina Kiai ist eines von vier Board-Mitgliedern aus Afrika. An einem Tag im Sommer 2022 sitzt er in einem Restaurant in Washington und bestellt Tapas. Kiai war schon UN-Sonderberichterstatter und Direktor des Afrika-Programms von Amnesty International, gerade arbeitet er für Human Rights Watch. Nach der Präsidentschaftswahl 2007 in seinem Heimatland Kenia starben viele Menschen, weil der unterlegene Kandidat behauptet hatte, die Wahl sei gefälscht gewesen. Kiai setzte sich später für eine Untersuchung der Unruhen ein, woraufhin er online attackiert wurde. Irgendwann standen die Angreifer vor seiner Tür. Bis heute habe er kein Facebook-Konto. "Das ist mir zu aufdringlich."

Nachdem ein Bekannter ihm geschrieben hatte, Facebook wolle mit ihm reden wegen eines Postens im Oversight Board, habe er lange überlegt, sagt Maina Kiai. Er habe sich umgehört, wer sonst noch alles mitmacht – lauter tolle Leute. Und es habe ihn interessiert, zu erfahren, wie Facebook überhaupt funktioniert.

Sein bisheriges Fazit in diesem Job? In 70 Prozent der Fälle hätten er und seine Kolleginnen und Kollegen eine Entscheidung von Facebook rückgängig gemacht, sagt Kiai. Die Plattform habe das jedes Mal umgesetzt. Allerdings hätten sie, basierend auf den Lehren aus diesen Fällen, auch 86 allgemeine Empfehlungen an Facebook gerichtet. Davon seien bislang gerade mal 28 voll umgesetzt worden. Immerhin ein Anfang, findet Kiai. Facebook habe die Hausordnung in zahlreiche zusätzliche Sprachen übersetzt und beantworte die Fragen seiner Obersten Richterinnen und Richter zu den einzelnen Fällen mittlerweile häufiger.

Er hört sich an wie ein Politiker, der die quälend langsame Veränderung einer mächtigen, weltweit tätigen Institution beschreibt. Währenddessen jedoch verändert diese Institution die Welt in Lichtgeschwindigkeit – und kommt dabei selbst nicht immer hinterher.

In Nairobi, der Hauptstadt von Kenia, arbeiten jene Menschen, die die politische Krise in Äthiopien für Facebook bewältigen sollen. Es sind die Content-Moderatoren, die potenziell gefährliche Posts prüfen sollen. Eine von ihnen heißt hier Senait, ihren echten Namen möchte sie aus Angst um ihren Job nicht öffentlich nennen. Senait hat Linguistik studiert und arbeitet für ein Subunternehmen, das von Facebook beauftragt wurde. Wie sie am Telefon über ihren Alltag im Kampf gegen den Hass erzählt, denkt man sich das Gleiche wie bei dem Gespräch mit Maina Kiai: Ja, Facebook tut etwas. Aber es ist nicht genug.

Sie sind jetzt 32 im Team, mehr als früher. Einige Neue wurden gerade erst eingestellt, sie sprechen nicht nur Amharisch, sondern auch Tigrinya, sodass sie nun Posts von beiden Seiten des ethnisch geprägten Konflikts überprüfen können. Aber auch hier bei ihnen, mitten in der Hauptstadt eines Nachbarstaates, sei dieser Konflikt längst angekommen, erzählt Senait. Eine aus dem Team, eine Amhara, habe zum Beispiel so gut wie nie Hetzbeiträge amharischer Nationalisten gelöscht. Das sei irgendwann aufgefallen, die Frau musste gehen. Das Problem mit der Zeitnot ist geblieben.

50 Sekunden hat Senait Zeit, um zu entscheiden, ob ein Post gelöscht werden muss. Jede Woche wird ihre durchschnittliche Bearbeitungszeit bewertet. Action handling time nennt die Firma das. "Das ist schon enorm viel Druck", sagt Senait. Kürzlich hat sich ihr Team ein höheres Gehalt erstritten, statt 600 Dollar bekommen sie nun 800 Dollar im Monat. Vorher hatten mal wieder fünf gekündigt. Die hohe Fluktuation macht es schwierig, Erfahrungen zu sammeln – zu lernen, das Schädliche vom Harmlosen zu trennen.

Obwohl Facebook Bescheid wusste, wurden Konten nicht gelöscht

Ob sie das Konto BDU STAFF kenne?
Senait ruft es bei Facebook auf. Kenne sie nicht, sagt sie. Sie scrollt und klickt sich durch die Seite, "hm, hm", klick, klick, "viele Schimpfwörter für die Tigrayer", klick, klick. Senait zeigt sich überrascht davon, wie oft dort Mitarbeitern der Universität ohne Beweise vorgeworfen wird, Gelder der Hochschule gestohlen zu haben oder aus anderen dubiosen Gründen reich zu sein. Klick, klick, "oh – das ist jetzt echt problematisch". In einem der Kommentare steht: "Wenn du ein echter Mann wärst, würdest du sie alle killen." Sie guckt sich die Facebook-Seiten von einigen der Kommentarschreiber an. "Die gehören zur Fano-Miliz", sagt sie. Fano-Miliz. Das klingt jetzt gar nicht mehr nach Alltagsleben auf dem Campus. Es handelt sich um eine bewaffnete Gruppe der Amhara, die auf der Seite der Regierung kämpfte. Unabhängige Beobachter werfen ihr die Teilnahme an Kriegsverbrechen gegen die Tigrayer vor, an Massenvergewaltigungen und ethnischen Säuberungen.

Nun könnte man vermuten, dass Facebook einfach in der Masse all der Beiträge ertrinkt. Ein Dokument der ehemaligen Facebook-Mitarbeiterin und Whistleblowerin Frances Haugen zeigt jedoch: In Wahrheit weiß die Plattform ganz genau, wer den Konflikt in Äthiopien angeheizt hat. Das Dokument liegt [dem Medium] vor, es war nur für interne Zwecke bei Facebook gedacht und sollte nie veröffentlicht werden. Darin wird ein Netzwerk von Facebook-Konten beschrieben, die eines gemeinsam haben: Sie stehen mit der Fano-Miliz in Verbindung. Dieses Netzwerk, so heißt es da, "verbreitet die Aufstachelung zu Gewalt und Hassrede in Äthiopien".

Obwohl Facebook also Bescheid wusste, sah es keinen Grund, die Konten zu löschen.

Warum das so ist, wird aus einem zweiten Dokument der Whistleblowerin ersichtlich, es liegt ebenfalls [dem Medium] vor. Darin wird Mark Zuckerberg mit der Aussage zitiert, er unterstütze zusätzliche Algorithmen, die gefährliche Inhalte löschen, verlangsamen, sperren. Allerdings macht er eine Einschränkung: Solche Algorithmen dürften keine Auswirkungen auf das Wachstum der Plattform haben. Es ist, als würde die Leitstelle der Bahn in den Führerstand der Lok funken: Fahrt gern langsamer, aber nur, wenn ihr nicht später am Ziel ankommt.

Und dann ist da noch die Sache mit den Promis. Bei Facebook gibt es eine Art Sonderprogramm für Politiker, Journalisten, Stars und andere Menschen mit vielen Followern. Cross-Check heißt es. Wen Facebook in dieses Programm aufnimmt, der muss sich nicht ganz so streng an die Hausordnung halten. Während die Mitglieder des Oversight Board über die Sperre von Donald Trump berieten, wurden sie von Facebook darüber informiert, dass es bei Cross-Check nur um einige wenige Persönlichkeiten gehe.

Frances Haugen, die Whistleblowerin, deckte später auf, wie viele Nutzer Facebook tatsächlich in offenbar genau dieses Programm einsortiert hat: 5,8 Millionen.

Am Dienstag dieser Woche wandte sich der Oberste Gerichtshof von Facebook an die Öffentlichkeit und forderte das Unternehmen auf, das Cross-Check-Programm massiv zu überarbeiten. Wer seine kommerziellen Interessen so sehr in den Vordergrund stelle wie Facebook mit der Sonderbehandlung für Prominente, heißt es da, der komme seiner Verantwortung in Sachen Menschenrechte nicht nach. Man merkt der Mitteilung an, dass die Leute vom Oversight Board wütend sind.

"Das hat uns die Augen geöffnet", sagt das Board-Mitglied Suzanne Nossel darüber, dass Facebook sie und ihre Kollegen belogen hat. Nossel ist Juristin und Vorsitzende des Autorenverbandes PEN America. Sie sei sich bewusst, sagt sie, dass das Oversight Board daran gemessen werde, ob es ihm gelinge, die negativen Folgen von Facebook in den Griff zu bekommen. "Also die Zerstörung des öffentlichen Diskurses." Nossel hält kurz inne. "Momentan sind wir dazu nicht optimal positioniert." Wenn sie nur am Rand säßen und sich einen Fall nach dem anderen ansähen, ohne Facebook strukturell zu verändern, dann sei das vertane Zeit.

Die sozialen Medien und der Hass. Man könnte es mit einer anderen existenziellen Krise vergleichen, bei der nicht mehr viel Zeit bleibt. Vielleicht ist der Hass für Plattformen wie Facebook das, was Gas und Kohle für klassische Industriegesellschaften sind – der Brennstoff, der das Wachstum antreibt. Und vielleicht ist ein Bürgerkrieg genau wie die Erderhitzung die Folge, die man dafür in Kauf nimmt. Man verspricht, sie zu bekämpfen, tut in Wahrheit aber nicht viel.

Es hätte auch anders kommen können. Facebooks Wachstum war von Anfang an politisch gewollt. Schon vor mehr als einem Vierteljahrhundert entschieden amerikanische Politiker, soziale Medien von einer gesetzlichen Verantwortung für die Inhalte zu befreien, die auf ihren Websites gepostet werden. Es war ein Geschenk aus Washington ans Silicon Valley. Eine Starthilfe, die damals ganz harmlos schien. Es gab noch keine Algorithmen, die die Aufmerksamkeit der Menschen für den Hass perfektionieren. Dass einmal ein kalifornischer Milliardenkonzern den Verlauf politischer Konflikte rund um die Erde mitbestimmen würde, war undenkbar.

Im August 2021 nahmen Suzanne Nossel, Maina Kiai und die anderen Board-Mitglieder einen Fall aus Äthiopien an. Ein Facebook-Nutzer hatte in einem Beitrag behauptet, tigrayische Zivilisten würden den Kämpfern der Volksbefreiungsfront von Tigray dabei helfen, Gräueltaten zu begehen. Sie hätten die Milizen von Tür zu Tür geführt, Frauen und Kinder der Amhara seien getötet worden. Die Informationen habe er von Menschen aus den betroffenen Regionen. Der Post endete mit den Worten: "Wir werden durch unseren Kampf unsere Freiheit gewinnen."

Die Löschung des Facebook Posts kam zu spät

Facebooks Algorithmen meldeten den Beitrag. Das Team in Nairobi prüfte ihn und entschied, er verstoße gegen die Hausordnung. Der Beitrag wurde gelöscht. Sein Verfasser legte dagegen bei Facebook Einspruch ein. Erneut prüfte das Content-Team, erneut urteilte es: Der Beitrag müsse gelöscht werden.

Doch der Verfasser gab sich nicht geschlagen. Er wandte sich nun an das Oversight Board. Dort nahm man sich des Falles an. Eine hitzige Debatte entbrannte. Ein Teil der Mitglieder, so erzählen es Beteiligte heute, war für die Löschung – und erinnerte an ein anderes Bürgerkriegsland, an Myanmar. Dort waren auf Facebook eine Zeit lang immer wieder Gerüchte gestreut worden, um Angehörige der in dem Land lebenden muslimischen Minderheit zu diffamieren. Der Hass gipfelte in einem verheerenden Gewaltausbruch, Tausende Muslime wurden ermordet, knapp eine Million flohen ins benachbarte Bangladesch. Facebook hat seine Rolle bei diesem Genozid lange heruntergespielt. Erst nach einer offiziellen Untersuchung der Vereinten Nationen gab das Unternehmen zu, nicht genug zur Verhinderung der Gewalt getan zu haben.

Die Mitglieder, die gegen die Löschung waren, argumentierten mit dem Recht auf Information. Über die offiziellen Medien in Äthiopien hätten sich die Menschen nicht informieren können, dort sei kaum über den Konflikt berichtet worden. In einer derartigen Situation könne ein solcher Beitrag über eine Plattform wie Facebook der Bevölkerung wichtige Hinweise geben.

Anhand des Äthiopien-Falles wollte das Board die Frage beantworten, wie man mit Gerüchten über Gräueltaten umgehen soll, in einem Land, in dem Menschen sich gegenseitig oft nur über soziale Medien vor Gefahren warnen können. Eine Frage der Abwägung, mal wieder – zwischen der Gewalt, die das Gerücht auslösen, und dem Schutz, den es bieten kann, falls es wahr ist.

Das Board-Mitglied Nossel sagt, für sie sei der Äthiopien-Fall einer der schwierigsten bisher gewesen. Wie sollten sie sich entscheiden?

Am 14. Oktober 2021 meldet der Sohn von Professor Meareg, Abrham, die hetzerischen Beiträge des Kontos BDU STAFF über seinen Vater an Facebook.

Am 30. Oktober lässt der Facebook-Algorithmus einen Beitrag auf Abrhams Facebook-Seite aufploppen: "In Bahir Dar leben 46.000 Tigrayer mit ihren Familien. Ob wir wollen oder nicht, wir müssen uns gegen die Terroristen wehren. Die Dummen und Tauben werden verschwinden."

Diesmal kennt Abrham den Verfasser. Es ist sein bester Freund. Die beiden waren Nachbarn, sie sind zusammen zur Schule gegangen, sie haben zusammen Fußball gespielt, sie erzählten sich, wenn sie sich in ein Mädchen verliebt hatten.

Am 31. Oktober 2021 schreibt der Freund: "Wir müssen die Tigrayer, die in Gondar oder Bahir Dar leben, genau beobachten und die nötigen Schritte unternehmen. Wenn wir so grausam sein werden, wie sie es sind, dann können wir siegen."

Drei Tage später, am Morgen des 3. November 2021, fährt Meareg ein letztes Mal zu seiner Universität. Sein Arbeitgeber hat ihm kurz zuvor nahegelegt, die Kündigung einzureichen. Niemand dort redet noch mit ihm. Er holt ein paar letzte Sachen ab und fährt wieder nach Hause. Dort trifft er auf seine Mörder.

Am 4. November setzt Facebook für Äthiopien ein Extra-Notfallteam ein.

Am 11. November schickt das Unternehmen Abrham eine Nachricht. Der Post über seinen Vater verstoße gegen die Community-Standards und sei entfernt worden. Da ist der Vater seit einer Woche tot.

Am 14. Dezember 2021 fällt das Oversight Board sein Urteil über den Fall aus Äthiopien: Der Beitrag mit dem Gerücht soll gelöscht werden. Zudem empfiehlt es Facebook, eine unabhängige Prüfung in Auftrag zu geben: Welche Rolle spielt die Plattform in diesem Konflikt? Facebook antwortet, so etwas sei sehr "zeitintensiv". Bis heute ist nichts geschehen.

Meareg ist nun seit gut einem Jahr tot. Seine Frau Nigist weiß nicht, ob und wo er begraben wurde. Das gemeinsame Haus wurde ihr genommen, es ist jetzt ein Quartier der bewaffneten Spezialkräfte.

Das Konto BDU STAFF hat seitdem gegen mehrere weitere Professoren und Mitarbeiter der Bahir Dar University gehetzt, die angeblich Tigrayer sein sollen. Auf Nachfrage bestätigt die Universität, dass BDU STAFF ein anonymer Account ist, der nicht von ihr betrieben wird. Er bereite große Probleme. Das Konto ist weiterhin online. Facebooks Mutterkonzern Meta äußert sich auf wiederholte Nachfragen nicht dazu.

In der Zwischenzeit ist in den USA der Oberste Gerichtshof aktiv geworden. Nicht das Oversight Board. Sondern der echte, der Supreme Court in Washington. Zum ersten Mal hat er einen Fall angenommen, in dem er darüber entscheiden muss, ob digitale Plattformen wie Facebook für ihre Inhalte verantwortlich sind – und damit auch für die Folgen, die diese Inhalte in der realen Welt haben. Zum Beispiel für den Tod eines 60-jährigen Chemie-Professors in einer Stadt im Nordwesten Äthiopiens.