Syn etiopskiego naukowca zabity po ataku na Facebooku: „Oni nic nie zrobili, a trzy tygodnie później zabili mojego ojca”.

3 listopada 2021 roku Meareg Amare Abrha, znany profesor chemii z ponad 40-letnim doświadczeniem, wracał z Uniwersytetu Bahir Dar w północnej Etiopii, gdy grupa uzbrojonych mężczyzn postrzeliła go w plecy zaledwie kilka metrów od domu, w którym mieszkał z rodziną. Abrha leżał na ziemi z licznymi ranami postrzałowymi klatki piersiowej i nóg, a napastnicy, którzy otoczyli jego ciało, ostrzegali przechodniów, że zrobią im to samo, jeśli spróbują udzielić pomocy medycznej mężczyźnie, którego oskarżyli o dopuszczenie się aktów przemocy wobec ludności regionu Amhara w Etiopii. Po siedmiu godzinach agonii Abrha w końcu wykrwawił się na śmierć.
Mężczyźni zidentyfikowali i odnaleźli profesora za pośrednictwem wpisu na portalu społecznościowym Facebook. Sąd Najwyższy Kenii w bezprecedensowej decyzji z 5 kwietnia orzekł, że ma jurysdykcję do ścigania Meta, spółki dominującej Facebooka, ponieważ w momencie opublikowania postów wymierzonych w Abrhę ich treść była monitorowana przez East Africa Moderation Center z siedzibą w Nairobi.
„Mój ojciec był oderwany od polityki. Większość czasu spędzał w laboratorium uniwersyteckim lub w domu, całkowicie poświęcając się pracy naukowej” – wyjaśnia Abrham Meareg, syn profesora, w swoim pierwszym wywiadzie dla hiszpańskojęzycznego medium. Jednak 9 października 2021 r., trzy tygodnie przed morderstwem, anonimowe konto na Facebooku o nazwie „BDU Staff” — które w tamtym czasie miało ponad 54 000 obserwujących — opublikowało informacje o profesorze Abrha. Pierwszy wpis zawierał zdjęcie jego twarzy z oskarżeniami o przemoc wobec ludności Etiopii i ukrywanie się na terenie uniwersytetu. Sieci zapełniły setki komentarzy nawołujących do nienawiści i przemocy wobec niego. Był to czas, gdy w Etiopii trwała brutalna wojna domowa pomiędzy armią etiopską a Tigrajskim Frontem Wyzwolenia Ludu. Obywatele regionu Tigraj, z którego pochodził nauczyciel, żyli w obliczu powszechnych i systematycznych prześladowań podczas konfliktu, który trwał od 2020 r. do podpisania zawieszenia broni w listopadzie 2022 r.
Następnego dnia na tym samym koncie pojawił się nowy wpis z jego zdjęciem i dokładnym adresem domowym. Oskarżono go o aktywny udział w masakrach, współpracę z rebeliantami z Tigraju podczas najazdów wojskowych oraz kradzież dużych sum pieniędzy. W ciągu zaledwie dwóch dni posty dotarły do tysięcy użytkowników, ale nie do Amare Abrhy, ponieważ nie miał on konta na Facebooku.
Po opublikowaniu wiadomości, syn nauczycielki otrzymał telefon od przyjaciela, który ostrzegł go, aby zwrócił uwagę na komentarze. „Na początku niektórzy próbowali bronić mojego ojca, mówiąc, że był tylko nauczycielem chemii. Jednak wielu innych zaczęło wzywać do działania, zachęcając ludzi, aby przestali marnować czas na Facebooku i zaatakowali go bezpośrednio. W Etiopii posty online mają bardzo realne konsekwencje offline”, wyjaśnia w rozmowie wideo z Minneapolis w Stanach Zjednoczonych, dokąd uciekł po tragicznym wydarzeniu.

Świadomy prawdziwego niebezpieczeństwa, w jakim znalazł się jego ojciec, Abrham Meareg natychmiast zgłosił posty: „Złożyłem dziesiątki raportów za pośrednictwem internetowego systemu zgłaszania Facebooka. Zrobiłem wszystko, co mogłem, aby ich ostrzec, ale Facebook nic nie zrobił. Trzy tygodnie później mój ojciec został zabity”. Osiem dni po morderstwie Meta w końcu odpowiedziała na prośbę Mearega. Platforma przyznała, że wpis naruszał standardy społeczności, w związku z czym post został usunięty, ale było już za późno, aby uratować życie ojca. Usunięcie drugiego posta zajęło rok.
Jurysdykcja transgranicznaW grudniu 2022 r. Abrham Meareg, Fisseha Tekle – była badaczka Amnesty International, która stała się celem internetowych kampanii nienawiści z powodu swojej działalności na rzecz praw człowieka – oraz Katiba Institute – kenijska organizacja specjalizująca się w ochronie praw konstytucyjnych – wspólnie pozwali Meta za promowanie szkodliwych treści podczas konfliktu zbrojnego w północnej Etiopii. Zrobili to przed kenijskim sądem w drodze petycji konstytucyjnej , czyli mechanizmu prawnego ustanowionego w tym kraju w celu zgłaszania możliwych naruszeń praw podstawowych. Skargę złożono w Kenii, ponieważ moderatorzy treści Facebooka dla Afryki Wschodniej pracują w Nairobi, stolicy kraju.
W skardze powódki twierdziły, że algorytmy Meta promowały treści, które doprowadziły do przemocy etnicznej w sąsiedniej Etiopii w latach 2020–2022. Po złożeniu pozwu firma kierowana przez Marka Zuckerberga argumentowała, że sądy kenijskie, w których wówczas mieścili się etiopscy moderatorzy Facebooka, nie miały jurysdykcji w tej sprawie. Jednakże Sąd Najwyższy Kenii orzekł, że ma jurysdykcję do ścigania go w tym kraju. Gazeta skontaktowała się z Meta, aby przedstawić swoją wersję wydarzeń, ale do tej pory nie otrzymała odpowiedzi.
„Fakt, że sprawa jest rozpatrywana w Kenii, ma sens, ponieważ wszystkie decyzje związane z moderowaniem treści były podejmowane w Nairobi” – wyjaśnia Alia al Ghussain, badaczka i doradczyni w zespole ds. odpowiedzialności dużych firm technologicznych w Amnesty Tech. Al Ghussain jest autorem raportu „Wyrok śmierci dla mojego ojca”: Wkład Meta w łamanie praw człowieka w północnej Etiopii , opublikowanego przez organizację Amnesty International, która pociąga duże firmy technologiczne do odpowiedzialności za łamanie praw człowieka. „Podczas śledztwa odkryliśmy, że Meta nie podjęła odpowiednich działań w zakresie moderowania treści antytygrajańskich, które szeroko krążyły na Facebooku podczas konfliktu w północnej Etiopii” – powiedział Al Ghussain. Podkreśla jednak, że „najbardziej niepokojące jest to, że algorytmy faworyzowały rozpowszechnianie treści ze względu na swój model oparty na interakcji”. „System priorytetowo traktuje posty, które generują najwięcej reakcji, komentarzy i udostępnień, niezależnie od tego, czy ich treść jest szkodliwa” – wyjaśnia.
System [Meta] priorytetowo traktuje posty, które generują najwięcej reakcji, komentarzy i udostępnień, niezależnie od tego, czy ich treść jest szkodliwa.
Alia al Ghussain, badaczka w Amnesty International
Meta publicznie oświadczyła, że zamierza odwołać się od decyzji Sądu Najwyższego Kenii. „Zamiast iść do sądu i bronić swoich działań — lub bezczynności — Meta systematycznie opóźniała i omijała proces, argumentując, że sąd nie ma jurysdykcji. To nie jest tylko strategia prawna; to sposób na uniknięcie odpowiedzialności. Proces pozwoli ocenić argumenty na podstawie ich prawdziwych zalet” — wyjaśnia Tom Hegarty, dyrektor ds. komunikacji w Foxglove, brytyjskiej organizacji, która wsparła sprawę Mearega i Tekle.
„To, co przydarzyło się mojemu ojcu, nie było tylko tragedią, to było coś, czego można było uniknąć. Facebook musi wziąć bezpośrednią odpowiedzialność za podżeganie do nienawiści i umożliwienie przemocy wobec niego” – wyjaśnia Abrham Meareg. Powodowie domagają się od Meta czterech rzeczy: zmodyfikowania algorytmu, który za pośrednictwem platformy podsyca nienawiść i przemoc; Inwestuj w lokalnych moderatorów treści, którzy rozumieją kontekst polityczny i kulturowy; publiczne przeprosiny za brak działania; oraz odszkodowania dla ofiar w wysokości około 2,15 miliarda euro na naprawienie wyrządzonych szkód. „Nie możemy zmienić tego, co stało się z moją rodziną, ale możemy pomóc zapobiec temu, co przytrafiło się innym” – wyjaśnia Meareg.
Globalny precedensTo nie pierwszy raz, kiedy Facebook otrzymuje oskarżenia tego rodzaju. Rolę organizacji w podsycaniu przemocy etnicznej w strefach konfliktu po raz pierwszy ujawniła Frances Haugen, była pracownica firmy, która w październiku 2021 r. ujawniła Kongresowi Stanów Zjednoczonych, w jaki sposób Facebook przyczynił się do masakry muzułmanów Rohingya w Mjanmie w 2017 r ., do czego firma się przyznała . Haugen ujawnił tzw. Facebook Papers , czyli zbiór dokumentów, które wskazywały na algorytmy personalizacji treści Meta jako główny czynnik rozprzestrzeniania mowy nienawiści, która podżegała do przemocy, wrogości i dyskryminacji w takich krajach jak Myanmar, Etiopia, Indie i Sri Lanka. Raport organizacji Global Witness z 2021 r. ujawnił również, że algorytm Facebooka wzmacniał treści naruszające jego własną politykę dotyczącą przemocy i dezinformacji po wojskowym zamachu stanu w Mjanmie , w wyniku którego na ulicach zginęły setki protestujących.
Kolejnym istotnym czynnikiem moderowania treści jest język. Organizacje zajmujące się prawami człowieka przypisują ten czynnik neokolonialnej postawie firmy. „Meta była wielokrotnie krytykowana za nierówne traktowanie anglojęzycznych krajów globalnej Północy w porównaniu z nieanglojęzycznymi krajami globalnego Południa, co sprawia, że użytkownicy z niektórych najbardziej narażonych krajów świata są jeszcze bardziej narażeni na przemoc” – czytamy w raporcie Amnesty International. Haugen poruszył szokujący fakt: „87% wydatków Facebooka na walkę z dezinformacją przeznaczanych jest na treści publikowane w języku angielskim, mimo że tylko 9% użytkowników posługuje się tym językiem”. Posty, które doprowadziły do śmierci profesora Mearega, zostały napisane w języku amharskim, urzędowym języku Etiopii.
Facebook rozróżnia swoich moderatorów w Stanach Zjednoczonych i to, co firma nazywa „resztą świata”. W 2023 roku Meta zamknęła swoje wschodnioafrykańskie centrum moderowania treści. W tamtym czasie w firmie pracowało 260 pracowników, którzy moderowali treści docierające do ponad 500 milionów odbiorców. Teraz sprawa wniesiona przez Mearega może ustanowić globalny precedens: „Duże amerykańskie firmy technologiczne nie powinny móc biegać po całym świecie i robić, co chcą, bez ponoszenia odpowiedzialności. Prawo międzynarodowe również ma do nich zastosowanie, a sądy afrykańskie, jak każdy inny sąd, mają pełne prawo je stosować” – powiedział Hegarty.
EL PAÍS