Кенийский суд готовит почву для судебного иска, в котором утверждается, что Facebook сыграл роль в разжигании конфликта в Эфиопии Тыграй

Эфиопы, подавшие в суд на Meta за неспособность должным образом модерировать контент, который усилил насилие, в результате которого во время войны Тыграй погибло более полумиллиона человек, получили добро на обслуживание гиганта социальных сетей за пределами Кении. Это последнее дело, направленное на то, чтобы заставить прекратить распространение жестоких, ненавистных и подстрекательских сообщений.

Кенийский суд в четверг предоставил петиционерам разрешение служить Meta в Калифорнии, США, после того, как им не удалось отследить местный офис гиганта социальных сетей. Выяснилось, что, хотя у Meta есть бизнес-операции в Кении, у нее нет физического офиса, поскольку ее местные сотрудники работают удаленно.

Это решение закладывает основу для начала судебного процесса, поданного в декабре прошлого года кенийской правозащитной группой Katiba Institute и эфиопскими исследователями Фиссехой Текле и Абрамом Меарегом. В иске утверждается, что отец Мирега, профессор Меарег Амаре Абрха, был убит во время войны в Тыграе после того, как посты в Facebook доксировали и призывали к насилию против него.

Заявители стремятся заставить Meta прекратить вирусную ненависть в Facebook, активизировать проверку контента в центре модерации в Кении и создать компенсационный фонд в размере 1,6 млрд. долл..

Авторы петиции утверждают, что алгоритм Facebook усиливал ненавистнические и подстрекательские посты, которые вызывали больше взаимодействий и дольше удерживали пользователей в системе.

Они утверждают, что Facebook «недостаточно инвестировал» в проверку человеческого контента в центре в Кении, рискуя жизнями, поскольку игнорировал, отвергал или действовал вяло, удаляя сообщения, которые также нарушали стандарты сообщества.



Мирег сказал, что его семья не понаслышке знает, как несовершенная модерация контента может поставить под угрозу жизнь и разрушить семьи.

Он утверждает, что его отец был убит после того, как Мета не отреагировала на неоднократные просьбы удалить сообщения, нацеленные на него и других тиграянцев, поскольку призывы к резне против этой этнической группы распространились в Интернете и за его пределами. Война в Тыграе, длившаяся два года, разразилась в ноябре 2020 года после того, как эфиопская армия столкнулась с силами Тыграя, в результате чего погибло 600 000 человек.

«Мой отец был убит, потому что сообщения, опубликованные в Facebook, идентифицировали его, ложно обвиняли, просочили адрес, где он живет, и призвали к его смерти», — сказал Мирег, бывший аспирант, добавив, что он был вынужден бежать из страны и искать политическое убежище в США после смерти отца.

«Случай моего отца не единичный. Примерно во время публикаций и его смерти Facebook был переполнен ненавистными, подстрекательскими и опасными сообщениями… произошло много других трагедий, подобных нашей», — сказал он.

Мета отказалась от комментариев.

Мирег говорит, что сообщал о сообщениях, которые встречал, но его сообщения были либо отклонены, либо проигнорированы. Он утверждает, что в 2021 году сообщил о нескольких сообщениях, в том числе об одном с трупами, и некоторые из этих сообщений все еще находились в социальной сети к тому времени, когда он обратился в суд в декабре прошлого года.

Он осудил проверку контента Facebook, заявив, что в кенийском центре всего 25 модераторов отвечают за контент на амхарском, тигринийском и оромо, в результате чего 82 других языка остаются без модераторов.

Ранее Meta сообщила TechCrunch, что использует команды и технологии, чтобы помочь избавиться от разжигания ненависти и подстрекательства, и что у нее есть партнеры и сотрудники со знанием местных условий, которые помогают разрабатывать методы обнаружения нарушающего контент.

«В Facebook была допущена ошибка, превратившая его в орудие для распространения ненависти, насилия и даже геноцида», — сказала Марта Дарк, директор Foxglove, неправительственной организации по техническому правосудию, поддерживающей это дело. «Мета может предпринять реальные действия сегодня, чтобы остановить ненависть, распространяющуюся в Facebook».

Это не первый случай, когда Мету обвиняют в разжигании насилия в Эфиопии. Информатор Фрэнсис Хауген ранее обвинила его в «буквальном раздувании этнического насилия» в Эфиопии, а расследование Global Witness также отметило, что Facebook плохо выявляет язык ненависти на основном языке Эфиопии.

В настоящее время платформы социальных сетей, включая Facebook, остаются заблокированными в Эфиопии с начала февраля после того, как планы государства по разделению эфиопской православной церкви Тевадо вызвали антиправительственные протесты.

Добавление к проблемам Меты в Кении

Мета сталкивается с тремя судебными процессами в Кении.

Даниэль Мотаунг, бывший модератор контента, предъявил иск компании и ее партнеру по обзору контента в странах Африки к югу от Сахары, компании Sama, в Кении в мае прошлого года за использование и уничтожение профсоюзов.

Мотаунг утверждал, что Сама уволил его за организацию забастовки 2019 года, целью которой было объединение сотрудников Самы в профсоюзы. Он судился с Метой и Самой за принудительный труд, эксплуатацию, торговлю людьми, несправедливые трудовые отношения, уничтожение профсоюзов и неспособность обеспечить «адекватное» психическое здоровье и психосоциальную поддержку.

Meta потребовала вычеркнуть свое имя из иска, заявив, что Motaung не является ее сотрудником и что кенийский суд не имеет над ней юрисдикции. Однако ей не удалось остановить судебный процесс после того, как суд постановил, что ей нужно ответить, поскольку некоторые аспекты того, как компания работает в стране, влекут за собой ответственность. Гигант социальных сетей обжаловал решение суда.

Ранее в этом месяце на Meta вместе с Sama и другим партнером по обзору контента, Majorel, подали в суд 183 модератора контента, которые утверждали, что они были уволены незаконно и занесены в черный список. Модераторы утверждали, что они были уволены из Sama незаконно после того, как она свернула свое подразделение по проверке контента, и что Meta проинструктировала своего нового партнера из Люксембурга, Majorel, внести в черный список бывших модераторов контента из Sama.

Meta также пыталась быть исключенной из этого дела, но на прошлой неделе кенийский суд заявил, что он обладает юрисдикцией в отношении споров между работодателем и работником и «вопросами предполагаемого незаконного и несправедливого увольнения по сокращению штата», и что он имеет полномочия « для обеспечения соблюдения предполагаемых нарушений прав человека и основных свобод» Мета, Сама и Мажорель.