Facebook предоставляет более подробную информацию о своих усилиях по борьбе с языком вражды перед всеобщими выборами в Мьянме

Около трех недель назад Компания объявила о наращивании усилий по борьбе с разжиганием ненависти и дезинформации в Мьянме перед всеобщими выборами в стране 8 ноября 2020 г.. Сегодня компания предоставила более подробную информацию о том, что делает компания для предотвращения распространения языка вражды и дезинформации. Это включает добавление экранов предупреждений на бирманском языке, чтобы отмечать ложную информацию сторонними проверяющими фактами.

В ноябре 2018 года Facebook признал, что недостаточно сделал для предотвращения использования своей платформы для «разжигания разногласий и разжигания насилия вне сети» в Мьянме.

Это преуменьшение, учитывая, что Facebook был обвинен правозащитными группами, включая Совет по правам человека Организации Объединенных Наций, в распространении языка ненависти в Мьянме против мусульман рохинджа, ставших целью жестокой насильственной кампании этнической чистки. Расследование New York Times в 2018 году показало, что военные в Мьянме, преимущественно буддийской стране, спровоцировали геноцид против рохинджа и использовали Facebook, одну из наиболее широко используемых онлайн-сервисов страны, в качестве инструмента для проведения «систематической кампания »языка вражды против группы меньшинств.

В своем заявлении несколько недель назад Facebook заявил о том, что расширит свою политику дезинформации и удалит информацию, предназначенную для «подавления избирателей или нарушения целостности избирательного процесса», сотрудничая с тремя партнерами по проверке фактов в Мьянме – BOOM, AFP Fact Check. и Факт Крещендо. Он также заявил о том, что будет отмечать потенциально вводящие в заблуждение изображения и применять ограничение на пересылку сообщений, введенное в Шри-Ланке в июне 2019 года.

Facebook также сообщил, что во втором квартале 2020 г. он принял меры против 280000 единиц контента в Мьянме, которые нарушали Стандарты сообщества против языка ненависти, при этом 97,8% были обнаружены его системами до того, как о них было сообщено, по сравнению с 51000 единиц контента. он принял меры против в первом квартале.

Но, как отметила Наташа Ломас из TechCrunch, «без большей видимости контента, который платформа Facebook расширяет, включая факторы, специфичные для страны, например, увеличивается ли количество сообщений с разжиганием ненависти в Мьянме по мере приближения выборов, невозможно понять, какой объем языка вражды проходит под радаром систем обнаружения Facebook и достигает глаз местных жителей ».



Последнее объявление Facebook, размещенное сегодня в его новостной ленте, не отвечает на эти вопросы. Вместо этого компания предоставила дополнительную информацию о своих приготовлениях к всеобщим выборам в Мьянме.

Компания заявила, что будет использовать технологии для выявления «новых слов и фраз, связанных с языком вражды» в стране, и либо удалять сообщения с этими словами, либо «сокращать их распространение».

Он также представит экраны с предупреждениями на бирманском языке для дезинформации, идентифицированной сторонними организациями, занимающимися проверкой фактов, как ложную, сделает достоверную информацию о выборах и голосовании более заметной и будет способствовать «обучению цифровой грамотности» в Мьянме посредством таких программ, как постоянные ежемесячные телевизионные беседы. шоу под названием «Чайные беседы» и знакомство с его инструментом анализа социальных сетей CrowdTangle.