Facebook рекламирует усиление обнаружения языка ненависти перед выборами в Мьянме

предоставил небольшую подробную информацию о дополнительных шагах, которые он предпринимает для улучшения своей способности обнаруживать и удалять разжигающие ненависть высказывания и дезинформацию о выборах в преддверии выборов в Мьянме. Всеобщие выборы пройдут в стране 8 ноября 2020 г..

Объявление было сделано почти через два года после того, как компания признала катастрофическую неспособность предотвратить использование своей платформы в качестве оружия для разжигания раскола и разжигания насилия против меньшинства рохинджа в стране.

Facebook заявляет, что расширил свою политику дезинформации с целью борьбы с подавлением избирателей и теперь удалит информацию, «которая может привести к подавлению избирателей или нарушить целостность избирательного процесса» – приводя в качестве примера пост, в котором ложно утверждается о кандидате. является бенгальцем, а не гражданином Мьянмы, и поэтому не имеет права баллотироваться.

«Работая с местными партнерами в период до 22 ноября, мы удалим поддающуюся проверке дезинформацию и неподдающиеся проверке слухи, которые, по оценке, могут помешать голосованию или нанести ущерб целостности избирательного процесса», – говорится в сообщении.

Facebook заявляет, что работает с тремя организациями по проверке фактов в стране, а именно: BOOM, AFP Fact Check и Fact Crescendo, после того, как в марте запустил там программу проверки фактов.



В марте 2018 года ООН предупредила, что платформа Facebook используется для распространения ненавистнических высказываний и разжигания этнического насилия в Мьянме. К ноябрю того же года технологический гигант был вынужден признать, что он не остановил перепрофилирование своей платформы в качестве инструмента для разжигания геноцида после того, как провокационное независимое расследование показало его влияние на права человека.

Что касается языка ненависти, который, как признает Facebook, может подавить голосование в дополнение к тому, что он описывает как «неминуемый вред в автономном режиме» (также известный как насилие), технический гигант утверждает, что вложил «значительные» средства в «технологии упреждающего обнаружения», о которых он говорит. помочь ему «быстрее выявлять нарушающий контент», хотя и без количественной оценки размера инвестиций и без предоставления дополнительных сведений. Он только отмечает, что он «также» использует ИИ для «активного выявления языка ненависти на 45 языках, включая бирманский».

Сообщение в блоге Facebook предлагает метрику, указывающую на прогресс: компания заявила, что во втором квартале 2020 г. она приняла меры против 280000 единиц контента в Мьянме за нарушение Стандартов сообщества, запрещающих разжигание ненависти, из которых 97,8% были обнаружены ее системами заранее до ему было сообщено о содержании.

«Это значительно больше, чем в первом квартале 2020 г., когда мы приняли меры против 51 000 единиц контента, содержащих нарушения языка вражды, и выявили 83%», – добавляет он.

Однако без большей видимости контента платформа Facebook расширяется, включая факторы, специфичные для страны, такие как увеличение количества сообщений с разжиганием ненависти в Мьянме по мере приближения выборов, невозможно понять, какой объем языка вражды проходит под радаром Facebook. системы обнаружения и достижения локальных глазных яблок.

В более подробном описании Facebook отмечает, что с августа предвыборная, тематическая и политическая реклама в Мьянме должна иметь ярлык «оплачено». Такие объявления также хранятся в библиотеке объявлений с возможностью поиска в течение семи лет – в рамках расширения самопровозглашенных «мер прозрачности политической рекламы», которые Facebook запустил более двух лет назад в США и на других западных рынках.

Facebook также сообщает, что работает с двумя местными партнерами над проверкой официальных национальных страниц Facebook политических партий в Мьянме. «На сегодняшний день более 40 политических партий получили удостоверение личности», – пишет он. «Это обеспечивает синюю галочку на странице партии в Facebook и помогает пользователям отличать настоящую официальную страницу политической партии от неофициальных страниц, что важно в период избирательной кампании».

Еще одно недавнее изменение, которое он отмечает, – это продукт «Публикация контекста изображения», запущенный в июне, который, по словам Facebook, предупреждает пользователя, когда он пытается поделиться изображением, которому больше года и которое может быть «потенциально опасным или вводящим в заблуждение» (например изображение, которое «может приближаться к нарушению руководящих принципов Facebook в отношении содержания насилия»).

«Вырванные из контекста изображения часто используются для обмана, запутывания и причинения вреда. С помощью этого продукта пользователям будет показано сообщение, когда они попытаются поделиться определенными типами изображений, включая фотоснимки, которым больше года и которые могут быть близки к нарушению руководящих принципов Facebook в отношении материалов с насилием. Мы предупреждаем людей, что изображение, которым они собираются поделиться, может быть вредным или вводящим в заблуждение, будет запущено с использованием комбинации искусственного интеллекта (ИИ) и человеческого обзора », – пишет он, не приводя никаких конкретных примеров.

Еще одно изменение, которое он отмечает, – это применение ограничения на пересылку сообщений пяти получателям, которое Facebook ввел в Шри-Ланке еще в июне 2019 года.

«Эти ограничения – проверенный метод замедления распространения вирусной дезинформации, которая может нанести реальный вред. Эта функция безопасности доступна в Мьянме, и в течение следующих нескольких недель мы сделаем ее доступной для пользователей Messenger по всему миру », – говорится в сообщении.

Что касается скоординированного вмешательства в выборы, технологическому гиганту нечего сказать по существу – помимо своего обычного заявления о том, что он «постоянно работает над поиском и прекращением скоординированных кампаний, направленных на манипулирование публичными дебатами через наши приложения», включая группы, стремящиеся сделать это перед основные выборы.

«С 2018 года мы выявили и разрушили шесть сетей, занимающихся скоординированным недостоверным поведением в Мьянме. Эти сети учетных записей, страницы и группы маскировали свою личность, чтобы вводить людей в заблуждение относительно того, кто они такие и чем занимаются, манипулируя публичным дискурсом и вводя людей в заблуждение относительно происхождения контента », – добавляет он.

Подводя итоги изменений, Facebook заявляет, что «создал команду, посвященную Мьянме», в которую, как он отмечает, входят люди, «которые проводят много времени на местах, работая с партнерами из гражданского общества, которые выступают по ряду вопросов прав человека и цифровых прав. в разнообразном, многоэтническом обществе Мьянмы », хотя очевидно, что эта группа действует не за пределами Мьянмы.

В нем также утверждается, что взаимодействие с ключевыми региональными заинтересованными сторонами обеспечит «реагирование бизнеса Facebook на местные потребности», что компания явно потерпела неудачей еще в 2018 году.

«Мы по-прежнему привержены продвижению социальных и экономических преимуществ Facebook в Мьянме. Хотя мы знаем, что эта работа будет продолжена после ноября, мы признаем, что всеобщие выборы в Мьянме 2020 г. станут важным ориентиром на этом пути », – добавляет Facebook.

В его блоге нет упоминания об обвинениях в том, что Facebook активно препятствует расследованию геноцида в Мьянме.

Ранее в этом месяце Time сообщил, что Facebook использует законы США, чтобы попытаться заблокировать запрос информации, касающийся использования его платформ военными чиновниками Мьянмы, западноафриканской страной, Гамбией.

«Facebook сказал, что запрос является« чрезвычайно широким », а также« чрезмерно навязчивым или обременительным ». Обращаясь к Окружному суду США округа Колумбия с просьбой отклонить заявку, гигант социальных сетей говорит, что Гамбия не может «идентифицировать учетные записи с достаточной точностью», – сообщает Time.

«Гамбия реально была довольно конкретной, дошла до того, что назвала 17 официальных лиц, две воинские части и десятки страниц и отчетов», – добавили в нем.

«Facebook также не согласен с тем фактом, что Гамбия ищет информацию, относящуюся к 2012 году, явно не в состоянии распознать две похожие волны злодеяний против рохинджа в том году, и это намерение геноцида не является спонтанным, а нарастает с течением времени».

В другом недавнем событии Facebook был обвинен в изменении своей политики разжигания ненависти, чтобы игнорировать подстрекательские сообщения, сделанные против иммигрантов-рохинджа индусскими националистическими лицами и группами.

В прошлом месяце The Wall Street Journal сообщила, что высший руководитель государственной политики Facebook в Индии Анхи Дас выступил против применения своих правил языка вражды к Т. Раджа Сингху, члену индуистской националистической партии премьер-министра Индии Нарендры Моди, а также по меньшей мере к трем другим лицам. Индуистские националисты и группы, отмеченные внутри компании за пропаганду насилия или участие в ней, ссылаются на источники от нынешних и бывших сотрудников Facebook.