«Надзорный» орган Facebook отменяет четыре удаления и вносит множество изменений в политику

Саморегулируемый «Совет по надзору» (FOB) вынес первую партию решений по оспариваемым решениям о модерации контента почти через два месяца после отбора первых дел.

FOB на протяжении долгого времени является частью антикризисной PR-кампании Facebook, направленной на то, чтобы отделить свой бизнес от воздействия спорных решений о модерации контента – путем создания контрольного органа, который будет обрабатывать крошечную часть жалоб, которые привлекает удаление контента. Он начал принимать заявки на рассмотрение в октябре 2020 года – и столкнулся с критикой за то, что медлил с запуском.

Объявляя сегодня о первых решениях, FOB показывает, что он решил поддержать только одно из решений о модерации контента, принятых ранее Facebook, отменив четыре решения технического гиганта.

Решения по делам принимались комиссией из пяти человек, в которую входил хотя бы один член из рассматриваемого региона и представители разных полов, согласно FOB. Большинству членов Правления затем пришлось изучить выводы каждой комиссии, чтобы утвердить решение, прежде чем оно могло быть принято.

Единственный случай, когда Правление поддержало решение Facebook об удалении контента, – это дело 2020-003-FB-UA, где Facebook удалил сообщение в соответствии со своим Стандартом сообщества о языке вражды, в котором использовалось русское слово «тазики» («тазики»). для описания азербайджанцев, у которых, по утверждению пользователя, нет истории по сравнению с армянами.

В четырех других случаях Правление отменило удаление Facebook, отклонив более ранние оценки, сделанные техническим гигантом в отношении политики в отношении языка ненависти, наготы для взрослых, опасных лиц / организаций, а также насилия и подстрекательства. (Вы можете прочитать описание этих случаев на его веб-сайте.)



Каждое решение относится к определенной части контента, но совет также выпустил девять рекомендаций по политике.

К ним относятся предложения, которые Facebook [emphasis ours]:

  • Создать новый стандарт сообщества по дезинформации о здоровье, объединение и разъяснение существующих правил в одном месте. Здесь следует определить ключевые термины, такие как «дезинформация».
  • Применять менее навязчивые средства обеспечения соблюдения политики дезинформации о здоровье где контент не достигает порога неизбежного физического вреда для Facebook.
  • Увеличить прозрачность о том, как он сдерживает дезинформацию о здоровье, включая публикацию отчета о прозрачности соблюдения стандартов сообщества во время пандемии COVID-19. Эта рекомендация основана на комментариях общественности, полученных Правлением.
  • Убедитесь, что пользователи всегда уведомляются о причинах применения против них Стандартов сообщества, включая конкретное правило, которое применяет Facebook. (Правление сделало две идентичные рекомендации по политике в этой области, относящиеся к рассматриваемым им делам, а также отметив в отношении второго случая разжигания ненависти, что «непрозрачность Facebook оставила его решение открытым для ошибочного убеждения, что компания удалила контент, потому что пользователь выразил мнение, с которым не согласен ».)
  • Объясните и приведите примеры применения ключевых терминов Политики в отношении опасных лиц и организаций., включая значения «похвала», «поддержка» и «представление». Стандарт Сообщества также должен лучше информировать пользователей о том, как четко выражать свои намерения при обсуждении опасных лиц или организаций.
  • Предоставьте публичный список организаций и лиц, обозначенных как «опасные» в соответствии со Стандартом Сообщества по опасным лицам и организациям. или, по крайней мере, список примеров.
  • Информируйте пользователей, когда для модерации их контента используется автоматическое принудительное исполнение, убедитесь, что пользователи могут обжаловать автоматизированные решения в определенных случаяхи улучшите автоматическое обнаружение изображений с наложением текста, чтобы сообщения, повышающие осведомленность о симптомах рака груди, не помечались ошибочно для проверки. Facebook также следует улучшить прозрачность отчетности об использовании автоматизированных средств защиты прав.
  • Измените Принципы сообщества Instagram, чтобы указать, что можно показывать женские соски для повышения осведомленности о раке груди. и пояснить, что в случае несоответствия между Принципами сообщества Instagram и Стандартами сообщества Facebook приоритет имеют последние.

Правление говорит, что, когда оно отменило удаление Facebook, оно ожидает, что Facebook восстановит определенные фрагменты удаленного контента в течение семи дней.

Кроме того, Правление пишет, что Facebook также «изучит, должен ли идентичный контент с параллельным контекстом, связанный с решениями Правления, оставаться на его платформе». И говорит, что у Facebook есть 30 дней, чтобы публично отреагировать на его рекомендации по политике.

Так что, безусловно, будет интересно посмотреть, как технический гигант отреагирует на подробный список предлагаемых изменений политики – возможно, особенно на рекомендации по повышению прозрачности (включая предложение информировать пользователей о том, что контент был удален исключительно его ИИ) – и будет ли это счастливы полностью соответствовать руководящим принципам, выпущенным саморегулируемым органом, или нет.

Facebook создал структуру и устав совета и назначил его членов, но поддержал идею о том, что он «независим» от Facebook, хотя он также финансирует FOB (косвенно, через фонд, созданный для управления FOB). И хотя Правление заявляет, что его решения по проверке являются обязательными для Facebook, от Facebook не требуется следовать его политическим рекомендациям.

Также примечательно, что усилия по проверке FOB полностью сосредоточены на удалении, а не на том, что Facebook решает разместить на своей платформе.

Учитывая все это, невозможно количественно оценить, насколько компания влияет на решения Совета директоров.

Таким образом, даже если Facebook проглотит все свои вышеупомянутые рекомендации по политике – или, что более вероятно, создаст PR-линию, приветствующую «продуманный» вклад FOB в «сложную область» и заявив, что «примет их во внимание по мере продвижения вперед» – он делает это. из места, где он сохранил максимальный контроль над проверкой контента, определяя, формируя и финансируя вовлеченный «надзор». На самом деле это не верховный суд.

В ближайшие недели FOB, вероятно, будет наиболее пристально наблюдаться в деле, которое было принято недавно, связанном с бессрочной приостановкой работы Facebook в отношении бывшего президента США Дональда Трампа после того, как он спровоцировал насильственное нападение на столицу США в начале этого месяца.

Правление отмечает, что «в ближайшее время» откроет общественное обсуждение этого дела.

«Недавние события в Соединенных Штатах и ​​во всем мире подчеркнули огромное влияние решений по содержанию, принимаемых интернет-службами, на права человека и свободу выражения», – пишет он, добавляя: «Проблемы и ограничения существующих подходов. для модерирования контента обращайте внимание на ценность независимого контроля над наиболее важными решениями таких компаний, как Facebook ».

Но, конечно, этот «Наблюдательный совет» не может быть полностью независимым от своего основателя, Facebook.