Снижение распространения дезинформации в социальных сетях: как будет выглядеть отказ?

Новости полны историй о платформах, подавляющих дезинформацию, и о тревогах, связанных с запретом известных членов. Но это пластыри по более глубокой проблеме, а именно, что проблема дезинформации является нашей собственной разработкой. Некоторые из основных элементов того, как мы строим платформы социальных сетей, могут непреднамеренно усилить поляризацию и распространить дезинформацию.

Если бы мы могли телепортироваться назад во времени, чтобы перезапустить социальные сети, такие как Facebook, Twitter и TikTok с целью минимизировать распространение дезинформации и теорий заговора с самого начала… как бы они выглядели?



Это не академическое упражнение. Понимание этих первопричин может помочь нам разработать более эффективные профилактические меры для существующих и будущих платформ.

Некоторые из основных элементов того, как мы строим платформы социальных сетей, могут непреднамеренно усилить поляризацию и распространить дезинформацию.

Как одна из ведущих компаний в области поведенческих исследований в Долине, мы помогли таким брендам, как Google, Lyft и другим, понять, как люди принимают решения в отношении дизайна продуктов. Недавно мы сотрудничали с TikTok, чтобы разработать новую серию подсказок (запущенную на этой неделе), чтобы помочь остановить распространение потенциальной дезинформации на ее платформе.

Кредиты изображений: Irrational Labs (Открывается в новом окне)

Вмешательство успешно снижает долю помеченного контента на 24%. Хотя TikTok является уникальным среди платформ, уроки, которые мы извлекли, помогли сформировать идеи о том, как может выглядеть сокращение социальных сетей.

Создать отказ

Мы можем пойти на гораздо большие колебания в уменьшении количества просмотров необоснованного контента, чем ярлыки или подсказки.

В эксперименте, который мы запустили вместе с TikTok, люди видели в среднем 1,5 отмеченных видео за двухнедельный период. Тем не менее, в нашем качественном исследовании многие пользователи сказали, что они были на TikTok для развлечения; они вообще не хотели видеть помеченные видео. В недавнем заявлении о доходах Марк Цукерберг также говорил о том, что пользователи Facebook устали от гиперпартийного контента.

Мы предлагаем дать людям возможность «отказаться от помеченного контента» – полностью удалить этот контент из их каналов. Чтобы сделать этот выбор правильным, этот отказ должен быть заметным, а не закопанным в том месте, где пользователи должны его искать. Мы предлагаем поместить его непосредственно в процесс регистрации для новых пользователей и добавить подсказку в приложении для существующих пользователей.

Сменить бизнес-модель

Там причина ложной новости спреды в шесть раз быстрее, в социальных сетях, чем реальные новости: Информации, что спорно, драматические или поляризационный гораздо более вероятно, чтобы захватить наше внимание. А когда алгоритмы предназначены для максимального вовлечения и увеличения времени, затрачиваемого на приложение, такой контент отдается предпочтение перед более продуманным и содержательным.

В основе проблемы лежит бизнес-модель, основанная на рекламе; Вот почему так сложно добиться прогресса в борьбе с дезинформацией и поляризацией. Одна внутренняя команда Facebook, которой было поручено разобраться в этой проблеме, обнаружила, что «наши алгоритмы используют склонность человеческого мозга к расколу». Но проект и предложенная работа по решению проблем были отклонены высшим руководством.

По сути, это классическая проблема стимулов. Если бизнес-метрики, определяющие «успех», больше не будут зависеть от максимального вовлечения / времени на сайте, все изменится. Больше не нужно будет отдавать предпочтение поляризационному содержанию, и на поверхность сможет подняться более вдумчивый дискурс.

Дизайн для подключения

Основная часть распространения дезинформации – это чувство маргинализации и одиночества. Люди по своей сути социальные существа, которые выглядят как часть своей группы, и партизанские группы часто обеспечивают это чувство признания и признания.

Поэтому мы должны облегчить людям поиск своих настоящих племен и сообществ другими способами (в отличие от тех, которые связаны теориями заговора).

Марк Цукерберг говорит, что его конечной целью с Facebook было объединить людей. Честно говоря, Facebook во многом это сделал, по крайней мере, на поверхностном уровне. Но надо пойти глубже. Вот несколько способов:

Мы можем спроектировать более активное общение один на один, что, как было доказано, повышает благополучие. Мы также можем подтолкнуть офлайн-соединение. Представьте, что двое друзей болтают в мессенджере Facebook или оставляют комментарии к посту. Как насчет приглашения на личную встречу, когда они живут в одном городе (после COVID, конечно)? Или, если они не в одном городе, подтолкнуть к звонку или видео.

В сценарии, где они не друзья и взаимодействие является более спорным, платформы могут играть определенную роль в освещении не только человечества другого человека, но вещи, один общие с другой. Представьте себе подсказку, которая показывает, когда вы «кричите» кому-то в сети, все, что у вас общего с этим человеком.

Платформы также должны запрещать анонимные учетные записи или, как минимум, поощрять использование настоящих имен. У Clubhouse есть хорошие нормы на этот счет: в процессе адаптации они говорят: «Мы используем здесь настоящие имена». Связь основана на идее, что мы взаимодействуем с настоящим человеком. Анонимность скрывает это.

Наконец, помогите людям сбросить настройки

Мы должны облегчить людям выход из алгоритмической кроличьей норы. YouTube подвергался критике из-за кроличьих нор, но все социальные сети сталкиваются с этой проблемой. После того, как вы нажмете на видео, вам будут показаны похожие видео. Иногда это может помочь (чтобы найти идеальное видео с инструкциями, иногда требуется поиск), но для дезинформации это марш смерти. Одно видео о плоской Земле приводит к другому, а также к другим теориям заговора. Нам нужно помочь людям отказаться от своей алгоритмической судьбы.

С большой властью приходит большая ответственность

Все больше и больше людей получают новости из социальных сетей, а те, кто это делают, с меньшей вероятностью будут правильно проинформированы о важных вопросах. Вероятно, эта тенденция полагаться на социальные сети как на источник информации сохранится.

Таким образом, компании, занимающиеся социальными сетями, обладают уникальной властью и обязаны глубоко задуматься над своей ролью в сокращении распространения дезинформации. Им абсолютно необходимо продолжать экспериментировать и проводить тесты с решениями, основанными на исследованиях, как мы это сделали вместе с командой TikTok.

Это непростая работа. Мы знали об этом, но еще глубже оценили этот факт после работы с командой TikTok. Есть много умных людей с благими намерениями, которые хотят решать все ради общего блага. Мы глубоко надеемся на нашу коллективную возможность здесь мыслить масштабнее и более творчески о том, как уменьшить дезинформацию, вдохновить связи и укрепить нашу коллективную человечность одновременно.