Twitter и проблемы алгоритмической предвзятости Zoom

Оба и оказались под критикой в ​​эти выходные за свои проблемы с алгоритмической предвзятостью. В Zoom это проблема с виртуальным фоном службы видеоконференцсвязи и Twitter, это проблема с инструментом обрезки фотографий на сайте.

Это началось, когда Аспирант Колин Мэдленд написал в Твиттере о проблемах черного преподавателя с Zoom. По словам Мэдленда, всякий раз, когда указанный преподаватель использовал виртуальный фон, Зум удалял голову.

«Мы связались напрямую с пользователем, чтобы изучить эту проблему», – сказал TechCrunch представитель Zoom. «Мы стремимся предоставить платформу, доступную для всех».

Обсуждая этот вопрос на TwitterОднако проблемы с алгоритмической систематической ошибкой усугубляются, когда Twitterмобильное приложение пользователя по умолчанию показывало только изображение Мадлунда, белого парня, в предварительном просмотре.

«Наша команда провела тест на предвзятость перед отправкой модели и не нашла доказательств расовой или гендерной предвзятости в нашем тестировании», – Twitter Представитель компании сказал в заявлении TechCrunch. «Но из этих примеров ясно, что нам нужно провести дополнительный анализ. Мы продолжим делиться тем, что мы узнали, какие действия мы предпринимаем, и откроем исходный код нашего анализа, чтобы другие могли просматривать и воспроизводить ».



Twitter указал на твит главного дизайнера Дэнтли Дэвиса, который провел несколько собственных экспериментов. Дэвис предположил, что волосы на лице Мэдленда повлияло на результат, поэтому он удалил волосы на лице, и преподаватель Блэк появился в обрезанном превью. В более позднем твите, Дэвис сказал, что он «раздражен этим так же, как и все остальные. Однако я могу это исправить, и я сделаю это ».

Twitter также указал на независимый анализ Виная Прабху, главного научного сотрудника Карнеги-Меллона. В своем эксперименте он стремился проверить, является ли «систематическая ошибка кадрирования реальной».

В ответ на эксперимент Twitter Технический директор Параг Агравал сказал, что решение вопроса о том, существует ли систематическая ошибка при посеве, является «очень важным вопросом.. » Короче, иногда Twitter действительно вырезает черных людей, а иногда и нет. Но то, что Twitter делает это вообще, даже один раз, достаточно, чтобы это было проблематично.

Это также говорит о большей проблеме распространения плохих алгоритмов. Эти же типы алгоритмов приводят к необъективным арестам и тюремному заключению чернокожих. Это те же алгоритмы, которые Google использовал для обозначения фотографий чернокожих людей как горилл. MicrosoftБот Тай стал сторонником превосходства белых.