4 вопроса, которые следует задать при оценке прототипов ИИ на предмет предвзятости

это правда там В США был достигнут прогресс в защите данных благодаря принятию различных законов, таких как Калифорнийский закон о конфиденциальности потребителей (CCPA), и необязательных документов, таких как План Билля о правах ИИ. Однако в настоящее время нет стандартных правил, определяющих, как технологические компании должны смягчать предвзятость и дискриминацию ИИ.

В результате многие компании отстают в создании этических инструментов, которые ставят конфиденциальность на первое место. Почти 80% специалистов по данным в США — мужчины, а 66% — белые, что свидетельствует об изначальном отсутствии разнообразия и демографического представительства при разработке автоматизированных инструментов принятия решений, что часто приводит к необъективным результатам данных.

Необходимы значительные улучшения в процессах проверки проектов, чтобы технологические компании учитывали интересы всех людей при создании и модификации своих продуктов. В противном случае организации могут потерять клиентов из-за конкуренции, запятнать свою репутацию и столкнуться с серьезными судебными исками. По данным IBM, около 85% ИТ-специалистов считают, что потребители выбирают компании, которые прозрачны в отношении того, как создаются, управляются и используются их алгоритмы искусственного интеллекта. Мы можем ожидать, что это число будет расти, поскольку все больше пользователей продолжают выступать против вредных и предвзятых технологий.

Итак, что компании должны учитывать при анализе своих прототипов? Вот четыре вопроса, которые должны задать себе команды разработчиков:

Исключили ли мы все виды предвзятости в нашем прототипе?

Технологии могут революционизировать общество, каким мы его знаем, но в конечном итоге они потерпят неудачу, если не будут приносить пользу всем в равной степени.



Чтобы создать эффективную, беспристрастную технологию, командам ИИ следует составить список вопросов, которые следует задавать в процессе проверки, что поможет им выявить потенциальные проблемы с их моделями.

Существует множество методологий, которые команды ИИ могут использовать для оценки своих моделей, но прежде чем это делать, очень важно оценить конечную цель и определить, есть ли группы, на которые могут непропорционально повлиять результаты использования ИИ.

Например, команды ИИ должны знать, что использование технологий распознавания лиц может непреднамеренно дискриминировать цветных людей, что слишком часто происходит в алгоритмах ИИ. Исследование, проведенное Американским союзом гражданских свобод в 2018 году, показало, что система распознавания лиц Amazon неправильно сопоставила фотографии 28 членов Конгресса США. Ошеломляющие 40% неправильных совпадений были цветными людьми, хотя они представляют только 20% Конгресса.

Задавая сложные вопросы, команды ИИ могут найти новые способы улучшения своих моделей и стремиться предотвратить возникновение таких сценариев. Например, тщательное изучение может помочь им определить, нужно ли им видеть больше данных или им потребуется третья сторона, например эксперт по конфиденциальности, для проверки вашего продукта.

Plot4AI — отличный ресурс для тех, кто хочет начать.