Алгоритмы “ черного ящика ” крупных технологий находятся под надзором регулирующих органов в соответствии с планом ЕС

Основные -платформы должны будут открыть свои алгоритмы для регулирующего надзора в соответствии с предложениями, которые европейские законодатели намерены представить в следующем месяце.

В своем сегодняшнем выступлении исполнительный вице-президент Комиссии Маргрет Вестагер предположила, что алгоритмическая подотчетность станет ключевой опорой предстоящего законодательного цифрового пакета – с входящими проектами правил, которые потребуют от платформ объяснять, как работают их системы рекомендаций, а также предлагать пользователям больший контроль над ними.

«Правила, которые мы готовим, обяжут все цифровые сервисы сотрудничать с регулирующими органами. И крупнейшие платформы должны будут предоставлять больше информации о том, как работают их алгоритмы, когда регуляторы этого потребуют », – сказала она, добавив, что платформы также« должны будут предоставлять регулирующим органам и исследователям доступ к данным, которые они хранят, включая архивы рекламы ». .

В то время как платформы социальных сетей, такие как Facebook, создали архивы рекламных объявлений до выполнения каких-либо нормативных требований, сторонние исследователи постоянно жалуются на то, как структурирована информация и насколько (недоступна) она доступна для независимого изучения.

Еще одним запланированным требованием для пользователей является получение дополнительной информации о таргетинге рекламы, а также более строгие требования к отчетности для платформ для объяснения решений модерации контента, согласно Вестагеру, который также дал предварительный обзор того, что происходит в Законе о цифровых услугах и Законе о цифровых рынках в другом выступление ранее на этой неделе.

Региональные законодатели реагируют на опасения, что алгоритмы “ черного ящика ” могут иметь разрушительные последствия для отдельных лиц и общества – в зависимости от того, как они обрабатывают данные, упорядочивают и ранжируют информацию, с такими рисками, как дискриминация, усиление предвзятости и злоупотребления в отношении уязвимых лиц и групп.



Комиссия заявила, что работает над обязательными правилами прозрачности с целью заставить технологических гигантов брать на себя больше ответственности за контент, который их платформы расширяют и монетизируют. Хотя дьявол будет как в деталях требований, так и в том, насколько эффективно они будут выполняться, но черновик плана должен быть представлен в следующем месяце.

«Одной из основных целей Закона о цифровых услугах, который мы выдвинем в декабре, будет защита нашей демократии путем обеспечения прозрачности платформ в отношении того, как работают эти алгоритмы, и повышения ответственности этих платформ за принимаемые ими решения. make », – сказал Вестагер в своем выступлении сегодня на мероприятии, организованном некоммерческой исследовательской группой AlgorithmWatch.

«Предложения, над которыми мы работаем, будут означать, что платформы должны сообщать пользователям, как их рекомендательные системы решают, какой контент показывать, – чтобы нам было легче судить, доверять ли картине мира, которую они нам дают, или нет».

Согласно запланированным правилам, самые мощные интернет-платформы – так называемые «привратники» на языке ЕС – должны будут предоставлять регулярные отчеты об «используемых ими инструментах модерации контента, а также о точности и результатах этих инструментов», как выразился Вестагер.

Также будут действовать особые требования к раскрытию информации для таргетинга рекламы, которые выходят за рамки текущего нечеткого раскрытия информации, которое платформы, такие как Facebook, уже могут предложить (в этом случае через меню «Почему я вижу эту рекламу?»).

По ее словам, необходимо будет предоставить «лучшую информацию», например, платформы, сообщающие пользователям «Кто разместил определенную рекламу и почему она была нацелена на нас». Главной целью будет обеспечение пользователей таких платформ « лучшее представление о том, кто пытается на нас повлиять – и больше шансов обнаружить, когда алгоритмы дискриминируют нас », – добавила она.

Сегодня коалиция из 46 организаций гражданского общества во главе с AlgorithmWatch призвала Комиссию убедиться, что требования прозрачности в предстоящем законодательстве являются «значимыми», призывая ее ввести «комплексные структуры доступа к данным», которые предоставят сторожевым псам инструменты, необходимые для хранения платформ. подотчетность, а также дать возможность журналистам, ученым и гражданскому обществу «бросать вызов и тщательно проверять власть».

Набор рекомендаций группы призывает к обязательным обязательствам по раскрытию информации, основанным на технических функциях доминирующих платформ; единое учреждение ЕС «с четким юридическим мандатом на обеспечение доступа к данным и выполнение обязательств по обеспечению прозрачности»; и положения, обеспечивающие соответствие сбора данных правилам защиты данных ЕС.

Другой способ сбалансировать асимметрию власти между гигантами платформ интеллектуального анализа данных и людьми, которых они отслеживают, профилируют и нацелены, может включать требования, позволяющие пользователям полностью отключать алгоритмические каналы, если они того пожелают, – исключая возможность дискриминации или на основе данных. . Но еще неизвестно, пойдут ли законодатели ЕС так далеко в предстоящих законодательных предложениях.

Единственный намек, который предложил Вестагер по этому поводу, заключался в том, что запланированные правила «также дадут больше возможностей пользователям – так что за алгоритмами не будет последнего слова о том, что мы видим и чего не видим». .

Платформы также должны будут дать пользователям «возможность влиять на выбор, который рекомендательные системы делают от нашего имени», – сказала она.

В своих дальнейших замечаниях она подтвердила, что для цифровых сервисов будут введены более подробные требования к отчетности по модерации контента и удалению – заявив, что они должны будут сообщать пользователям, когда они удаляют контент, и давать им «эффективные права на оспаривание этого удаления». Несмотря на то, что в блоке широко распространена общественная поддержка перезагрузки правил игры для цифровых гигантов, существуют также твердые мнения о том, что регулирование не должно ущемлять свободу выражения мнений в Интернете, например, путем поощрения платформ к снижению нормативного риска путем применения фильтров загрузки или удаление спорного контента без уважительной причины.

Предложения потребуют поддержки стран-членов ЕС через Европейский совет и избранных представителей в Европейском парламенте.

Последний уже проголосовал за ужесточение правил таргетинга рекламы. Депутаты а также призвали Комиссию отказаться от использования фильтров загрузки или любой формы ex-ante контроль контента на предмет вредоносного или незаконного контента, в котором говорится, что окончательное решение о том, является ли контент законным или нет, должно приниматься независимой судебной властью.

Одновременно Комиссия работает над формированием правил специально для приложений, использующих искусственный интеллект, но этот законодательный пакет должен быть выпущен не раньше следующего года.

Вестагер подтвердил, что он будет представлен в начале 2021 г. с целью создания «ИИ-экосистемы доверия».