Европа разрабатывает план правил ИИ, основанных на оценке риска, для повышения доверия и восприятия

Законодатели Европейского союза представили свое предложение с учетом рисков для регулирования высокорисковых приложений искусственного интеллекта на едином рынке блока.

План включает запреты на небольшое количество вариантов использования, которые считаются слишком опасными для и людей или основных прав граждан ЕС, таких как система оценки социального кредита в китайском стиле или определенные типы массового наблюдения с использованием ИИ.

Большинство видов использования ИИ не подлежат никакому регулированию (не говоря уже о запрете) в соответствии с предложением, но подмножество так называемых видов использования с «высоким риском» будет зависеть от конкретных нормативных требований, как ex ante, так и ex post.

Существуют также требования прозрачности для определенных вариантов использования, таких как чат-боты и дипфейки, когда законодатели ЕС считают, что потенциальный риск можно снизить, сообщив пользователям, что они взаимодействуют с чем-то искусственным.

Главной целью законодателей ЕС является укрепление общественного доверия к тому, как внедряется ИИ, чтобы способствовать распространению этой технологии. Старшие должностные лица Комиссии говорят о желании создать экосистему передового опыта, соответствующую ейским ценностям.

«Сегодня мы стремимся сделать Европу мировым лидером в разработке безопасного, надежного и ориентированного на человека искусственного интеллекта и его использования», – сказала исполнительный вице-президент Маргрет Вестагер, объявив о принятии предложения на пресс-конференции.



«С одной стороны, наши правила касаются человеческих и социальных рисков, связанных с конкретным использованием ИИ. Это для создания доверия. С другой стороны, в нашем скоординированном плане изложены необходимые шаги, которые государства-члены должны предпринять для увеличения инвестиций и инноваций. Чтобы гарантировать превосходство. Все это для того, чтобы мы усилили распространение ИИ по всей Европе ».

Согласно предложению, обязательные требования прилагаются к категории приложений ИИ «высокого риска», то есть к тем, которые представляют явную угрозу безопасности или угрожают посягнуть на Основные права ЕС (например, право на недискриминацию).

Примеры случаев использования искусственного интеллекта с высоким риском, которые будут подпадать под самый высокий уровень регулирования использования, изложены в приложении 3 к регламенту, которое, по словам Комиссии, оно будет иметь право расширять посредством делегированных актов в качестве вариантов использования ИИ продолжает развиваться, и эволюционируют.

Приведенные на данный момент примеры высокого риска делятся на следующие категории: биометрическая идентификация и категоризация физических лиц; Управление и эксплуатация критической инфраструктуры; Образование и профессиональная подготовка; Занятость, управление работниками и доступ к самозанятости; Доступ к основным частным услугам, а также общественным услугам и льготам и пользование ими; Правоохранительные органы; Управление миграцией, убежищем и пограничным контролем; Отправление правосудия и демократические процессы.

Военное использование ИИ специально исключено из сферы действия, поскольку регулирование сосредоточено на внутреннем рынке блока.

Создатели приложений с высоким уровнем риска будут иметь ряд ожидаемых обязательств, которые необходимо выполнить перед выводом своего продукта на рынок, в том числе в отношении качества наборов данных, используемых для обучения их ИИ, и уровня человеческого надзора не только за дизайном, но и за использованием. системы – а также текущие, фактические требования в форме послепродажного надзора.

Другие требования включают необходимость создания записей системы искусственного интеллекта для проверки соответствия, а также для предоставления пользователям соответствующей информации. Надежность, точность и безопасность системы ИИ также будут регулироваться.

Представители комиссии предположили, что подавляющее большинство приложений ИИ не подпадут под эту строго регулируемую категорию. Создателей этих систем искусственного интеллекта с низким уровнем риска будет просто поощрять принятие (не имеющих обязательной юридической силы) кодексов поведения при использовании.

Штрафы за нарушение правил по конкретным вариантам использования ИИ установлены в размере до 6% от глобального годового оборота или 30 млн евро (в зависимости от того, что больше). В то время как нарушения правил, связанных с приложениями с высокой степенью риска, могут достигать 4% (или 20 миллионов евро).

Правоприменение будет включать несколько агентств в каждом государстве-члене ЕС – при этом предполагается, что надзор будет осуществляться существующими (соответствующими) агентствами, такими как органы по безопасности продукции и агентства по защите данных.

Это вызывает немедленные вопросы относительно адекватного обеспечения национальных органов ресурсами, учитывая дополнительную работу и техническую сложность, с которыми им придется столкнуться при соблюдении правил ИИ; а также как избежать узких мест в правоприменении в некоторых государствах-членах. (Примечательно, что Общий регламент ЕС по защите данных также контролируется на уровне государства-члена и страдает от отсутствия единообразно строгого соблюдения.)

Также будет создана база данных по всему ЕС для создания реестра систем высокого риска, реализованных в блоке (которым будет управлять Комиссия).

Новый орган, называемый Европейским советом по искусственному интеллекту (EAIB), также будет создан для поддержки последовательного применения правил – в зеркале Европейского совета по защите данных, который предлагает руководство по применению GDPR.

В соответствии с правилами, касающимися определенных видов использования ИИ, план включает меры по координации поддержки государствами-членами ЕС разработки ИИ – например, путем создания нормативных «песочниц», чтобы помочь стартапам и МСП разрабатывать и тестировать инновации, основанные на ИИ, а также через перспективу внедрения ИИ. целевое финансирование ЕС для поддержки разработчиков ИИ.

Комиссар по внутреннему рынку Тьерри Бретон сказал, что инвестиции являются важной частью плана.

«В рамках нашей программы Digital Europe и Horizon Europe мы собираемся высвободить миллиард евро в год. И вдобавок ко всему мы хотим генерировать частные инвестиции и коллективные инвестиции в размере 20 млрд евро в год в течение ближайшего десятилетия – «цифрового десятилетия», как мы его назвали », – сказал он. «Мы также хотим иметь 140 млрд евро для финансирования цифровых инвестиций в рамках проекта Next Generation EU. [COVID-19 recovery fund] – и частично перейти к ИИ ».

Формирование правил для ИИ было ключевым приоритетом для президента ЕС Урсулы фон дер Ляйен, занявшей свой пост в конце 2019 года. Белая книга была опубликована в прошлом году, после стратегии ИИ для ЕС 2018 года, и Вестагер сказал, что сегодняшнее предложение является кульминацией трехлетней работы.

Бретон добавил, что предоставление бизнесу рекомендаций по применению ИИ даст им юридическую уверенность и преимущество Европы. «Доверие … мы считаем жизненно важным для развития искусственного интеллекта, которого мы хотим, – сказал он. [Applications of AI] должны быть надежными, безопасными, недискриминационными – это абсолютно необходимо – но, конечно, мы также должны понимать, как именно эти приложения будут работать ».

Версия сегодняшнего предложения просочился на прошлой неделе – ведущие к призывы депутатов Европарламента усилить план, например запретив дистанционное биометрическое наблюдение в общественных местах.

В случае, если окончательное предложение действительно рассматривает дистанционное биометрическое наблюдение как приложение ИИ с особенно высоким риском – и существует принципиальный запрет на использование технологии в общественных местах правоохранительными органами.

Однако использование не запрещено полностью, за некоторыми исключениями, когда правоохранительные органы все еще могут использовать его при наличии действующей правовой основы и надлежащего надзора.

Сегодняшнее предложение положит начало процессу совместного законодательства ЕС, при этом Европейский парламент и государства-члены через Совет ЕС должны высказать свое мнение по проекту, а это означает, что многое может измениться до достижения соглашения по окончательному общеевропейскому регламенту.

Комиссары отказались назвать временные рамки, когда закон может быть принят, сказав только, что они надеются, что другие институты ЕС подключатся немедленно и что процесс может быть завершен как можно скорее. Тем не менее, может пройти несколько лет, прежде чем постановление об ИИ будет ратифицировано и вступит в силу.

Эта история развивается, обновляйте для получения обновлений…