Антимонопольный орган Великобритании объявляет о первоначальном пересмотре генеративного ИИ

Хорошо, что это было быстро. Британский орган по наблюдению за конкуренцией объявил о первоначальном обзоре «основополагающих моделей », таких как большие языковые модели (LLM), которые лежат в основе ChatGPT и MicrosoftНовый Бинг. Генеративные модели искусственного интеллекта, которые поддерживают художественные платформы искусственного интеллекта, такие как DALL-E или Midjourney от OpenAI, также, вероятно, попадут в сферу охвата.

Управление по конкуренции и рынкам (CMA) заявило, что в его обзоре будут рассмотрены соображения конкуренции и защиты прав потребителей при разработке и использовании базовых моделей ИИ с целью понять, «как базовые модели развиваются и дают оценку условий и принципов, которые будет наилучшим образом направлять разработку моделей фундамента и их использование в будущем».

Он предлагает опубликовать обзор в «начале сентября» с крайним сроком 2 июня, когда заинтересованные стороны должны представить ответы для информирования его работы.

«Фундаментальные модели, которые включают в себя большие языковые модели и генеративный искусственный интеллект (ИИ), появившиеся за последние пять лет, могут изменить многое из того, что делают люди и компании. Чтобы инновации в области искусственного интеллекта продолжались таким образом, чтобы приносить пользу потребителям, предприятиям и экономике и, правительство обратилось к регулирующим органам, включая [CMA], чтобы подумать о том, как инновационная разработка и развертывание ИИ может поддерживаться в соответствии с пятью всеобъемлющими принципами: безопасность, защищенность и надежность; надлежащая прозрачность и объяснимость; справедливость; подотчетность и управление; а также состязательность и возмещение», — говорится в пресс-релизе CMA».

Центру исследований базовых моделей Центра искусственного интеллекта Стэнфордского университета, ориентированного на человека, приписывают введение термина «фундаментальные модели» еще в 2021 году для обозначения систем ИИ, которые сосредоточены на обучении одной модели на огромном количестве данных и адаптации ее к много приложений.



«Развитие ИИ затрагивает ряд важных вопросов, включая безопасность, защищенность, авторское право, конфиденциальность и права человека, а также то, как работают рынки. Многие из этих вопросов рассматриваются правительством или другими регулирующими органами, поэтому этот первоначальный обзор будет сосредоточен на вопросах, которые CMA лучше всего может решить — каковы вероятные последствия разработки базовых моделей ИИ для конкуренции и защиты прав потребителей?» добавила КМА.

В заявлении ее генерального директора Сара Карделл также говорится:

ИИ ворвался в общественное сознание за последние несколько месяцев, но уже некоторое время находится в центре нашего внимания. Это быстро развивающаяся технология, которая может изменить способы ведения бизнеса, а также способствовать значительному экономическому росту.

Крайне важно, чтобы потенциальные преимущества этой преобразующей технологии были легко доступны для британских предприятий и потребителей, в то время как люди оставались защищенными от таких проблем, как ложная или вводящая в заблуждение информация. Наша цель — помочь этой новой, быстро масштабируемой технологии развиваться таким образом, чтобы обеспечить открытые, конкурентные рынки и эффективную защиту прав потребителей.

В частности, регулятор конкуренции Великобритании заявил, что его первоначальный обзор базовых моделей ИИ:

  • изучить, как могут развиваться конкурентные рынки для моделей фундаментов и их использования
  • изучить возможности и риски, которые эти сценарии могут создать для конкуренции и защиты прав потребителей.
  • разработать руководящие принципы для поддержки конкуренции и защиты потребителей по мере разработки базовых моделей ИИ.

Хотя антимонопольному регулятору может показаться преждевременным проводить проверку такой быстро развивающейся технологии, CMA действует по указанию правительства.

Белая книга по искусственному интеллекту, опубликованная в марте, свидетельствует о том, что министры предпочитают избегать установления каких-либо специальных правил (или надзорных органов) для управления использованием искусственного интеллекта на данном этапе. Однако Министры заявили, что существующие регулирующие органы Великобритании, в том числе CMA, имя которого было проверено напрямую, должны будут выпустить руководство, поощряющее безопасное, справедливое и подотчетное использование ИИ.

CMA заявляет, что его первоначальный обзор базовых моделей ИИ соответствует инструкциям, изложенным в официальном документе, где правительство говорило о существующих регулирующих органах, проводящих «подробный анализ рисков», чтобы быть в состоянии осуществлять потенциальные меры, то есть в отношении опасных, несправедливое и безответственное применение ИИ с использованием имеющихся у него возможностей.

Регулятор также указывает на свою основную миссию — поддержку открытых конкурентных рынков — как на еще одну причину обратить внимание на генеративный ИИ уже сейчас.

Примечательно, что орган по надзору за конкуренцией должен получить дополнительные полномочия по регулированию больших технологий в ближайшие годы в соответствии с планами, отложенными правительством премьер-министра Риши Сунака в прошлом месяце, когда министры заявили, что оно будет продвигаться вперед с затянувшимся ( но сильно запоздалая) реформа ex ante, направленная на укрепление рыночной власти цифровых гигантов.

Ожидается, что подразделение CMA по цифровым рынкам, работающее с 2021 года в теневой форме, в ближайшие годы (наконец) получит законодательные полномочия для применения проактивных «конкурентных» правил, адаптированных к платформам, которые считаются иметь «стратегический рыночный статус» (СМС). Таким образом, мы можем предположить, что поставщики мощных базовых моделей искусственного интеллекта в будущем могут быть признаны имеющими SMS, а это означает, что они могут столкнуться с особыми правилами о том, как они должны действовать по отношению к конкурентам и потребителям на британском рынке.

Британский орган по защите данных, ICO, также следит за генеративным искусственным интеллектом. Это еще один существующий надзорный орган, которому правительство поручило уделять особое внимание ИИ в соответствии со своим планом контекстно-зависимого руководства для управления развитием технологии посредством применения существующих законов.

В сообщении в блоге в прошлом месяце Стивен Алмонд, исполнительный директор ICO по регуляторным рискам, дал несколько советов и небольшое предупреждение разработчикам генеративного ИИ, когда речь идет о соблюдении правил защиты данных Великобритании. «Организации, разрабатывающие или использующие генеративный ИИ, должны с самого начала учитывать свои обязательства по защите данных, применяя подход к защите данных по умолчанию», — предложил он. «Это необязательно — если вы обрабатываете личные данные, это закон».

Тем временем над Ла-Маншем в Европейском союзе законодатели находятся в процессе определения фиксированного набора правил, которые, вероятно, будут применяться к генеративному ИИ.

Переговоры об окончательном тексте будущего свода правил ЕС по ИИ продолжаются, но в настоящее время основное внимание уделяется тому, как регулировать базовые модели с помощью поправок к основанной на рисках структуре для регулирования использования ИИ, опубликованной блоком в черновом варианте более двух лет назад.

Еще неизвестно, где законодатели ЕС закончат тем, что иногда также называют ИИ общего назначения. Но, как мы недавно сообщали, парламентарии настаивают на многоуровневом подходе к решению вопросов безопасности с помощью базовых моделей; сложность обязанностей в цепочках поставок ИИ; и для решения конкретных проблем с контентом (таких как авторское право), связанных с генеративным ИИ.

Добавьте к этому, что закон ЕС о защите данных, конечно же, уже применяется к ИИ. И в блоке ведутся расследования таких моделей, как ChatGPT, ориентированные на конфиденциальность, в том числе в Италии, где вмешательство местного наблюдательного органа привело к тому, что OpenAI в прошлом месяце поспешила обнародовать серию раскрытий конфиденциальности и контроля.

Европейский совет по защите данных также недавно создал целевую группу для поддержки координации между различными органами по защите данных при расследовании чат-бота с искусственным интеллектом. Среди других исследователей ChatGPT — испанский надзорный орган.