Социальные потрясения во время эпидемии COVID-19 подчеркивают необходимость в новых правилах данных по ИИ

Как давний сторонник регулирования искусственного интеллекта, предназначенного для защиты общественного здоровья и безопасности, а также для продвижения инноваций, я считаю, что Конгресс не должен откладывать принятие на двухпартийной основе Раздела 102 (b) Закона о защите данных искусственного интеллекта – мой предложенный законопроект, а теперь законопроект для обсуждения в Палате представителей. Защитные ограждения в форме этического законодательства AI согласно разделу 102 (b) необходимы для поддержания достоинства личности.

Что обеспечивает Раздел 102 (b) Закона о защите данных AI и почему срочно необходимо, чтобы федеральное правительство приняло его сейчас?

Чтобы ответить на эти вопросы, прежде всего необходимо понять, как искусственный интеллект () используется в этот исторический момент, когда наше демократическое общество сталкивается с двумя одновременными экзистенциальными угрозами. Только тогда могут быть признаны риски, которые ИИ представляет для нашего индивидуального достоинства, и раздел 102 (б) будет рассматриваться как одно из самых важных средств защиты свобод, которыми дорожат американцы и которые служат основой нашего общества.

В Америке сейчас проходят массовые акции протеста, требующие прекращения расизма и жестокости полиции, и наблюдающие за тем, как гражданские беспорядки разворачиваются среди попыток подавить смертельную пандемию . Независимо от того, знаем ли мы об этом или одобряем, в обоих контекстах – и во всех других аспектах нашей жизни – технологии ИИ используются государственными и частными субъектами для принятия критических решений о нас. Во многих случаях ИИ используется для оказания помощи обществу и для того, чтобы как можно быстрее привести нас к следующей норме.



Но до сих пор директивные органы в значительной степени упускали из виду критическую проблему общественного здравоохранения и безопасности, основанную на ИИ. Когда дело доходит до ИИ, основное внимание уделяется вопросам справедливости, предвзятости и прозрачности в наборах данных, используемых для обучения алгоритмов. Нет сомнений в том, что алгоритмы дали смещение; Достаточно взглянуть на рекрутинг сотрудников и выдачу кредитов для примеров несправедливого исключения женщин и расовых меньшинств.

Мы также видели, как ИИ генерирует непреднамеренные, а иногда и необъяснимые результаты из данных. Рассмотрим недавний пример алгоритма, который должен был помочь судьям в вынесении справедливого приговора ненасильственным преступникам. По причинам, которые еще не объяснены, алгоритм присваивал подсудимым моложе 23 лет более высокие оценки риска, что приводило к более длинным приговорам на 12% по сравнению с их более старыми сверстниками, которые были заключены в тюрьму чаще, при этом не уменьшая тюремное заключение и не рецидивизм.

Но нынешние кризисы-близнецы обнажают еще одну более неприятную проблему, которая в значительной степени упускается из виду – как общество должно решать сценарий, в котором алгоритм ИИ правильно понял, но с этической точки зрения общество не удовлетворено результатами? Поскольку основной целью ИИ является получение точных прогнозных данных, на основании которых люди могут принимать решения, законодателям пришло время решить не то, что возможно в отношении ИИ, а то, что следует запретить.

Правительства и частные корпорации постоянно испытывают аппетит к нашим личным данным. Прямо сейчас алгоритмы ИИ используются во всем мире, в том числе в Соединенных Штатах, для точного сбора и анализа всех видов данных обо всех нас. У нас есть распознавание лица для наблюдения за протестующими в толпе или для определения того, соблюдает ли широкая публика надлежащие социальные дистанции. Имеются данные мобильного телефона для отслеживания контактов, а также публичные посты в социальных сетях для моделирования распространения COVID-19 по конкретным почтовым индексам и прогнозирования местоположения, размера и потенциального насилия, связанного с демонстрациями. И давайте не будем забывать данные о беспилотниках, которые используются для анализа использования маски и лихорадки, или данные личного здоровья, используемые для прогнозирования того, какие пациенты, госпитализированные с применением КОВИД, имеют наибольшие шансы на ухудшение состояния.

Только благодаря использованию ИИ такое количество персональных данных может быть собрано и проанализировано в таком огромном масштабе.

Этот доступ с помощью алгоритмов для создания индивидуального профиля данных нашего мобильного телефона, социального поведения, медицинских записей, схем поездок и контента в социальных сетях – и многих других наборов персональных данных – во имя сохранения мира и сокращения разрушительной пандемической банки, и приведет к тому, что различные правительственные субъекты и корпорации будут создавать пугающе точные прогнозные профили наших самых личных качеств, политических убеждений, социальных кругов и поведения.

Оставаясь нерегулируемым, общество рискует использовать эту аналитику, генерируемую ИИ, правоохранительными органами, работодателями, арендодателями, врачами, страховщиками – и любыми другими частными, коммерческими и государственными предприятиями, которые могут собирать или приобретать ее – для принятия прогнозных решений, будь они точными или нет , которые влияют на нашу жизнь и наносят удар по самым фундаментальным понятиям либеральной демократии. AI продолжает играть все более возрастающую роль в контексте занятости, чтобы решать, кого следует брать на собеседование, принимать на работу, повышать в должности и увольнять. В контексте уголовного правосудия он используется для определения того, кого заключить в тюрьму и какое наказание назначить. В других случаях ИИ ограничивает людей в их домах, ограничивает определенное лечение в больнице, отказывает в кредитах и ​​наказывает тех, кто не подчиняется правилам социального дистанцирования.

Слишком часто те, кто отказывается от любого типа регулирования ИИ, пытаются отклонить эти опасения как гипотетические и паникерские. Но всего несколько недель назад Роберт Уильямс, афроамериканец и житель Мичигана, был неправомерно арестован из-за ложного опознания лица. Согласно новостным сообщениям и пресс-релизу ACLU, полиция Детройта надели наручники на мистера Уильямса на лужайке перед его женой и двумя испуганными девушками в возрасте двух и пяти лет. Полиция доставила его в центр заключения примерно через 40 минут, где он был заперт на ночь. После того, как офицер признался во время допроса на следующий день, что «компьютер, должно быть, ошибся», мистер Уильямс был наконец освобожден – спустя почти 30 часов после его ареста.

Хотя широко распространено мнение, что это первый подтвержденный случай неправильного распознавания лица AI, который привел к аресту ни в чем не повинного гражданина, очевидно, что это не будет последним. Здесь ИИ послужил основной основой для критического решения, которое повлияло на отдельного гражданина – быть арестованным правоохранительными органами. Но мы должны не только сосредоточиться на том, что ИИ потерпел неудачу, выявив не того человека, лишив его свободы. Мы должны выявить и запретить те случаи, когда ИИ не должен использоваться в качестве основы для конкретных критических решений – даже когда он «делает это правильно».

Как демократическое общество, нам должно быть неудобно быть арестованным за преступление, которое мы планировали, но не совершали, или отказывать в медицинской помощи по поводу болезни, которая, несомненно, со временем закончится смертью, как мы ошибаемся из-за ошибочной версии мистера Уильямса. арестовывать. Мы должны создать «бесполетную зону» ИИ для сохранения наших личных свобод. Мы не должны допускать, чтобы определенные ключевые решения оставались исключительно для прогнозирующего вывода искусственно интеллектуальных алгоритмов.

Чтобы было ясно, это означает, что даже в ситуациях, когда каждый эксперт согласен с тем, что входящие и исходящие данные являются абсолютно беспристрастными, прозрачными и точными, должен быть установлен законодательный запрет на их использование для любого типа прогнозирующего или существенного принятия решений. Это, по общему признанию, нелогично в мире, где мы жаждем математической определенности, но это необходимо.

Раздел 102 (b) Закона о защите данных в области искусственного интеллекта правильно и рационально выполняет это в контексте обоих сценариев, когда ИИ дает правильные и / или неправильные результаты. Это делается двумя ключевыми способами.

Во-первых, в разделе 102 (b) конкретно определяются те решения, которые никогда не могут быть приняты полностью или частично AI. Например, в нем перечислены конкретные злоупотребления ИИ, которые запрещали бы единоличному использованию защищаемых объектов искусственного интеллекта для принятия определенных решений. К ним относятся набор, найм и дисциплинарное наказание отдельных лиц, отказ в медицинском обслуживании или его ограничение, а также лица, выпускающие медицинскую страховку, принимающие решения в отношении покрытия медицинского обслуживания. В свете того, что общество недавно стало свидетелем, запрещенные зоны, вероятно, следует расширить, чтобы еще больше свести к минимуму риск того, что ИИ будет использоваться в качестве инструмента для расовой дискриминации и преследования защищенных меньшинств.

Во-вторых, для некоторых других конкретных решений, основанных на аналитике ИИ, которые прямо не запрещены, в разделе 102 (b) определяются те случаи, когда человек должен участвовать в процессе принятия решений.

Безотлагательно приняв Раздел 102 (b), законодатели могут поддерживать достоинство личности, не допуская, чтобы наиболее важные решения, влияющие на индивидуума, оставлялись исключительно на прогнозируемом результате искусственно интеллектуальных алгоритмов.

Г-н Ньюман является председателем практики торговых секретов Северной Америки Бейкер Маккензи. Мнения и мнения, высказанные здесь, являются его собственными.