AI EO WH – это BS

Распоряжение был только что выпущен Белым домом относительно «использования заслуживающего доверия искусственного интеллекта в правительстве». Не говоря уже о безосновательной презумпции надежности правительства и о том, что проблемы с доверием вызывает именно программное обеспечение, приказ – это почти сплошь пустышка.

ОР похож на другие в том, что он ограничен тем, что президент может безапелляционно заставить делать федеральные агентства – а это фактически не очень много, практически говоря. Этот «предписывает федеральным агентствам руководствоваться» девятью принципами, которые прямо здесь показывают уровень воздействия. Пожалуйста, агентства – ориентируйтесь!

И затем, конечно, исключаются все действия в области военной и национальной безопасности, где системы ИИ наиболее опасны, а контроль является наиболее важным. Никто не беспокоится о том, что NOAA делает с ИИ, но они очень озабочены тем, чем занимаются трехбуквенные агентства и Пентагон. (У них есть свои собственные правила.)

Принципы – это что-то вроде списка желаний. ИИ, используемый федералами, должен быть

законный; целеустремленность и результативность; точный, надежный и эффективный; безопасный, надежный и надежный; понятно; ответственность и отслеживаемость; регулярно контролируется; прозрачный; и подотчетен.

Я бы бросил вызов любому найти любой значительное развертывание ИИ, который представляет собой все эти вещи, в любой точке мира. Любое агентство утверждает, что ИИ или система машинного обучения, которую они используют, придерживаются всех этих принципов, как они подробно описаны в ОР, следует рассматривать с крайним скептицизмом.

Дело не в том, что сами принципы плохие или бессмысленные – безусловно, важно, чтобы агентство могло количественно оценить риски при рассмотрении вопроса об использовании ИИ для чего-то, и чтобы существовал процесс мониторинга их воздействия. Но исполнительный приказ этого не делает. Строгие законы, которые, вероятно, начинаются на уровне города и штата, уже показали, что значит требовать подотчетности ИИ, и, хотя федеральный закон вряд ли появится в ближайшее время, он не заменяет всеобъемлющий закон. Это слишком непросто почти во всем. Кроме того, многие агентства уже приняли такие «принципы» много лет назад.



Единственное, что фактически делает ОР – это заставляет каждое агентство составить список всех применений, в которых он использует ИИ, независимо от того, как это может быть определено. Конечно, прежде чем мы увидим это, пройдет больше года.

В течение 60 дней с момента заказа агентства выберут формат для этого инвентаря AI; Через 180 дней после этого инвентаризация должна быть завершена; Через 120 дней после этого инвентаризация должна быть завершена и проверена на соответствие принципам; планы по приведению систем в соответствие с ними, агентства должны «стремиться» выполнить в течение следующих 180 дней; между тем, в течение 60 дней после завершения инвентаризации они должны быть переданы другим агентствам; затем, в течение 120 дней после завершения, они должны быть доведены до сведения общественности (за вычетом чего-либо важного для правоохранительных органов, национальной безопасности и т. д.).

Теоретически у нас могут быть эти инвентаризации через месяц, но на практике мы рассчитываем примерно на полтора года, после чего у нас будет моментальный снимок инструментов искусственного интеллекта от предыдущей администрации, с удаленными всеми интересными деталями. по своему усмотрению. Тем не менее, это может быть интересным чтением в зависимости от того, что именно в нем входит.

Этот исполнительный приказ, как и другие ему подобные, является попыткой этого Белого дома выступить в качестве активного лидера в том, что почти полностью находится вне его рук. Разработка и развертывание ИИ, безусловно, должны осуществляться в соответствии с общими принципами, но даже если эти принципы могут быть установлены сверху вниз, этот свободный, слегка обязывающий жест такого рода, своего рода, заставляет некоторые агентства мизинец: клянусь, серьезно думать о них – это не лучший способ.