Специалисты по этике отвечают на письмо «AI Pause», которое, по их словам, «игнорирует реальный вред».

Группа известных специалистов по этике ИИ написала контрапункт на опубликованное на этой неделе неоднозначное письмо с просьбой о шестимесячной «паузе» в развитии ИИ, критикуя его за акцент на гипотетических будущих угрозах, в то время как реальный вред может быть связан с неправильным использованием технологии сегодня. .

Тысячи людей, в том числе такие известные имена, как Стив Возняк и Илон Маск, ранее на этой неделе подписали открытое письмо Института будущего жизни, в котором предлагается приостановить разработку моделей ИИ, таких как GPT-4, во избежание «потерь». контроля над нашей цивилизацией», среди прочих угроз.

Тимнит Гебру, Эмили М. Бендер, Анджелина Макмиллан-Мейджор и Маргарет Митчелл — крупные фигуры в области ИИ и этики, известные (помимо своей работы) тем, что их вытеснили из Google из-за статьи, критикующей возможности ИИ. В настоящее время они вместе работают в DAIR Institute, новом исследовательском центре, целью которого является изучение, выявление и предотвращение вреда, связанного с ИИ.

Но их не было в списке подписавших, и теперь они опубликовали упрек, в котором говорится о неспособности письма решить существующие проблемы, вызванные технологией.

«Эти гипотетические риски находятся в центре внимания опасной идеологии, называемой долгосрочной, которая игнорирует реальный вред, причиняемый сегодня развертыванием систем ИИ», — написали они, сославшись на эксплуатацию рабочих, кражу данных, синтетические носители, поддерживающие существующие структуры власти, и дальнейшую концентрацию. этих силовых структур в меньшем количестве рук.

Выбор беспокоиться об апокалипсисе роботов в стиле Терминатора или Матрицы — отвлекающий маневр, когда в тот же момент у нас есть сообщения о том, что такие компании, как Clearview AI, используются полицией, чтобы фактически подставить невиновного человека. Нет необходимости в T-1000, когда у вас есть кольцевые камеры на каждой входной двери, доступные через онлайн-фабрики печатных ордеров.



Хотя команда DAIR согласна с некоторыми целями письма, такими как идентификация синтетических носителей, они подчеркивают, что действия должны быть предприняты сейчас, для решения сегодняшних проблем с помощью средств, которые у нас есть:

Что нам нужно, так это регулирование, обеспечивающее прозрачность. Мало того, что всегда должно быть ясно, когда мы сталкиваемся с синтетическими носителями, но и организации, создающие эти системы, также должны документировать и раскрывать обучающие данные и архитектуры моделей. Ответственность за создание безопасных для использования инструментов должна лежать на компаниях, которые создают и развертывают генеративные системы, а это означает, что создатели этих систем должны нести ответственность за результаты, производимые их продуктами.

Нынешняя гонка за все более крупными «экспериментами с ИИ» — это не предопределенный путь, где наш единственный выбор — как быстро бежать, а скорее набор решений, обусловленных мотивом получения прибыли. Действия и выбор корпораций должны определяться регулированием, защищающим права и интересы людей.

Действительно, пора действовать, но в центре нашего внимания не должны быть воображаемые «мощные цифровые умы». Вместо этого мы должны сосредоточиться на очень реальной и очень существующей эксплуататорской практике компаний, претендующих на их создание, которые быстро централизуют власть и увеличивают социальное неравенство.

Между прочим, это письмо перекликается с мнением, которое я услышал от основателя Uncharted Power Джессики Мэтьюз на вчерашнем мероприятии AfroTech в Сиэтле: «Вы не должны бояться ИИ. Ты должен бояться людей, которые его строят». (Ее решение: станьте людьми, которые его строят.)

Хотя маловероятно, что какая-либо крупная компания когда-либо согласится приостановить свои исследовательские усилия в соответствии с открытым письмом, очевидно, судя по полученным обязательствам, что риски — реальные и гипотетические — ИИ вызывают серьезную озабоченность во многих сегментах бизнеса. общество. Но если они этого не сделают, возможно, кто-то должен будет сделать это за них.