Чему компании могут научиться у золотой лихорадки бума искусственного интеллекта

Чему компании могут научиться у золотой лихорадки бума искусственного интеллекта

Джеймс В. Маршалл и ChatGPT 3.5 имеют одну общую черту. Оба вызвали «ажиотаж» и изменили мир. В то время как Маршалл нашел первый золотой самородок в январе 1848 года, вызвав приток 300 000 человек в Калифорнию, запуск ChatGPT 3.5 в ноябре 2022 года вызвал переполох среди пользователей и технологических инвесторов. Искусственный и модели большого языка (LLM) внезапно стали мейнстримом, и миллионы пользователей бросились использовать чат-бот, навсегда изменив мир.

Сейчас выявляются негативные аспекты бума искусственного интеллекта, будь то авторские права, предвзятость, этика, конфиденциальность, безопасность или влияние на рабочие места. Вот почему намерение ЕС рассмотреть этические и моральные вопросы путем регулирования технологий с помощью Закона об искусственном интеллекте является своевременным и уместным. В то же время, пожалуй, каждая крупная компания на планете задумалась о том, как разумно интегрировать искусственный интеллект в свои веб-сайты, продукты и услуги, чтобы повысить производительность, оптимизировать удовлетворенность клиентов и, в конечном итоге, увеличить продажи.

Марк Молинье

Не закрывайте глаза на риски и побочные эффекты

Как и золотая лихорадка, бум искусственного интеллекта также привел к быстрому притоку людей, которые присоединились к этому вагону, чтобы не упустить возможности, которые он предоставил. Однако использование ИИ в компаниях не должно проводиться в духе «Дикого Запада», такого как золотая лихорадка; вместо этого оно должно сопровождаться четким предупреждением, аналогичным рекламе никотина, поскольку игнорирование рисков и побочных эффектов ИИ может – в экстремальных обстоятельствах – иметь фатальные последствия.

Более типичные риски варьируются от случайного обмена проектами или строками кода с общедоступными LLM отделами разработки до изменения ожиданий клиентов относительно того, как компании используют ИИ и данные в этом процессе. Но эти риски могут масштабироваться экспоненциально, причиняя вред; например, в 2016 году Тэй из Microsoft опубликовал около 95 000 твитов за 16 часов, многие из которых были расистскими и женоненавистническими. Согласно исследованию Cohesity, более трех четвертей потребителей (78 процентов) испытывают серьезные опасения по поводу неограниченного или неконтролируемого использования их данных ИИ.

Но как можно приручить ИИ? Он уже был развернут во многих компаниях, и никто не устанавливал правила его использования и не контролировал их соблюдение – это сравнимо с тем, как произошел «натиск» в сторону облачных вычислений, который привел к тому, что многие фирмы перезапустили все с нуля и потеряли время и деньги. Чтобы это не вызвало всех проблем, любая организация, которая хочет ответственно использовать ИИ в следующем году, должна регулировать это распространение внутри страны, контролировать доступ и иметь строгую политику в области ИИ. В последнее время многие компании, в том числе Amazon и финансовый гигант JPMC, ввели ограничения для своих сотрудников, использующих ChatGPT, чтобы обеспечить высокий уровень контроля до того, как откроются шлюзы, и планируют постепенно вновь вводить соответствующий доступ по мере необходимости, политики использования и технические средства контроля. находятся на месте.

Также крайне важно, чтобы компании четко определили, к каким данным могут получить доступ их собственные проекты ИИ и как они могут их обрабатывать. Классические элементы управления доступом на основе ролей, которые связывают роли и задачи с источниками данных, являются хорошим вариантом для масштабируемого управления этим процессом. Только те, кто обладает необходимыми привилегиями, могут открывать источники данных. Эти роли также должны отражать то, что тот, кому не разрешено открывать определенные источники данных по юридическим причинам, не может этого делать. И что географические ограничения, такие как суверенитет данных, строго контролируются.

Что редко проверяется в настоящее время (и может стать проблематичным в будущем), так это то, можно ли и как отследить, что именно модели ИИ получали (обучались) и в каком порядке. Это «слепое пятно» может иметь юридические, моральные и этические последствия. Если ИИ примет фатальное решение в будущем, это будет иметь проблемные последствия как минимум в одной, а в худшем случае — во всех этих областях. Строгий судья захочет узнать, как модели ИИ были обучены для достижения фатального результата. Вам также потребуется хранить всю историю версий обучения модели за установленный период.

Сделайте процесс обучения прозрачным и установите кнопку «назад»

Поэтому крайне важно классифицировать поступающие данные и документировать процесс обучения. Это позволит компаниям повысить прозрачность для клиентов и улучшить качество процесса обучения. Также правильно подходить к этому управляемым и ответственным образом, используя только надлежащим образом утвержденные данные, гарантируя, что ИИ и его человеческий элемент имеют правильный уровень доступа к данным и что они не могут ненадлежащим образом изменять данные или получать доступ к данным, к которым они не имеют доступа. разрешено видеть — управление доступом на основе ролей, обеспечивающее не только конфиденциальность, но и надлежащий контроль доступа ИИ.

В то же время, однако, процесс обучения ИИ до сих пор остается загадкой; оно происходит в математически сложных алгоритмах и, прежде всего, занимает много времени. В течение многих лет Tesla обучала свой искусственный интеллект автономному вождению в реальных дорожных ситуациях. Но как защитить суть многолетнего обучения от потерь и неправильного ввода? Как вы защищаете это обучение от конкурентов или лиц, представляющих угрозу, которые могут захотеть отрицательно повлиять на поведение? Как защитить свою интеллектуальную собственность от незаконного включения в обучение ИИ? Хорошим примером последнего является New York Times, подающая в суд OpenAI и Microsoft за неразрешенное использование статей NYT для обучения GPT LLM. Это возвращает нас к ответственному и управляемому подходу к ИИ.

До сих пор ни один стартап не придумал, как механизм искусственного интеллекта может фиксировать, какие биты и байты были изменены в процессе обучения после ввода свежих данных. Тот, кто захочет сбросить ИИ в более раннее состояние из-за того, что он неправильно загрузил его — например, с юридически защищенным контентом, — не сможет сделать это непосредственно в движке ИИ. Им нужен обходной путь, который уже существует в других ИТ-областях. В сфере ИТ-безопасности проверенные методы также могут быть полезны для лучшей защиты моделей ИИ. Некоторые решения позволяют делать снимки всей системы, а затем в экстренной ситуации вернуться к предыдущей версии. Затем вы теряете дни между созданием моментального снимка и выявленными проблемами времени, но не все знания работают. Компаниям необходимо учитывать это и использовать в своих интересах при рассмотрении рисков, связанных с ИИ.

Мы составили обширный список лучших инструментов искусственного интеллекта.

Эта статья была подготовлена ​​в рамках канала Expert Insights от TechRadarPro, где мы рассказываем о лучших и ярких умах современной технологической отрасли. Мнения, выраженные здесь, принадлежат автору и не обязательно совпадают с мнением TechRadarPro или Future plc. Если вы заинтересованы в участии, узнайте больше здесь: