Теперь кажется вполне возможным, что материнская компания ChatGPT OpenAI решила проблему «сверхинтеллекта» и теперь пытается разобраться с ее последствиями для человечества.
После увольнения и повторного приема на работу соучредителя и генерального директора OpenAI Сэма Альтмана продолжают поступать откровения о том, что послужило толчком к этому шагу. Новый отчет в The Information связывает, по крайней мере, внутренние потрясения со значительным прорывом в области генеративного искусственного интеллекта, который может привести к развитию чего-то, называемого «сверхинтеллектом», в течение этого десятилетия или раньше.
Сверхинтеллект, как вы уже могли догадаться, — это интеллект, превосходящий человеческий, и развитие искусственного интеллекта, способного на такой интеллект без надлежащих мер безопасности, естественно, является серьезным тревожным сигналом.
Согласно информации, прорыв был инициирован главным научным сотрудником OpenAI (и полный сожалений член правления) Илья Суцкевер.
Это позволяет ИИ использовать более чистые и сгенерированные компьютером данные для решения проблем, с которыми ИИ никогда раньше не сталкивался. Это означает, что ИИ обучается не на множестве разных версий одной и той же проблемы, а на информации, не имеющей прямого отношения к проблеме. Решение задач таким способом – обычно математических или естественных – требует рассуждений. Верно, то, что делаем мы, а не ИИ.
Основной продукт OpenAI, ориентированный на потребителя, ChatGPT (на базе большой языковой модели GPT). [LLM]) может показаться настолько умным, что, должно быть, использует разум для выработки своих ответов. Однако проведите достаточно времени с ChatGPT, и вскоре вы поймете, что он просто извергает то, что он узнал из огромных объемов данных, которые ему предоставили, и делает в основном точные предположения о том, как создавать предложения, которые имеют смысл и применимы к вашему запросу. Здесь нет никаких рассуждений.
The Information, тем не менее, утверждает, что этот прорыв – о котором Альтман, возможно, упомянул в своем недавнем выступлении на конференции, заявив: «от себя лично, только в последние пару недель мне удалось присутствовать в комнате, когда мы сортируем вроде как отодвинуть завесу невежества и продвинуть границу открытий», — вызвало шок по всему OpenAI.
Управление угрозой
Хотя в настоящее время в ChatGPT нет никаких признаков сверхразума, OpenAI наверняка работает над интеграцией части этой мощи, по крайней мере, в некоторые из своих продуктов премиум-класса, таких как GPT-4 Turbo и агенты чат-ботов GPT (и будущие «интеллектуальные агенты»). .
Связать суперинтеллект с недавними действиями совета директоров, которые изначально поддержал Суцкевер, может быть натяжкой. Сообщается, что прорыв произошел несколько месяцев назад и побудил Суцкевера и другого ученого OpenAI, Яна Лейке, сформировать новую исследовательскую группу OpenAI под названием Superaligment с целью разработки средств защиты сверхинтеллекта.
Да, вы не ослышались. Компания, занимающаяся разработкой сверхинтеллекта, одновременно создает инструменты для защиты нас от сверхинтеллекта. Представьте, что доктор Франкенштейн вооружает жителей деревни огнеметами, и вы поймете идею.
Что не ясно из отчета, так это то, как внутренние опасения по поводу быстрого развития сверхинтеллекта могли спровоцировать увольнение Альтмана. Возможно, это не имеет значения.
На момент написания этой статьи Альтман возвращается в OpenAI, плата переработана, и работа по созданию сверхинтеллекта – и защиты нас от него – продолжится.
Если все это сбивает с толку, я предлагаю вам попросить ChatGPT объяснить вам это.