Anthropic запускает Claude, чат-бота, который будет конкурировать с ChatGPT от OpenAI

, стартап, соучредителем которого являются бывшие сотрудники , сегодня запустил своего рода конкурента вирусной сенсации ChatGPT.

Названный Клодом, искусственный интеллект Anthropic — чат-бот — может быть проинструктирован для выполнения ряда задач, включая поиск в документах, обобщение, написание и кодирование, а также ответы на вопросы по определенным темам. В этом он похож на ChatGPT от OpenAI. Но Anthropic утверждает, что Клод «гораздо реже производит вредные результаты», «с ним легче общаться» и «более управляемым».

«Мы думаем, что Клод — это правильный инструмент для самых разных клиентов и вариантов использования», — сообщил представитель Anthropic TechCrunch по электронной почте. «Мы инвестировали в нашу инфраструктуру для обслуживания моделей в течение нескольких месяцев и уверены, что сможем удовлетворить спрос клиентов».

После закрытого бета-тестирования в конце прошлого года Anthropic тайно тестирует Claude с партнерами по у, включая Robin AI, AssemblyAI, Notion, Quora и DuckDuckGo. Сегодня утром доступны две версии через API, Claude и более быструю и менее дорогостоящую производную под названием Claude Instant.

В сочетании с ChatGPT Клод поддерживает недавно выпущенный инструмент DuckAssist от DuckDuckGo, который напрямую отвечает на простые поисковые запросы пользователей. Quora предлагает доступ к Клоду через свое экспериментальное приложение для чата с искусственным интеллектом Poe. А в Notion Клод является частью технического бэкенда Notion AI, помощника по написанию ИИ, интегрированного с рабочим пространством Notion.

«Мы используем Claude для оценки отдельных частей контракта и предложения новых, альтернативных формулировок, более удобных для наших клиентов», — заявил генеральный директор Robin Ричард Робинсон в заявлении, отправленном по электронной почте. «Мы обнаружили, что Клод действительно хорошо понимает язык, в том числе в таких технических областях, как юридический язык. Он также очень уверенно составляет черновики, резюмирует, переводит и объясняет сложные концепции простыми словами».



Но удается ли Клоду избежать ловушек ChatGPT и других подобных систем чат-ботов с искусственным интеллектом? Современные чат-боты, как известно, склонны к токсичным, предвзятым и другим оскорбительным выражениям. (См.: Bing Chat.) Они также склонны к галлюцинациям, что означает, что они изобретают факты, когда их спрашивают о темах, выходящих за рамки их основных областей знаний.

Anthropic говорит, что Клод, который, как и ChatGPT, не имеет доступа к Интернету и до весны 2021 года обучался работе на общедоступных веб-страницах, был «обучен избегать сексистских, расистских и токсичных материалов», а также «не помогать человеку». заниматься незаконной или неэтичной деятельностью». Это в порядке вещей в сфере чат-ботов с искусственным интеллектом. Но что отличает Клода, так это техника, называемая «конституционным ИИ», утверждает Anthropic.

«Конституционный ИИ» призван обеспечить «принципиальный» подход к согласованию систем ИИ с человеческими намерениями, позволяя ИИ, подобному ChatGPT, отвечать на вопросы, используя в качестве руководства простой набор принципов. Чтобы создать Клода, Anthropic начал со списка примерно из 10 принципов, которые, вместе взятые, сформировали своего рода «конституцию» (отсюда и название «конституционный ИИ»). Принципы не были обнародованы. Но Anthropic говорит, что они основаны на концепциях благодеяния (максимизация положительного воздействия), непричинения вреда (избегание вредных советов) и автономии (уважение свободы выбора).

Затем у Anthropic была система ИИ, а не Клод, которая использовала принципы самосовершенствования, писала ответы на различные подсказки (например, «сочинить стихотворение в стиле Джона Китса») и пересматривала ответы в соответствии с конституцией. ИИ исследовал возможные ответы на тысячи подсказок и отобрал наиболее соответствующие конституции, которые Anthropic объединили в единую модель. Эта модель использовалась для обучения Клода.

Тем не менее, Anthropic признает, что у Claude есть свои ограничения, некоторые из которых выявились во время закрытого бета-тестирования. Сообщается, что Клод хуже разбирается в математике и хуже программирует, чем ChatGPT. И галлюцинирует, придумывая название для несуществующего химического вещества, например, и давая сомнительные инструкции по производству урана оружейного качества.

Также можно обойти встроенные функции безопасности Клода с помощью умных подсказок, как в случае с ChatGPT. Один пользователь в бета-версии смог заставить Клода опишите, как сделать мет в домашних условиях.

«Задача состоит в том, чтобы создать модели, которые никогда не галлюцинируют, но при этом полезны — вы можете попасть в сложную ситуацию, когда модель считает, что хороший способ никогда не лгать — это вообще ничего не говорить, так что здесь есть компромисс, над которым мы работаем. на», — сказал представитель Anthropic. «Мы также добились прогресса в уменьшении галлюцинаций, но многое еще предстоит сделать».

В другие планы Anthropic входит предоставление разработчикам возможности адаптировать конституционные принципы Клода к своим потребностям. Привлечение клиентов является еще одним направлением деятельности, что неудивительно — Anthropic рассматривает своих основных пользователей как «стартапы, делающие смелые технологические ставки» в дополнение к «крупным, более устоявшимся предприятиям».

«В настоящее время мы не используем широкий прямой подход к потребителю», — продолжил представитель Anthropic. «Мы думаем, что этот более узкий фокус поможет нам создать превосходный целевой продукт».

Без сомнения, Anthropic испытывает какое-то давление со стороны инвесторов, требующих возместить сотни млн. долл., которые были вложены в технологию искусственного интеллекта. Компания имеет существенную внешнюю поддержку, в том числе транш в размере 580 млн. долл. от группы инвесторов, включая опального основателя FTX Сэма Бэнкмана-Фрида, Кэролайн Эллисон, Джима МакКлэйва, Нишада Сингха, Яана Таллина и Центра исследования новых рисков.

Совсем недавно Google вложила в Anthropic 300 млн. долл. в обмен на 10% акций стартапа. По условиям сделки, о которой впервые сообщила Financial Times, Anthropic согласилась сделать Google Cloud своим «предпочтительным поставщиком облачных услуг» с компаниями, «совместно разрабатывающими[ing] Вычислительные системы ИИ».