Разве ты не ненавидишь, когда крестные не соглашаются?
С одной стороны, у нас есть бывший учёный Google доктор Джеффри Хинтон, предупреждающий, что мы движемся слишком быстро, и ИИ может разрушить всё, от рабочих мест до истины. С другой стороны, мы находим Янна Лекуна из Meta.
Оба учёных когда-то вместе работали над достижениями глубокого обучения, которые изменили мир искусственного интеллекта и вызвали шквал достижений в алгоритмах искусственного интеллекта и больших языковых моделях, которые привели нас к этому тяжелому моменту.
Хинтон сделал свое предупреждение ранее в этом году Нью-Йорк Таймс. Лауреат премии Тьюринга ЛеКун в значительной степени выступил против Хинтона и защитил развитие искусственного интеллекта в обширном интервью со Стивом Леви из Wired.
«Люди пользуются страхом перед этой технологией, и мы рискуем отпугнуть людей от нее», — сказал Лекун Леви.
Аргумент Лекуна, который в своей форме TLDR сводится к следующему: «Не волнуйтесь, используйте ИИ», распадается на несколько ключевых компонентов, которые могут заставить или не заставить вас думать по-другому.
Открыть — это хорошо
Мне особенно понравился аргумент Лекуна об открытом исходном коде. Он сказал Леви, что если вы согласитесь с тем, что ИИ может в конечном итоге оказаться между нами и большей частью нашего цифрового опыта, то нет смысла контролировать его несколькими крупными компаниями, занимающимися ИИ. «Вы не хотите, чтобы эта система искусственного интеллекта контролировалась небольшим количеством компаний на западном побережье США», — сказал Лекун.
Итак, это парень, который работает главным научным сотрудником Меты по искусственному интеллекту. Meta (ранее Facebook) — крупная компания Западного побережья (которая недавно запустила собственную LLM LLAMA 2 с открытым исходным кодом). Я уверен, что ирония не ускользнула от Лекуна, но я думаю, что он, возможно, нацелился на OpenAI. Ведущий мировой поставщик ИИ (создатель ChatGPT и DALL-E, а также основной участник Microsoft CoPilot) начинал как открытая некоммерческая компания. Сейчас он получает большое финансирование от Microsoft (также крупной компании на Западном побережье), и ЛеКун утверждает, что OpenAI больше не делится своими исследованиями.
Регулирование, вероятно, не главное
ЛеКан высказывался по поводу регулирования ИИ, но, возможно, не так, как вы думаете. По сути, он выступает против этого. Когда Леви спросил обо всем ущербе, который может нанести нерегулируемый и всемогущий ИИ, ЛеКун настаивал на том, что ИИ не только создаются с ограждениями, но и если эти инструменты используются в промышленности, им придется следовать ранее существовавшим и жестким правилам (подумайте фармацевтическая промышленность).
«Вопрос, который обсуждают люди, заключается в том, имеет ли смысл регулировать исследования и разработки в области ИИ. И я не думаю, что это так», — сказал Лекун Wired.
AGI не рядом
В последние месяцы было много разговоров о потенциале общего искусственного интеллекта (AGI), который может быть очень похож, а может и не очень похож на ваш собственный интеллект. Некоторые, в том числе Сэм Альтман из OpenAI, полагают, что это уже не за горами. ЛеКун, однако, не входит в их число.
Он утверждал, что мы не можем даже дать определение ОИИ, потому что человеческий интеллект — это не одно и то же. В этом он прав. Мой интеллект никоим образом не мог бы сравниться с интеллектом Эйнштейна или Лекуна.
Вы хотите, чтобы ИИ был умнее вас
По мнению Лекуна, нет никаких сомнений в том, что ИИ в конечном итоге станут умнее людей, но он также отмечает, что у них не будет такой же мотивации, как у нас.
Он сравнивает этих ИИ-помощников с «сверхумными людьми» и добавляет, что работа с ними может быть похожа на работу с суперумными коллегами.
Даже несмотря на весь этот интеллект, ЛеКун настаивает на том, что у этих ИИ не будет человеческих мотиваций и стремлений. Глобальное господство для них не будет проблемой просто потому, что они умнее нас.
Лекун не сбрасывает со счетов идею программирования в побуждении (заменяющую цель), но видит в этом «целенаправленный ИИ», и поскольку частью этой цели может быть непреодолимое ограждение, меры безопасности будут встроены.
Чувствую ли я себя лучше? Является ли меньшее регулирование, больше открытого исходного кода и более активное использование посредничества ИИ путем вперед к более безопасному будущему? Может быть. ЛеКун определенно так думает. Интересно, разговаривал ли он в последнее время с Хинтоном?