Поскольку государственные школы Нью-Йорка блокируют ChatGPT, OpenAI заявляет, что работает над «смягчением последствий», чтобы помочь обнаружить текст, сгенерированный ChatGPT.

Поскольку государственные школы Нью-Йорка блокируют ChatGPT, OpenAI заявляет, что работает над «смягчением последствий», чтобы помочь обнаружить текст, сгенерированный ChatGPT.

Государственные школы а имеют ограниченный доступ к , системе искусственного интеллекта, которая может генерировать текст на различные темы и в различных стилях в школьных сетях и на устройствах. Как широко сообщалось сегодня утром и подтвердил TechCrunch представитель Департамента образования Нью-Йорка, ограничение было введено из-за опасений по поводу «[the] негативное влияние на обучение учащихся» и «безопасность и точность» контента, создаваемого ChatGPT.

«Хотя этот инструмент может дать быстрые и простые ответы на вопросы, он не развивает критического мышления и навыков решения проблем, которые необходимы для академического и жизненного успеха», — сказал представитель TechCrunch по электронной почте, добавив, что ограниченный доступ произошел в ответы на запросы школ.

Это не запрет как таковой. Система государственных школ Нью-Йорка использует тот же фильтр для ЧатGPT который он использует, например, для блокировки других приложений и веб-сайтов YouTube и Facebook на территории школы. Отдельные школы могут запросить разблокировку ChatGPT, и пресс-секретарь сказал, что Департамент образования Нью-Йорка «приветствует» возможность поговорить с , стартапом ChatGPT, о том, как можно адаптировать блокировку инструмента для образования.

Что касается OpenAI, то, когда к нему обратились за комментариями, представитель компании сказал, что OpenAI разрабатывает «смягчающие меры», чтобы помочь любому обнаруживать текст, сгенерированный ChatGPT. Это важно. Хотя TechCrunch недавно сообщил, что OpenAI экспериментирует с методом водяных знаков для текста, сгенерированного ИИ, OpenAI впервые подтвердил, что работает над инструментами, специально предназначенными для идентификации текста, поступающего из ChatGPT.

«Мы сделали ChatGPT доступным в качестве предварительного исследования, чтобы учиться на реальном использовании, что, по нашему мнению, является важной частью разработки и развертывания безопасных и эффективных систем искусственного интеллекта. Мы постоянно учитываем отзывы и извлеченные уроки», — сказал представитель OpenAI. «Мы всегда призывали к прозрачности использования текста, сгенерированного ИИ. Наша политика требует, чтобы пользователи были честны со своей аудиторией при использовании нашего API и творческих инструментов… Мы с нетерпением ждем совместной работы с преподавателями над полезными решениями и другими способами помочь учителям и учащимся извлечь выгоду из ИИ».

ChatGPT может отвечать на вопросы по самым разным темам, от поэзии до программирования, но одним из его самых больших недостатков является его способность иногда давать ответы, которые звучат убедительно, но не являются правдой. Это побудило разработчика сайта вопросов и ответов Stack Overflow временно запретить пользователям делиться контентом, созданным ИИ, заявив, что ChatGPT упростил пользователям возможность заполнять платформу сомнительными ответами. Совсем недавно Международная конференция по машинному обучению, одна из крупнейших в мире конференций по ИИ и машинному обучению, объявила о запрете документов, содержащих текст, сгенерированный ChatGPT и другими подобными системами ИИ, опасаясь «непредвиденных последствий».



В сфере образования дебаты в основном вращались вокруг возможности мошенничества. Выполните поиск в Google по запросу «ChatGPT для написания школьных работ», и вы найдете множество примеров того, как преподаватели, журналисты и студенты пробуют воду, используя ChatGPT для выполнения заданий и стандартных тестов для эссе. Обозреватель Wall Street Journal Джоанна Стерн использовала ChatGPT, чтобы написать одобренное AP эссе на английском языке, а сотрудник Forbes Эмма Уитфорд использовала его, чтобы написать два эссе для колледжа за 20 минут. В беседе с The Guardian профессор Аризонского государственного университета Дэн Гиллмор вспомнил, как давал ChatGPT одно из заданий, которое он обычно дает своим студентам, и обнаружил, что эссе по ИИ получило бы «хорошую оценку».

Плагиат — еще одна проблема. Как и другие системы искусственного интеллекта, генерирующие текст, ChatGPT, который обучается на общедоступных данных, обычно собираемых без согласия, иногда может повторять эту информацию дословно, не ссылаясь на какие-либо источники. Это включает в себя фактические неточности, как упоминалось выше, а также предвзятые взгляды, в том числе откровенно расистские и сексистские. OpenAI продолжает внедрять фильтры и методы, чтобы избежать проблемных текстовых сборок, но новые решения появляются каждый день.

Несмотря на эти ограничения и проблемы, некоторые преподаватели видят педагогический потенциал в ChatGPT и других технологиях генеративного ИИ. В недавней статье для веб-сайта Стэнфордской высшей школы образования Виктор Ли, адъюнкт-профессор образования в Стэнфорде, отметил, что ChatGPT может помочь студентам «думать так, как они в настоящее время не думают», например, помогая им открывать и уточнить свои идеи. Учителя также могут извлечь пользу из ChatGPT, постулирует он, создавая множество примеров для студентов повествования, где основное содержание остается тем же, но стиль, синтаксис или грамматика различаются.

«ChatGPT может [allow] учащимся читать, размышлять и пересматривать много раз без боли или разочарования, которые часто вызывают такие процессы, [while] учителя могут использовать этот инструмент как способ генерировать множество примеров, а не примеры одной формы или жанра», — говорится в заявлении Ли. «Очевидно, что учителя не в восторге от того, что компьютер выполняет за учеников много беготни. А школьникам еще нужно научиться писать. Но каким образом и какие типы письма? Один … побочный эффект этого нового препарата заключается в том, что он требует от всех нас задать эти вопросы и, вероятно, внести некоторые существенные изменения в общие цели и методы нашего обучения».