Журналисты The Wall Street Journal провели опрос, который показал, что инструменты генеративного ИИ широко используются в американской системе образования. В частности, они позволяют нынешнему поколению учеников передавать свою школьную работу на аутсорс.

17-летняя старшеклассница из Нью-Джерси рассказала, почему она использовала ИИ для выполнения десятков заданий. По её словам, эта работа казалась скучной или сложной, но при этом было желание получить более высокую оценку. Несколько раз ученица откладывала такие задания и не успевала выполнить их в срок.
Изначально девушка обратилась к ChatGPT от OpenAI и Gemini от Google, чтобы они помогли ей генерировать идеи и проверять концепции. Однако в итоге всю работу за неё выполнял ИИ. Так, Gemini решал домашние задания по математике, а ChatGPT выполнял вычисления для научной лаборатории и создал сложный раздел курсовой работы по истории, который школьница просто переписала. Студентку поймали на использовании ИИ только один раз.
Сама ученица сдала экзамены в прошлом году, но, по её словам, она узнала гораздо меньше, чем могла бы. В итоге девушка на последнем году обучения отказалась от подобных методов работы с ИИ. «Я попыталась сделать шаг назад и использовать свой мозг», — сказала она.
В целом, из всех студентов, которые сообщили об использовании ИИ, почти 40% учащихся средних и старших классов подтвердили, что делали это без разрешения учителей и для выполнения заданий. Среди студентов колледжей, которые используют ИИ, этот показатель составил почти 50%. Внутренний анализ самой OpenAI показал, что студенты колледжей часто использовали ChatGPT для помощи в написании работ.
Многие преподаватели обеспокоены тем, что лёгкий доступ к чат-ботам будет побуждать всё больше студентов к тому, чтобы избегать сложной академической работы. «Это гигантский публичный эксперимент, о котором никто не просил», — отметил Марк Уоткинс, помощник директора по академическим инновациям в Университете Миссисипи.
Бывший министр образования и ректор системы Государственного университета Нью-Йорка Джон Б. Кинг-младшая допускает, что уровень критического мышления и коммуникативные навыки теперь следует измерять способностью хорошо использовать ИИ. Представители системы образования предлагают школам включать ИИ в образовательный процесс, чтобы сделать использование подобных инструментов более управляемым. Департаменты образования, некоммерческие организации и компании, включая OpenAI, ранее публиковали общие рекомендации о том, как учителя могут ответственно использовать ИИ, но в большинстве случаев в них не упоминается проблема списывания.
При этом учителя отмечают, что ловят всё больше учеников на подобном. Студенты, которые избегают списывания у ИИ, жалуются, что оно «дискредитирует людей, которые действительно усердно работают над чем-то». Преподаватели же отмечают, что из-за ИИ ученики теряют навыки письма, «требующие такого типа мышления, которого не требуют другие типы упражнений».
В итоге некоторые преподаватели требуют от учеников писать черновики эссе в классе вручную, а также запрещают на уроках компьютеры и телефоны. Однако они не могут аналогичным образом контролировать процесс выполнения домашних заданий. Между тем число компаний, которые предлагают ИИ-инструменты для подготовки эссе, растёт. Все они, тем не менее, утверждают, что предоставляют ученикам лишь планы работы. В итоге преподаватели видят эссе, практически наверняка созданные искусственным интеллектом, но ставят за них проходные баллы, так как не могут подтвердить свои подозрения.
Некоторые обращаются к сторонним инструментам обнаружения ИИ, но они работают не всегда корректно. Учителя тратят часы своего личного времени, чтобы выявить плагиат в работах учеников. Однако студенты почти всегда оказываются на шаг впереди, а преподаватели признают, что проблему решит только отказ от ИИ-инструментов.
Ранее сообщалось, что система AI Scientist-v2 от компании Sakana AI смогла в рамках эксперимента создать научную работу, которая успешно прошла процесс рецензирования на семинаре международной конференции ICLR. При этом рецензенты не знали, была ли сгенерирована конкретная работа ИИ или написана человеком, но ранее их предупредили о такой возможности. Внутренняя проверка компании показала, что AI Scientist v2 иногда допускал ошибки в цитировании, в том числе неверно указывал авторов и годы публикации других статей.
Автор: maybe_elf