«Антиплагиат» предложили проверить на точность выявления ИИ
Студенты пожаловались, что их дипломы принимают за генерацию нейросетей
Систему «Антиплагиат», которую университеты используют для проверки курсовых и дипломов на наличие заимствований из внешних источников, саму предложили проверить на точность. Она якобы допускает ошибки, принимая авторский текст за генерацию искусственного интеллекта. Могут ли студента не допустить к защите или даже отчислить, если работу за него написал искусственный интеллект, разбиралась «Парламентская газета».
Допустить и предупредить
Еще в 2015 году Минобрнауки предписало подведомственным университетам самостоятельно проверять тексты студенческих работ на объем заимствования. С этой целью вузы утверждают внутренние положения о порядке проверки выпускных квалификационных работ и размещают на сайте регламент использования системы для выявления неправомерных заимствований.
Как правило, вузы ссылаются на систему «Антиплагиат». Доля оригинальности диплома бакалавра должна составлять не меньше 40 процентов, магистра — не меньше 60 процентов, аспиранта — не меньше 70 процентов, а для курсовой работы иногда достаточно и четверти оригинального текста, следует из документов на сайтах нескольких университетов, которые изучила «Парламентская газета». В некоторых вузах контрольные цифры выше.
Перед сдачей работы студенту самому рекомендуют прогнать ее через бесплатную версию антиплагиата, перед тем как преподаватель сделает это через личный кабинет университета на сайте системы. Если результат проверки окажется ниже минимальных значений, научный руководитель может написать отрицательный отзыв о работе, который в некоторых университетах закрывает доступ к защите курсовой или диплома.
Но, даже если студента допустили, экзаменационную комиссию должны предупредить об объеме заимствования и использовании искусственного интеллекта.
Система оценивает, человек решает
Система «Антиплагиат» работает больше двадцати лет, но выявлять нейросетевые генерации она начала только с 2025 года. И не всегда успешно, о чем студенты пишут в тематических сообществах и даже обращаются за помощью к депутатам. О таких письмах «Парламентской газете» рассказали в ЛДПР. Был даже случай, когда программа помечала как сгенерированные произведения классической литературы.
«Алгоритм работает некорректно: он регулярно определяет самостоятельно написанные работы как сгенерированные нейросетью, — сказал руководитель фракции в Госдуме Леонид Слуцкий. — В итоге студенты упрощают свои курсовые или десятки раз переписывают их, лишь бы пройти проверку и получить заветную справку от «Антиплагиата». Это неизбежно бьет и по качеству работ, и по мотивации студентов».
Парламентарий направил письмо министру науки и высшего образования РФ Валерию Фалькову с просьбой проверить систему на ошибки при автоматической проверке курсовых и дипломных работ.
В руководстве компании-разработчика «Антиплагиата» уже выпустили разъяснение, что результат отчета системы — это не оценка и тем более не вердикт, а сигнал обратить внимание. «У нас нет функционала, который позволял бы допускать или не допускать к защите, — подчеркнул научный руководитель компании Борис Тхориков, комментарий которого размещен в сообществе «Антиплагиата» в соцсети. — Эта задача остается за вузом и преподавателями, потому что только человек в полной мере сможет оценить интеллектуальную работу человека».
Все дело в маркировке
В первом квартале 2026 года признаки ИИ обнаружили в 27 процентах студенческих работ, год назад показатель составлял 17 процентов, следует из статистики «Антиплагиата». Эти цифры, как и само по себе стремительное развитие ИИ в образовательной среде, требуют регулирования, так как в университетах действуют разные регламенты по применению нейросетей, сказала «Парламентской газете» руководитель центра компетенций «Цифровая экономика» Надежда Сурова.
Объективного инструмента, способного выявить генерацию и определить роль в ней студента, сегодня практически не существует, считает эксперт. «Студенты сами пишут языковые модели, и это уже не GPT, — отметила она. — Сказать, на чем такая модель обучалась и просто, не врет ли, то есть не придумала ли она содержание работы, нельзя».
Одно из назревших решений — обязательная маркировка сгенерированного контента, уверена Надежда Сурова. Принимать его нужно в ближайшее время. Причем не только в отношении аудио, видео и текстового контента, но и в отношении кодов, которые используют разработчики, заключила специалист.
С 2024 года в СМИ появлялись сообщения о попытках отчислить студентов за чрезмерные заимствования в дипломной работе, причем не только из-за ИИ. Автоматический отчет системы не может быть основанием для недопуска к защите и последующего отчисления за неуспеваемость, поскольку федеральное законодательство не предусматривает прямой зависимости допуска от процента машинной генерации, отмечали юристы.
Читайте также:
• ИИ научат отслеживать состояние водителей по мимике и движениям глаз • «Пузыри» искусственного интеллекта: сколько в мире тратят на технологии ИИ • В вузах могут начать готовить специалистов по борьбе с дипфейками • Набор студентов на факультет искусственного интеллекта МГУ стартует в этом году • Стандарты на снаряды, танки, искусственный интеллект: как менялись ГОСТы в России за сто лет
Ещё материалы: Леонид Слуцкий






