Максим учится на третьем курсе технического вуза в Новосибирске. В прошлом семестре сдавал курсовую по системам автоматического управления — преподаватель похвалил структуру и язык. Когда на защите спросили, чем метод Рунге—Кутты отличается от метода Эйлера, парень замолчал секунд на десять. Потом произнес: «Ну, точностью...» На вопрос, в чем именно, — пожал плечами. Курсовую писал ChatGPT.
По итогам опросов 2024–2025 годов большинство российских студентов технических направлений регулярно используют нейросети в учебе. Согласно данным платформы Coursera, 90% студентов и преподавателей по всему миру так или иначе работают с ИИ.
Вопрос, который статистика обходит стороной: чему научится Максим?
Эволюция без манифеста
Университеты, позже других объявившие о «цифровой трансформации», зачастую справляются с ней лучше тех, кто поспешил. Они успели понять, зачем она вообще нужна.
Студент, делегирующий мышление машине, нередко получает более высокие оценки. Тьюторские системы на основе ИИ дают измеримый результат. В Томском государственном университете е-тьютор по физике заметно поднял успеваемость слабых студентов уже за первый семестр — без дополнительных занятий с преподавателем. Адаптивные платформы — российский Stepik с ИИ-наставником, «Яндекс Учебник», американские аналоги — улучшают результаты тестирования за счет персонализированного темпа, мгновенной обратной связи, возможности повторять объяснение столько раз, сколько нужно.
При этом бесконтрольное использование ИИ может размывать различие между проверенной информацией и убедительной имитацией знания, что потенциально приводит к снижению глубины анализа.
«Формально успеваемость студентов растет, потому что сокращается время на подготовку заданий, — отмечает заместитель директора ИВНД и НФ РАН и академический руководитель бакалавриата „Когнитивная нейробиология“ НИУ ВШЭ Ольга Мартынова. — А по факту качество усвоения материала снижается. Риск там, где студенты слишком сильно доверяют ИИ, не применяют критическое мышление, не перепроверяют ответы и передают часть когнитивных функций мозга в ведение машины».
Директор ИВНД и НФ РАН Алексей Малышев более прямолинеен: «Домашнее задание, выполненное при помощи ИИ, имеет гораздо меньшую образовательную роль, чем сделанное самостоятельно. В плане контроля знаний теперь применимы только очные экзаменовки».
По мнению Ольги Мартыновой, дело не в инструменте, а в том, есть ли у пользователя необходимые компетенции.
«Я тоже использую ИИ: пишу с его помощью структуру лекций, ищу литературу, — признается наша собеседница. — Но читаю лекцию всегда сама. Если бы я не была экспертом в нейробиологии, я бы не смогла ее прочитать, даже если бы мне написал текст прекрасный платный ИИ».
Что происходит с мозгом
Первые экспериментальные данные о влиянии ИИ на память уже публикуются. В 2024 году исследователи сравнили при помощи ЭЭГ активность мозга в трех группах: студенты писали эссе без инструментов, с поисковиком Google и с ChatGPT.
«Участники третьей группы показали наиболее низкую нейронную активность в областях, отвечающих за внимание, рабочую память и сознательный контроль, — поясняет ведущий научный сотрудник НИЦ человекознания им. Б. Г. Ананьева факультета психологии СПбГУ Ирина Шошина. — Зафиксировано снижение корковой активности в альфа- и бета-диапазонах, уменьшение связности между лобными и теменными регионами. Только 28% из них смогли воспроизвести хотя бы одно предложение из собственного эссе».
Интеллектуальная леность — побочный продукт нейросетей. Ольга Мартынова приводит аналогию: «Появление GPS-навигаторов ухудшило наши навыки ориентировки. Это неизбежно, это надо принять».
Вопрос в том, что мы приобретаем взамен.
При грамотном педагогическом встраивании ИИ картина меняется, убеждена Ирина Шошина. По ее словам, активный мозговой штурм перед обращением к нейросети усиливает запоминание. Спецкурсы по критическому анализу ответов ИИ развивают метакогниции — способность контролировать собственное мышление. Генеративный ИИ обладает реальным потенциалом для развития критического мышления — но только при педагогической интеграции, стимулирующей активное рассуждение и критическую автономию студента.
Преподаватель: режиссер или статист
Сергей Григорьев, член-корреспондент РАО, профессор Института цифрового образования МГПУ, убежден: прежде чем говорить о нейросетях в образовании, нужно разобраться, что вообще такое ИИ.
«Сведение ИИ к нейросетям принципиально неправильно, — рассуждает ученый. — Существует два подхода: нисходящий, основанный на математической логике, и восходящий — нейросеть. Увлечение нейросетями — вредная позиция, если заставлять их разрабатывать и задания для студентов, и ответы к ним. Тут не студент, не преподаватель, а Рособрнадзор будет доволен. Вспомним фразу академика Моисеева: искусственным интеллектом занимается тот, у кого не хватает естественного».
Наш собеседник не луддит. Он применял нейросети для двух конкретных задач: построения системы академической генеалогии (кто у кого учился вплоть до «праправнуков» в научном смысле) и анализа терминологических несоответствий в школьных учебниках. Обнаружилось, например, что понятие координат вводится в географии в шестом классе, а в математике — только в восьмом.
«Здесь человеческий интеллект не справится — слишком много информации, — говорит Сергей Григорьев. — Задача компьютера — сжать ее, выделить только то, что требуется. Но для этого нужно понимать предмет самому».
Ректор ДВФУ Борис Коробец видит ту же логику в масштабе всего университета:
«ИИ — это усилитель системы, мультипликатор. Но усилитель усиливает и сильное, и слабое. В сильной образовательной логике он снимает рутину, повышает скорость, дает новые возможности для персонализации. В слабой — масштабирует имитацию, пустые задания, формальную отчетность и иллюзию качества».
По мнению Бориса Коробца, выиграют не те университеты, которые быстрее всех объявят о внедрении ИИ, а те, которые сумеют встроить его в логику развития мышления, ответственности и реальной профессиональной подготовки.
Плагиат нового типа
В большинстве российских университетов сегодня нет ни официального запрета на ИИ, ни разрешения на его применение.
«На данном этапе важно зафиксировать в локальных актах вуза отношение к использованию ИИ, — убежден заведующий лабораторией Института проблем управления РАН и основатель компании „Думейт“ Юрий Чехович. — Если даже будет наложен запрет, ситуация окажется лучше, чем сейчас, когда практически во всех учебных организациях царит нормативная неопределенность. Лишь пара десятков российских вузов включили в свои локальные акты упоминания ИИ».
Новые технологии принесли и новые вызовы академической этике. «Генеративный ИИ серьезно упростил совершение некоторых типов нарушений, — говорит Чехович. — Намного проще стало скрывать заимствования путем машинной перефразировки. Есть примеры, когда авторы с помощью нейросетей фабрикуют несуществующие результаты или фальсифицируют данные. Большую проблему представляют галлюцинации — в работах появляются выдуманные факты, ссылки на несуществующие публикации».
Детекторы ИИ-текста наш собеседник оценивает без иллюзий.
«Идеальный детектор должен не просто выделить текст с признаками ИИ, но и предоставить информацию о том, как именно использовался ИИ: перевел ли пользователь текст с иностранного языка, поправил стилистику или перефразировал чужую работу и сфабриковал результаты, — перечисляет Чехович. — Существующие детекторы этого не умеют».
Что работает в аудитории
Под влиянием ИИ в вузах так или иначе происходит «естественный отбор» форматов преподавания.
Нейросеть плохо справляется именно с теми заданиями, которые требуют живого мышления, отмечает Борис Коробец. По его словам, проектные задачи с реальными стейкхолдерами, разборы кейсов с нестандартным финалом, командные форматы с распределенными ролями — здесь машина помогает, но не заменяет. В ДВФУ весь сквозной проектно-практический трек выстроен на таких заданиях: их невозможно «сдать» через генерацию текста, потому что они измеряют не текст, а решение.
«Университет не пытается бороться с ИИ как с калькулятором нового времени, а совершенствует образование с учетом возможностей технологии, — поясняет ректор. — Ценность смещается: надо не „сдать текст“, а „показать ход мысли, решение, позицию“. Использование нейросетей плохо переживают задания, которые и до ИИ были слабыми: реферативные тексты, компиляции на тему, пересказ теории. ИИ сделал их слабость очевидной для всех».
Машина не способна сдать устный экзамен вместо студента. Публичная защита, рефлексивный отчет о ходе мышления, ответы на вопросы из зала — все это возвращает оценивание туда, где человек незаменим
Ирина Шошина добавляет: когда студент вынужден говорить, а не читать с листа, мозг активируется иначе.
«Реально работают против цифровой амнезии образовательные интервенции, включающие рефлексивные задания, устные презентации в стиле мини-конференций с вопросами и ответами, создание концептуальных схем, задания на рассуждение и интерпретацию», — говорят в СПбГУ.
Некоторые вузы уже применяют так называемый Сократовский протокол. Khan Academy (Khanmigo), OpenAI Study Mode, российский Stepik с ИИ-наставником, диалоговые тренажеры РАНХиГС — все работают по одному принципу: ИИ задает вопросы, а не дает ответы. Это технически реализуемо. Университеты должны требовать именно такого режима от EdTech-партнеров по умолчанию — как условие договора, а не как опцию.
Эффективен и светофор использования ИИ. Система маркирует режим работы для каждого задания: красный — запрещено, желтый — ограниченное использование с обязательной рефлексией, зеленый — разрешено. Например, в НИУ ВШЭ студенты обязаны декларировать факт использования ИИ с указанием разделов и целей — и такая практика уже стала рабочей нормой.
В 2024 году МГПУ официально разрешил использование ИИ при написании выпускных квалификационных работ при условии прозрачности и рефлексии. Университет разработал диалоговых агентов «Аспирант Ушинского» и «Аспирант Выготского», встроенных в логику отечественной педагогической традиции. В октябре 2025 года конференция «Современная цифровая дидактика» собрала более 1,1 тыс. участников из 57 регионов — рекорд для отраслевых педагогических форумов. Вуз не запретил ИИ и не объявил о тотальном внедрении. Он попытался выстроить регулирование.
Карьерные траектории выпускников тоже корректируются по мере «взросления» нейросетей.
«Работу программистом без опыта сейчас тяжелее найти, потому что джунов отчасти заменил ИИ — простейшие коды он пишет, — отмечает Ольга Мартынова. — Гуманитарии, философы — они как-то пока держатся. В биологии лабораторные работы тоже пока на цифровых двойниках не проведешь — там нужен реальный эксперимент на живых организмах».
Логику распределения задач между человеком и машиной формулирует Борис Коробец:
«ИИ должен брать на себя все, что связано с ускорением рутинной интеллектуальной работы: поиск и первичную агрегацию информации, черновое структурирование, генерацию вариантов, первичную классификацию, выделение типовых ошибок, подготовку аналитических сводок, адаптацию материала под разные уровни сложности. В образовательной среде это огромный резерв. При этом замысел, цели, педагогическое решение, этическая рамка и живое взаимодействие остаются за человеком».
Разрыв засчитан
В профессиональном сообществе убеждены: спустя несколько лет уникальность сохранят вузы, которые смогут четко объяснить, что они дают студенту такого, чего не даст подписка на нейросеть за $20 в месяц.
Доступ к продвинутым ИИ-инструментам стоит денег. Для студента из крупного города — допустимые расходы. Для студента из малого города в регионе с невысокими доходами — существенные. Экономическое неравенство конвертируется в академическое преимущество.
Еще один вызов — это инфраструктурный разрыв между самими вузами. Университет, располагающий собственной языковой моделью, обученной на специализированных данных, отличается от вуза, где студенты пользуются бесплатным чат-ботом. Первый накапливает данные, улучшает модель, выстраивает персонализированные траектории. Второй потребляет чужой продукт с чужими приоритетами.
По оценкам аналитиков, потенциал ИИ для российской экономики исчисляется триллионами рублей к 2030 году. Но этот потенциал реализуется при условии, что образовательная система готовит людей, умеющих с ИИ работать, а не только пользоваться им.
Незаменима не информация, а семинар, где два человека по-настоящему не соглашаются. Лабораторный эксперимент, который пошел не так. Научный руководитель, который говорит «вы неправы, и вот почему» и терпеливо ждет ответа, а не генерирует следующий токен.
Максим из Новосибирска на следующей сессии все же защитил свою курсовую. Готовился неделю. Жаловался в чате, что учеба достала. Получил четверку.
«Ну хоть знаю теперь, как работает мозг», — написал он торжественно в том же чате.