Как вывести EdTech из кризиса: IBLS делает ставку на AI
Разобрались, почему за стремительным ростом EdTech пришло падение и как онлайн-школе удается справляться с кризисом при помощи искусственного интеллекта.

EdTech переживает стагнацию — инвестиции падают, пользователи разочаровываются, а стандартные продукты не показывают прежних результатов.
Сфере пора меняться так же быстро, как меняются и студенты.

В онлайн-школе IBLS смогли внедрить ML-технологии в процесс обучения и запустить серию успешных ML-проектов.
В статье расскажем о них подробнее и обсудим, как эти проекты помогают компаниям справиться с вызовами в стагнирующих рынках. Но обо всем по порядку.

Что не так с EdTech
Когда сфера свернула не туда
88% ML-пилотов не взлетают: первый опыт IBLS
Метод песочницы — ключ к серийному пилотированию
Кейс: автоматическая проверка сочинений
Кейс: генерация контрольных и тестов
Кейс: индивидуальные отчеты по каждому ученику
Планируемые проекты: AI-ассистент и умный учебник
Неудачные проекты
3 главных правила при работе с пилотами
Чек-лист самопроверки для оценки инициативы

Михаил Тринога
Менеджер по продуктовому маркетингу
Основая проблема EdTech вовсе не в технологиях
В погоне за технологичностью и быстрыми победами был упущен фокус на опыт. Сегодняшние ученики привыкли получать персонализированный контент в соцсетях, быструю обратную связь от приложений и нейросетей, а также ожидают, что обучение будет индивидуальным и применимым в жизни.

По данным Digital Education Council за 2024 год, 86% учащихся активно используют AI в повседневных делах, обучении и исследованиях. Так, буквально недавно OpenAI выкатили модуль для самостоятельного обучения: он без промтов работает как полноценный проводник по любой теме.

Люди могут изучать что угодно бесплатно в практически индивидуальном формате. Разве это не повод начать онлайн-школам что-то менять в своем подходе, чтобы оставаться на плаву?

По другую сторону от новых стандартов находятся тьюторы, опыт которых остался неизменным — высокая нагрузка, минимум индивидуального контента и шаблонность во взаимодействии.

Так мы приходим к ключевой проблеме сферы. Она заключается в несоответствии образовательного опыта новым запросам и ожиданиям всех участников процесса: и студента, и преподавателя.

Казалось бы, что это касается только российского рынка, но нет, международные тренды идентичные.
От бума к стагнации: когда что-то пошло не так
EdTech еще недавно был самой быстрорастущей цифровой отраслью. В пандемию он привлек рекордные инвестиции — $21 млрд в 2021 году. Однако уже к 2024 году финансирование рухнуло на 89% — до 2,4 млрд в глобальном венчуре.
Международные венчурные инвестиции в EdTech, 2010-2024. Млрд долларов США
За последний год крупнейшие игроки международного рынка столкнулись с массовыми увольнениями и потерей капитализации. Вот несколько примеров:

Американская компания 2U, которая занималась переупаковкой университетских курсов в онлайн-формат, после покупки edX за $800 млн обанкротилась и потеряла почти всю капитализацию.

Образовательная компания Chegg рухнула с $12 млрд до $230 млн на фоне скандалов со списыванием и оттока пользователей.

Когда-то успешный стартап Byju’s смог вырасти до $22 млрд, но обанкротился из-за неудачных поглощений и конфликта между основателем и инвесторами.

Российский EdTech следует аналогичным путем: 10% год к году — что является самым низким показетелем за последние годы. Идет волна увольнений среди лидирующих игроков (GeekBrains, XYZ), а сама отрасль консолидируется: по итогам 2024 года 10 ключевых игроков контролируют около 55% выручки среди топ-100 компаний.
10 ключевых игроков контролируют около 55% выручки 100 компаний
Проще говоря, и в российском, и в международном сегменте складывается похожая ситуация: модель EdTech устаревает, однако спрос на качественное образование остается и только растет.

Сервисы хоть и становятся технологичнее, но при этом подход большинства EdTech-компаний выглядит устаревшим: они застряли в повторении старой модели «лекция-тест-сертификат», только теперь в онлайн-формате и без фокуса на изменение опыта участников процесса.

Единственный способ вернуть доверие и ценность сферы — внедрение новых инструментов не в интерфейсы, а в сам образовательный процесс. И ML как раз может в этом помочь.

У онлайн-школы IBLS есть такой опыт.
Я исследовал его, чтобы вывести правила успешного использования инструментов искусственного интеллекта в организации образовательного процесса.

Разобраться в теме мне помогли:
руководитель платформы IBLS Сергей Красько;
руководитель IT-отдела Дмитрий Гриневич.

О компании

IBLS (International Blended Learning School) — один из крупнейших игроков российского EdTech-рынка, который обслуживает более 13 000 учеников в 50 странах. Это образовательная экосистема, включающая онлайн-школы, магистратуру, кафедры в МГИМО, медицинский центр и спортивные команды.

Вместе мы разобрались:
  • как не бояться экспериментов;
  • как оценить реальный потенциал AI-проекта, если 88% таких проектов остаются на уровне пилотов;
  • в чем заключается метод песочницы и как он помогает масштабировать инновации;
  • 3 правила, которые помогут эффективнее запускать ML-проекты.

В конце вы найдете конкретные рекомендации, как правильно интегрировать AI в образовательные продукты, какие экономические показатели учитывать и как избежать типичных ошибок, из-за которых проект не выйдет из пилотной версии.
Хотите лучше разобраться в ML?
Следите за нашими материалами!
Первый опыт внедрения ИИ в IBLS: что пошло не так?
Это произошло еще в начале пандемии — до популяризации и доступности больших языковых моделей.
Задачу взяла на себя команда из нескольких специалистов, которые попытались автоматизировать генерацию и проверку экзаменационных тренажеров для подготовки к ЕГЭ.

Команда выбрала четыре предмета и создала что-то вроде маленького завода по производству простых онлайн-тренажеров. Системы автоматически генерировали варианты тестовых заданий и примерные ответы, а затем на базе классических методов NLP и статистических моделей выставляли оценки.
Сервис интегрировали с LMS, чтобы каждая новая группа учащихся сразу получала доступ к тренажерам.

Архитектура решения

  • Генерация заданий: шаблонные конструкции (разбор вариантов КИМ) комбинировались с банком типовых вопросов.
  • Автоматическая проверка: алгоритмы сопоставляли ответы ученика с эталонными, учитывали ключевые слова и простые логические шаблоны.
  • Интерфейс учителя: в консоли методисты могли корректировать правила, добавлять новые шаблоны и следить за качеством выдачи.

Но что-то пошло не так

Сложная поддержка шаблонов
Поддержка пула из нескольких тысяч вопросов и шаблонов требовала постоянной ручной работы методистов. Автоматизация затягивалась, при этом количество учеников только росло.

Низкая гибкость
Алгоритмы плохо работали на нестандартных ответах и почти не понимали их смысл. Из-за этого доля расхождений с экспертными оценками была слишком велика для коммерческого внедрения.

Ресурсная нагрузка.
Для доработки и расширения системы потребовалось бы создавать отдельную ML-команду, а таких ресурсов тогда не было.

В итоге после полугодового пилота IBLS приостановила развитие проекта: было ясно, что без качественных LLM-моделей и серьезных усилий по созданию банка вопросов и ответов масштабирова­ние окажется невыгодным.

Тем не менее этот опыт позволил команде понять, каких процессов, метрик и инфраструктуры требует внедрение ML-инициатив.
Почему 88% AI-пилотов не взлетают
В марте 2025 года IDC совместно с Lenovo провели масштабное исследование трех тысяч IT-руководителей С-уровня на тему ИИ-пилотов.

Оказалось, что только 4 из 33 AI-пилотов доходят до полноценного внедрения. То есть лишь 12% проектов переходят из стадии POC в продакшен.

Большинство AI-проектов застревают в пилотах из-за низкой организационной готовности: неясный ROI, неподготовленные процессы, слабые данные и нехватка внутренней экспертизы.
Что такое метод песочницы и как он помогает запускать серии ML-пилотов
Понимая все ограничения и сложности в работе с пилотами ML-проектов, команда сделала соответствующие выводы.

Чтобы запускать несколько ML-проектов с высокой вероятностью успеха, команда использует особый подход — так называемый метод песочницы. Рассмотрим подробно, как он устроен и какие результаты он принес компании.

Песочница — это подход, в рамках которого инновации сначала разрабатываются и тестируются в изолированном режиме с участием ключевых пользователей конечного продукта.

Обычно при запуске пилоты команды делятся — сначала разработчики (даже если на основе исследований) автономно разрабатывают решение и опосредованно тестируют на пользователях.

Компания сфокусировала внимание сразу на всех участниках процесса: команда пилота была собрана из каждого участника процесса: разработчики вместе с тьюторами и методистами разрабатывали фичи и сразу тестировали их на группе студентов. Это позволило быть всем одном контекте, не разрывать процесс разработки и вндрения, и конечно, за короткий срок проверять большее число гипотез.

Для внедрения ML была понятная задача — улучшить опыт пользователей платформы.
С одной стороны, они решили разгрузить тьюторов и методистов, чтобы те в перспективе могли сконцентрироваться на учениках, которым требуется больше внимания.

С другой — разнообразить опыт обучения: сделать обратную связь глубже, контент — интереснее, а также сфокусироваться на применимости знаний. Говоря про опыт ученика часто мы подразумеваем и опыт родителям, который необходимо учитывать при детском образовании.

Так были запущены следующие проекты.
Модуль для автоматической проверки творческих заданий по гуманитарным дисциплинам
Идея

Можно ли поручить ML автоматически проверять 70–90% работ, снизив таким образом трудозатраты и ускорив обратную связь? Учитывая, что это не тестовые знания с готовыми ответами, а творческие, неструктурированных данные.

По задумке система распознавала рукописный или печатный текст, находила похожие примеры, выставляла баллы по пяти критериям и формировала комментарий, который преподаватель мог принять или поправить.

В пилоте участвовали 12 учителей и 600 учеников. Прототип запускался на корпусе из 35 000 размеченных работ. Для эксперимента были выбраны только два предмета — русский язык и история.

Интерфейс автоматической проверки гуманитарных знаний — вид для учителя
Как это устроено технически

  1. Загрузка работ: ученики загружают сканы или фото в LMS.
  2. OCR: ML-модуль автоматически распознает рукописные и печатные ответы, разбивает их по заданиям.
  3. API-интеграция: LMS формирует JSON-запрос, передает в ML-модуль вопросы и ответы.
  4. Семантический скоринг: на базе LLM Qwen + RAG-базы из 800 млн пар вопросов и ответов система анализирует не только ключевые слова, но и структуру ответа, полноту аргументации, соответствие критериям ФГОС.
  5. Автоматическая оценка: программа возвращает итоговый балл, а также подробный разбор ошибок и рекомендации для ученика.
  6. Интерфейс преподавателя: учитель видит автооценку, может согласиться, откорректировать или отправить работу в «диспут».
  7. Диспуты: если ученик или учитель не согласны с оценкой, работа автоматически попадает в ручную доработку экспертами.
Новые материалы уже готовятся к публикации
Подпишитесь, чтобы не пропустить их.
«Генератор КИМ»: сократили время подготовки заданий с пяти часов до полутора
Контрольно-измерительные материалы (КИМ) — основа системной подготовки учеников. Их нужно много, а еще они требуют регулярного обновления и адаптации под конкретные задачи.
Идея
Собрать «фабрику заданий» — ML-модуль, который генерирует задания по шаблонам и критериям, заданным методистами.

Цель проекта: снизить цикл подготовки min/max на 60–90%.

Требование к фабрике:
  • генерировать КИМы по предмету, теме и уровню сложности;
  • соблюдать структуру, требуемую Министерством образования;
  • обеспечивать вариативность заданий.
Интерфейс "фабрики КИМ" для учителя
Как это устроено технически

1. Запрос от преподавателя. В интерфейсе LMS педагог задает тему, тип задания, сложность.
2. Генерация черновика. LLM (Qwen) генерирует задание, используя:
— методические критерии (структура, уровень сложности),
— собственную RAG-базу, собранную из валидированных КИМов.
3. Вариативность и адаптация. Модель автоматически предлагает 2–3 варианта с разными формулировками и параметрами (например, числовыми значениями в математике).
4. Проверка на соответствие. Система валидирует задания по логике ГОС: формат, структура, критерии оценивания.
5. Редактирование и сохранение. Методист может внести правки, сохранить задание в личную библиотеку или сразу прикрепить к курсу.
Пример вариативной функциональности ИИ-поддержки методиста
Хоть первые версии не прижились — методисты не включались в процесс и не доверяли результатам. Необходимо было уделить внимание доверию между ментором и программой.
После доработки интерфейса, а также добавления пояснений и возможности редактировать, началось активное использование.
Индивидуальные отчеты по прогрессу ученика
Идея
Можно ли воспользоваться накопленной базой тысяч отчетов и типовых кейсов, чтобы научить ML-модуль генерировать подсказки для тьютора при составлении отчета?

Цель проекта: сокращать время подготовки отчета в 3–5 раз и рост персонализации документа.

Трбебование к системе:
  • анализировать текущие оценки ученика, активность на уроках;
  • формировать текст с рекомендациями;
  • допускать редактуру.
Схема интеграции модулей в отчет
Как это устроено технически

1. Сбор данных об ученике. Из LMS выгружаются оценки ученика, прогресс, посещаемость, поведение на уроках. На скрине выше.
2. Предобработка и фильтрация. ML-модуль определяет «тип» ученика по шаблонам поведения и выделяет ключевые особенности.
3. Генерация текста. На основе LLM и обученного корпуса отчетов формируются:
  • индивидуальные характеристики сильных и слабых сторон,
  • рекомендации по учебе,
  • пожелания родителям и наставникам.
4. Участие тьютора. Тьютор получает предварительно сгенерированный текст, может отредактировать его или дополнить. После этого отчет отправляется родителю.
Когда ML берет на себя шаблонную часть и предлагает грамотный черновик, тьютор фокусируется на сути, а не на формулировках. Это обеспечивает масштабируемость, снижает выгорание специалистов и сохраняет главное — персональный подход к каждому ученику.
Генерация тренажеров с помощью AI-ассистента
Идея
Разработать AI-ассистента, который сможет по запросу преподавателя генерировать тренажер по заданной теме.
Учителям и методистам нужно регулярно создавать тематические тренажеры для закрепления материала. Особенно актуально для английского языка, где требуется не только разнообразие, но и немедленная обратная связь.

Цель — не заменить педагога, а ускорить подготовку и повысить вариативность заданий.

Ассистент должен уметь:
— предлагать задания по теме курса,
— давать обратную связь ученику.

Проект пока находится в стадии финального тестирования.
Умный учебник: диалог вместо монолога
MVP уже собран, готовится к тестированию осенью
Идея
Создать учебник-ассистент, который:
  • объясняет тему по запросу ученика,
  • адаптирует объяснение под его уровень,
  • предлагает тренажеры и мини-тесты,
  • работает в текстовом и голосовом интерфейсе.
Цель — превратить учебник в личного репетитора: объясняющего, проверяющего, повторяющего до усвоения. Ожидаемый эффект — рост вовлеченности и качества знаний учеников.

Описание проекта
Решили начать с учебника по английскому. Главная идея — интерактивность: читаешь — спрашиваешь — тестируешься — повторяешь. Взаимодействие идет через чат, сканы и голосовые диалоги.

Проект на стадии MVP, но уже интегрирован с учебным контентом и LMS.
Первый пользовательский цикл — с начала учбеного года, масштабирование — в конце года.

Оценка результатов запланирована после первых месяцев активного использования. Предварительные ниже.
Проекты, которые не взлетели
Однако если вы думаете, что у команды все шло как по маслу — то нет. Случались и неудачные кейсы, которые были заморожены или закрыты на стадии пилота.

Песочница также помогает определить, какому пилоту стоит дать зеленый свет, а кого лучше заморозить.

Детектор вовлеченности учеников
Попробовали анализировать вовлеченность на утренних уроках с помощью ML. Проект остановили из-за слишком долгого цикла обучения модели, высоких трудозатрат и неочевидной бизнес-ценности на текущем этапе.

Прокторинг*
Была попытка создать собственную систему прокторинга с распознаванием лиц.Однако на рынке уже есть соответствующие готовые решения. Доводить пилот до их уровня — сложно и нецелесообразно.
*система онлайн-наблюдения за поведением учеников на тестах, экзаменах и других важных учебных событиях.

Токсичность в чатах
Разрабатывался модуль для мониторинга буллинга и пассивной агрессии среди учеников. Технология оказалась слишком сложной и ее заморозили. Обновят позже на современных моделях.
3 правила успешного пилота
Практика IBLS показывает: ключ к масштабируемому ИИ лежит не в очередной прорывной модели, а в дисциплинированной работе с продуктом.

Работа с живым процессом. Прототип мгновенно ставят «под нагрузку», поэтому через нескольких месяцев уже видно, работает ли решение в боевом режиме и выдерживает ли оно педагога-скептика, родителя-перфекциониста и ученика, который нажмет «Закрыть» при первом удобном случае.

Обратная связь как драйвер процесса. Учителя и методисты исправляют ошибки напрямую с командой — и эти правки тут же уходят в цикл дообучения. В результате модель взрослеет вместе с данными школы, а доверие пользователей растет вместе с точностью предсказаний.

Фокус на задаче. Каждый эксперимент начинается с конкретного узкого места, измеряемого в часах учителя или процентах вовлеченности ученика. Это обязывает команду формулировать четкий, проверяемый KPI, и сразу же привязывает AI-решение к P&L.

Индустрия не испытывает дефицита технологий; она испытывает дефицит практик и подходов, которые превращают эти технологии в ценность.
Возьмем на вооружение: чек-лист по оценке пилота
Чтобы проект не стал очередной красивой презентацией и превратился в реальный рабочий инструмент, компаниям необходимо ответить на несколько ключевых вопросов до старта.
  • Какую именно проблему бизнеса или образовательного процесса решает этот AI-проект?
  • Какие метрики мы будем использовать для оценки его успеха?
  • Есть ли подтвержденный спрос и подтвержденная ценность для учеников и учителей?
  • Понятна ли нам полная стоимость владения и добавленная экономическая ценность проекта?
  • Готова ли организация к внедрению, есть ли специалисты и данные нужного качества?
© АО «Селектел», 2008—2025
Лицензия на телематические услуги № 176267