Даже после настройки модели и улучшения точности команда столкнулась с рядом вызовов — без них не обходится ни одно внедрение ML.
Галлюцинации модели в запросеКоманда заметила, что модель пыталась придумать связи между таблицами, которых в реальности не было. Это выглядело очень правдоподобно — но было неправильно.
Поэтому даже несмотря на высокое качество генерации, модель иногда формировала некорректные SQL-запросы.
Например, обращалась к несуществующим таблицам или строила запросы, не соответствующие бизнес-логике.
Решение: внедрили цепочку проверок- техническая валидация SQL-запроса перед отправкой в базу;
- логическая проверка структуры запроса;
- объяснение reasoning в интерфейсе, чтобы пользователь мог сам оценить ход рассуждений.
Нестабильные API и данныеИногда данные от маркетплейсов могли приходить с задержкой или быть неполными (например, за предыдущий день еще не прогрузились или в системе был какой-то сбой).
Бывало, что система возвращала нулевой результат, и пользователь думал, что это ошибка модели. Хотя проблема была в источнике данных.
Решение: алерты Реализовали автоматические уведомления (алерты), которые сообщают о пустых или частично обновленных данных и предлагают повторить запрос позже.
И самая важная проблема
— недоверие пользователейНа ранних этапах пользователи воспринимали ответы ассистента как черный ящик. Даже правильный результат вызывал сомнения, если для него не было объяснения.
Решение:
СOT В интерфейс добавили пошаговое пояснение логики расчета — Chain-of-Thought. Это резко повысило доверие и вовлеченность. Теперь по модели было понятно как она рассужает.