Ваша компания использует генеративный AI в продуктах, проектах и бизнес-процессах? Смело рассказывайте о своем опыте на страницах проекта Generation AI! Правила отбора
Как в ТяжМаш запустили закрытый поиск по 18 000 документов с точностью 80%
ТяжМаш — один из крупнейших российских производителей тяжелого машиностроения. Завод выпускает оборудование для металлургии, энергетики, добывающей промышленности и атомной отрасли.
Задача
Работа ТяжМаш сопровождается огромным массивом регламентов и инструкций. Внутри компании накопились десятки тысяч документов, которые определяют стандарты, правила и процессы для разных подразделений. Доступ к этой информации должен быть быстрым и при этом строго безопасным.
Контекст и вызов
На старте команда имела дело с базой из 18 000 документов в формате .doc. База документов ТяжМаш оказалась не только большой, но и крайне разнородной. Это не простые текстовые файлы: внутри были нормативные акты с юридическим языком, должностные инструкции с таблицами, технологические карты с множеством ссылок и вложений. Многие документы написаны сложным инженерным языком
Поиск по ключевым словам не решал задачу: сотрудники хотели получать конкретные ответы, а не просто длинные списки файлов. Дополнительная сложность — строгий закрытый контур. Все данные должны оставаться внутри Linux-инфраструктуры предприятия и проходить проверки безопасности.
Процесс внедрения
В основе решения оказался Sherpa AI Server — платформа, которая позволяет запускать языковые модели внутри корпоративного периметра. Для ТяжМаш это было критично: ни один документ не выходит за пределы инфраструктуры.
Первым шагом стало обучение модели на корпоративной базе знаний. Несколько месяцев проект оставался в пилоте внутри IT-подразделения. Ответы модели сначала были слишком общими, приходилось несколько раз перестраивать индексацию и дообучать систему.
Затем к пилотной версии подключили рядовых сотрудников — и здесь возникла проблема. Простые запросы давали размытые результаты. Но после того, как команда провела обучение персонала формулировке вопросов, а систему дополнительно настроили под специфику запросов, качество ответов резко выросло.
Уточненные формулировки стали возвращать точную и конкретную информацию.
Результаты
Ключевые метрики использования:
5 запросов в минуту
Средняя нагрузка на сервис
Более 90 млн символов
Текста загружено в индекс
~80%
Текущая оценка качества ответов системы
Чаще всего сотрудники ищут нормативные акты и должностные инструкции, на втором месте — техническая документация. Качество ответов продолжает расти по мере доработки системы и того, как сотрудники осваивают более эффективные способы формулировать запросы.
Вывод
Опыт ТяжМаш показал: LLM-поиск можно внедрять даже там, где требования к безопасности особенно высоки. Но это не разовое внедрение — система требует итерационной настройки и адаптации. Качество ответов зависит не только от самой модели, но и от того, как сотрудники с ней работают. Обучение пользователей оказалось таким же важным фактором, как и выбор инструмента.
Хотите решить похожую задачу? Мы расскажем, с чего начать!