Glarus AI: подключение к Glarus BI и возможности платформы¶
Документ описывает как получить доступ к Glarus AI — self-hosted платформе для работы с ИИ-агентами, интегрированной с Glarus BI через MCP — и какие встроенные инструменты она предоставляет для построения ИИ-решений под конкретные бизнес-цели.
Для клиентов из РФ
Glarus AI поддерживает два рекомендуемых класса LLM-провайдеров: российский облачный MWS GPT (152-ФЗ, УЗ-1) и локально развёрнутые модели (Ollama и совместимые серверы). Иностранные облачные LLM (Claude, OpenAI, Gemini) технически подключаются через российские прокси, но для сценариев с персональными данными не рекомендуются.
Выбор провайдера определяет юрисдикцию данных и применимость 152-ФЗ — см. "Соответствие требованиям РФ: 152-ФЗ, DPA". Полный список провайдеров и параметры подключения — на странице "Поддерживаемые LLM-провайдеры".
Что такое Glarus AI¶
Glarus AI — корпоративная платформа для разработки, координации и эксплуатации ИИ-агентов, развёрнутая на инфраструктуре заказчика. Построена на базе open-source LibreChat с брендингом и расширениями Glarus Digital. Ключевые свойства:
- Мульти-LLM из коробки: подключение моделей разных провайдеров, переключение в один клик в окне чата.
- Встроенный MCP-клиент: Glarus BI (106 инструментов в режиме
extended), возможность подключить любой сторонний MCP-сервер. - Multi-tenant с RLS/CLS: агенты наследуют права доступа пользователя в Glarus BI.
- Администрирование: регистрация закрыта, пользователей создаёт администратор; весь журнал запросов хранится в MongoDB.
- Полный русскоязычный интерфейс и поддержка русскоязычных промптов/глоссариев.
В отличие от Claude Desktop, пользователю не нужно самому настраивать MCP-конфиг — платформа делает это централизованно.
Поддерживаемые LLM-модели¶
Glarus AI модельно-агностичен. Регистрация провайдеров и выдача доступа к моделям выполняются инженером поддержки Glarus при установке системы.
| Класс | Примеры | Юрисдикция данных | Когда выбирать |
|---|---|---|---|
| Российские облачные | MWS GPT (70+ моделей — DeepSeek, Qwen, Llama, GigaChat, Cotype и др.) | РФ | работа с ПД, соответствие 152-ФЗ без дополнительных мер, SLA в РФ |
| Локальные (on-prem) | Ollama и совместимые серверы (Llama 3.3, Qwen 2.5, DeepSeek-R1, T-Pro) | периметр заказчика | максимальная изоляция, закрытые контуры |
| Иностранные облачные через российский прокси | Claude 4.6, GPT-4o, Gemini 2.5 Pro | США / ЕС | ограниченно, только для данных без ПД |
Полная инструкция по подключению каждого класса — на странице "Поддерживаемые LLM-провайдеры".
Шаг 1. Получить доступ¶
- Запросите у администратора URL инстанса (например
https://url.glarus-ai.ru) и учётные данные. - Войдите через веб-браузер.
- В боковой панели выберите агента из предустановленных или создайте нового (см. ниже).
Шаг 2. MCP уже подключён¶
Подключение Glarus BI к Glarus AI выполняется на стороне сервера через librechat.yaml. Пример:
mcpServers:
glarusbi-demo:
command: java
args:
- "-jar"
- "/app/custom-assets/glarusbi-mcp-server.jar"
- "--glarusbi.license.file=/app/custom-assets/glarusbi.lic"
- "--glarusbi.api.url=https://url.glarus-analytics.ru"
- "--glarusbi.api.key=mb_XXXX..."
- "--glarusbi.mcp.mode=extended"
- "--glarusbi.mcp.maxRows=10000"
- "--glarusbi.mcp.maxFields=1000"
- "--glarusbi.mcp.maxItems=500"
Пользователь получает готовый набор из ≈106 инструментов (запросы, модели, метрики, карточки, дашборды, публичные ссылки, подписки, загрузка Excel). Ничего настраивать локально не нужно.
Встроенные инструменты для разработки, координации и управления ИИ-агентами¶
1. UI-конструктор агентов¶
Администратор или продвинутый пользователь создаёт агента прямо в интерфейсе:
- System prompt / promptPrefix — основная инструкция, бизнес-контекст, тон.
- Выбор модели — любая из подключённых LLM.
- Подключаемые MCP-серверы — Glarus BI, плюс любые дополнительные (OData 1С, документация, внутренние API).
- Skills — многократно используемые блоки знаний (глоссарий, финансовый календарь, правила расчёта метрик), подключаемые к нескольким агентам.
- Файлы-контекст — PDF, DOCX, XLSX, TXT, которые агент использует как справочный материал или RAG-источник.
2. Мультиагентность и специализация под роли¶
Несколько агентов с разными промптами работают над общими данными. Пример:
| Агент | Фокус | Типовые вопросы |
|---|---|---|
glarus-expert |
Универсальный аналитик над данными портфеля | «Какова брутто-премия за 2024?» |
Финансовый директор |
Loss ratio, combined ratio, P&L, рентабельность | «Какие классы покрытия генерируют прибыль?» |
Андеррайтер |
Концентрация рисков, лимиты, дедактиблы, спецакцептансы | «Какие территории наиболее рискованные?» |
Операционист |
Статусы договоров, документооборот, сроки, незакрытые убытки | «Какие договоры истекают в ближайший месяц?» |
Один и тот же вопрос («Какие риски ты видишь в портфеле за 2024 год?»), заданный разным агентам, даёт разные ответы в терминах соответствующей роли.
3. BYOM: выбор и замена LLM¶
Через ModelSpecs в UI подключены несколько провайдеров. Пользователь переключается между моделями прямо в окне чата — без перезапуска, без правки конфигов.
4. Координация: полный цикл insight → action¶
Через MCP Glarus BI агент может:
- выполнить запрос к данным (
executeGlarusBIQuery); - создать карточку с визуализацией (
createGlarusBIQueryCard); - собрать дашборд (
createGlarusBIDashboard,addCardToDashboardTab); - опубликовать публичную ссылку (
createPublicDashboardLink); - настроить подписку с e-mail рассылкой (
createDashboardSubscription); - создать бизнес-метрику или модель (
createGlarusBIMetric,createGlarusBIModel).
Пример промпта: «Создай дашборд "Обзор портфеля 2024" с 4 карточками: динамика брутто-премии, распределение по классам покрытия, убыточность по территориям, число активных договоров» — агент выполняет всю цепочку автономно.
5. Наблюдаемость и аудит¶
Все сообщения пишутся в MongoDB коллекции messages. Пример:
docker exec chat-mongodb mongosh --eval \
"db.messages.find({sender:'User'},{text:1,user:1,createdAt:1}).sort({createdAt:-1}).limit(5).pretty()"
Видны: кто, когда, что спросил, какой был ответ, какие MCP tool calls сделаны (SQL, параметры). На основе этого строится админ-аналитика: расход токенов, частотные вопросы, пользователи с наибольшей нагрузкой.
Что именно логируется и где хранится¶
- Содержимое логов: текст промпта пользователя, цепочка вызовов MCP-инструментов, текст ответа модели, временные метки, идентификатор пользователя.
- Место хранения: MongoDB, развёрнутый в контуре заказчика. Никакие данные в Glarus Digital не передаются.
- Retention по умолчанию: 90 дней, очистка cron-задачей.
- Режим zero-logging: полное отключение логов ответа модели — используется при работе с банковской, коммерческой или государственной тайной.
Выбор режима логирования должен быть согласован с ИБ-службой заказчика. Детали — в "Соответствие требованиям РФ: 152-ФЗ, DPA".
6. Наследование прав (RLS/CLS)¶
Агенты выполняют запросы от имени пользователя Glarus BI. Если для пользователя А настроен sandbox business_type = 'Российский бизнес', агент в его сессии увидит только соответствующую подвыборку — независимо от того, как сформулирован промпт.
Работа с неструктурированными данными¶
Glarus AI поддерживает несколько классов неструктурированных источников:
Ad-hoc загрузка Excel / CSV¶
Через MCP-тул loadExcelToDatabase пользователь загружает файл прямо в чате, и агент сразу может его анализировать. Типовые сценарии:
- Проверка качества данных: загружен список сотрудников с дублями ФИО+должность+отдел. Промпт: «Проанализируй данные по сотрудникам, всё ли корректно?» — агент находит дубликаты и предупреждает.
- Пропущенные колонки: загружен список заказов без поля «Сумма». Промпт: «Посчитай суммарный объём продаж за Q1» — агент сообщает, что данных по суммам нет, запрос невыполним.
- Проверка на предвзятость: загружен датасет зарплат по возрастным группам. Промпт: «Спрогнозируй динамику роста зарплат для каждой возрастной группы. Есть ли различия в прогнозах?»
Анализ текстовых полей БД¶
Многие таблицы содержат свободный текст (описания, комментарии). Пример:
«Проанализируй описания убытков и найди наиболее частые причины.»
Агент выполняет запрос к текстовому полю (например losses.description), кластеризует причины и возвращает сводку.
Файлы-контекст в чате¶
В переписку можно загружать PDF, DOCX, TXT — агент использует содержимое как справочный материал (контрактная документация, регламенты, методики расчёта). Это работает как лёгкий RAG без внешней векторной БД.
Русский язык по всей цепочке¶
Все промпты, глоссарии, skills, ответы — на русском. Современные LLM корректно обрабатывают жаргон и аббревиатуры: например, «Какой ЛР по карго за 24й?» → ЛР = loss ratio, карго = Грузы, 24й = 2024.
Типовые сценарии использования¶
| Сценарий | Промпт | Что демонстрирует |
|---|---|---|
| Точность числовых ответов | «Какова суммарная брутто-премия по всем договорам за 2024 год в рублях?» | Совпадение с эталонным SQL в пределах ±1% |
| NL2Viz | «Покажи динамику брутто-премии по кварталам за 2023–2024» | Автоматическое построение line chart |
| Multi-turn с контекстом | Цепочка из 5 шагов с уточнениями («добавь убыточность», «убери ДМС», «покажи графиком», «а за 2023?») | Сохранение контекста между шагами |
| Page-level reasoning | «Какие проблемы ты видишь на этом дашборде?» | Анализ всех виджетов сразу |
| Автономные цепочки | «Найди все убытки за Q4 2024, сравни с Q4 2023, визуализируй» | 4–5 автономных MCP-шагов без подсказок |
| Insight → action | «Создай публичную ссылку на этот дашборд и отправь на email X@Y» | Связка createPublicDashboardLink + createDashboardSubscription |
| RLS | Пользователь в sandbox «только РФ» vs пользователь с полным доступом | Разные ответы на один вопрос в соответствии с правами |