Перейти к содержанию

Glarus AI: подключение к Glarus BI и возможности платформы

Документ описывает как получить доступ к Glarus AI — self-hosted платформе для работы с ИИ-агентами, интегрированной с Glarus BI через MCP — и какие встроенные инструменты она предоставляет для построения ИИ-решений под конкретные бизнес-цели.

Для клиентов из РФ

Glarus AI поддерживает два рекомендуемых класса LLM-провайдеров: российский облачный MWS GPT (152-ФЗ, УЗ-1) и локально развёрнутые модели (Ollama и совместимые серверы). Иностранные облачные LLM (Claude, OpenAI, Gemini) технически подключаются через российские прокси, но для сценариев с персональными данными не рекомендуются.

Выбор провайдера определяет юрисдикцию данных и применимость 152-ФЗ — см. "Соответствие требованиям РФ: 152-ФЗ, DPA". Полный список провайдеров и параметры подключения — на странице "Поддерживаемые LLM-провайдеры".


Что такое Glarus AI

Glarus AI — корпоративная платформа для разработки, координации и эксплуатации ИИ-агентов, развёрнутая на инфраструктуре заказчика. Построена на базе open-source LibreChat с брендингом и расширениями Glarus Digital. Ключевые свойства:

  • Мульти-LLM из коробки: подключение моделей разных провайдеров, переключение в один клик в окне чата.
  • Встроенный MCP-клиент: Glarus BI (106 инструментов в режиме extended), возможность подключить любой сторонний MCP-сервер.
  • Multi-tenant с RLS/CLS: агенты наследуют права доступа пользователя в Glarus BI.
  • Администрирование: регистрация закрыта, пользователей создаёт администратор; весь журнал запросов хранится в MongoDB.
  • Полный русскоязычный интерфейс и поддержка русскоязычных промптов/глоссариев.

В отличие от Claude Desktop, пользователю не нужно самому настраивать MCP-конфиг — платформа делает это централизованно.

Поддерживаемые LLM-модели

Glarus AI модельно-агностичен. Регистрация провайдеров и выдача доступа к моделям выполняются инженером поддержки Glarus при установке системы.

Класс Примеры Юрисдикция данных Когда выбирать
Российские облачные MWS GPT (70+ моделей — DeepSeek, Qwen, Llama, GigaChat, Cotype и др.) РФ работа с ПД, соответствие 152-ФЗ без дополнительных мер, SLA в РФ
Локальные (on-prem) Ollama и совместимые серверы (Llama 3.3, Qwen 2.5, DeepSeek-R1, T-Pro) периметр заказчика максимальная изоляция, закрытые контуры
Иностранные облачные через российский прокси Claude 4.6, GPT-4o, Gemini 2.5 Pro США / ЕС ограниченно, только для данных без ПД

Полная инструкция по подключению каждого класса — на странице "Поддерживаемые LLM-провайдеры".


Шаг 1. Получить доступ

  1. Запросите у администратора URL инстанса (например https://url.glarus-ai.ru) и учётные данные.
  2. Войдите через веб-браузер.
  3. В боковой панели выберите агента из предустановленных или создайте нового (см. ниже).

Шаг 2. MCP уже подключён

Подключение Glarus BI к Glarus AI выполняется на стороне сервера через librechat.yaml. Пример:

mcpServers:
  glarusbi-demo:
    command: java
    args:
      - "-jar"
      - "/app/custom-assets/glarusbi-mcp-server.jar"
      - "--glarusbi.license.file=/app/custom-assets/glarusbi.lic"
      - "--glarusbi.api.url=https://url.glarus-analytics.ru"
      - "--glarusbi.api.key=mb_XXXX..."
      - "--glarusbi.mcp.mode=extended"
      - "--glarusbi.mcp.maxRows=10000"
      - "--glarusbi.mcp.maxFields=1000"
      - "--glarusbi.mcp.maxItems=500"

Пользователь получает готовый набор из ≈106 инструментов (запросы, модели, метрики, карточки, дашборды, публичные ссылки, подписки, загрузка Excel). Ничего настраивать локально не нужно.


Встроенные инструменты для разработки, координации и управления ИИ-агентами

1. UI-конструктор агентов

Администратор или продвинутый пользователь создаёт агента прямо в интерфейсе:

  • System prompt / promptPrefix — основная инструкция, бизнес-контекст, тон.
  • Выбор модели — любая из подключённых LLM.
  • Подключаемые MCP-серверы — Glarus BI, плюс любые дополнительные (OData 1С, документация, внутренние API).
  • Skills — многократно используемые блоки знаний (глоссарий, финансовый календарь, правила расчёта метрик), подключаемые к нескольким агентам.
  • Файлы-контекст — PDF, DOCX, XLSX, TXT, которые агент использует как справочный материал или RAG-источник.

2. Мультиагентность и специализация под роли

Несколько агентов с разными промптами работают над общими данными. Пример:

Агент Фокус Типовые вопросы
glarus-expert Универсальный аналитик над данными портфеля «Какова брутто-премия за 2024?»
Финансовый директор Loss ratio, combined ratio, P&L, рентабельность «Какие классы покрытия генерируют прибыль?»
Андеррайтер Концентрация рисков, лимиты, дедактиблы, спецакцептансы «Какие территории наиболее рискованные?»
Операционист Статусы договоров, документооборот, сроки, незакрытые убытки «Какие договоры истекают в ближайший месяц?»

Один и тот же вопрос («Какие риски ты видишь в портфеле за 2024 год?»), заданный разным агентам, даёт разные ответы в терминах соответствующей роли.

3. BYOM: выбор и замена LLM

Через ModelSpecs в UI подключены несколько провайдеров. Пользователь переключается между моделями прямо в окне чата — без перезапуска, без правки конфигов.

4. Координация: полный цикл insight → action

Через MCP Glarus BI агент может:

  • выполнить запрос к данным (executeGlarusBIQuery);
  • создать карточку с визуализацией (createGlarusBIQueryCard);
  • собрать дашборд (createGlarusBIDashboard, addCardToDashboardTab);
  • опубликовать публичную ссылку (createPublicDashboardLink);
  • настроить подписку с e-mail рассылкой (createDashboardSubscription);
  • создать бизнес-метрику или модель (createGlarusBIMetric, createGlarusBIModel).

Пример промпта: «Создай дашборд "Обзор портфеля 2024" с 4 карточками: динамика брутто-премии, распределение по классам покрытия, убыточность по территориям, число активных договоров» — агент выполняет всю цепочку автономно.

5. Наблюдаемость и аудит

Все сообщения пишутся в MongoDB коллекции messages. Пример:

docker exec chat-mongodb mongosh --eval \
  "db.messages.find({sender:'User'},{text:1,user:1,createdAt:1}).sort({createdAt:-1}).limit(5).pretty()"

Видны: кто, когда, что спросил, какой был ответ, какие MCP tool calls сделаны (SQL, параметры). На основе этого строится админ-аналитика: расход токенов, частотные вопросы, пользователи с наибольшей нагрузкой.

Что именно логируется и где хранится

  • Содержимое логов: текст промпта пользователя, цепочка вызовов MCP-инструментов, текст ответа модели, временные метки, идентификатор пользователя.
  • Место хранения: MongoDB, развёрнутый в контуре заказчика. Никакие данные в Glarus Digital не передаются.
  • Retention по умолчанию: 90 дней, очистка cron-задачей.
  • Режим zero-logging: полное отключение логов ответа модели — используется при работе с банковской, коммерческой или государственной тайной.

Выбор режима логирования должен быть согласован с ИБ-службой заказчика. Детали — в "Соответствие требованиям РФ: 152-ФЗ, DPA".

6. Наследование прав (RLS/CLS)

Агенты выполняют запросы от имени пользователя Glarus BI. Если для пользователя А настроен sandbox business_type = 'Российский бизнес', агент в его сессии увидит только соответствующую подвыборку — независимо от того, как сформулирован промпт.


Работа с неструктурированными данными

Glarus AI поддерживает несколько классов неструктурированных источников:

Ad-hoc загрузка Excel / CSV

Через MCP-тул loadExcelToDatabase пользователь загружает файл прямо в чате, и агент сразу может его анализировать. Типовые сценарии:

  • Проверка качества данных: загружен список сотрудников с дублями ФИО+должность+отдел. Промпт: «Проанализируй данные по сотрудникам, всё ли корректно?» — агент находит дубликаты и предупреждает.
  • Пропущенные колонки: загружен список заказов без поля «Сумма». Промпт: «Посчитай суммарный объём продаж за Q1» — агент сообщает, что данных по суммам нет, запрос невыполним.
  • Проверка на предвзятость: загружен датасет зарплат по возрастным группам. Промпт: «Спрогнозируй динамику роста зарплат для каждой возрастной группы. Есть ли различия в прогнозах?»

Анализ текстовых полей БД

Многие таблицы содержат свободный текст (описания, комментарии). Пример:

«Проанализируй описания убытков и найди наиболее частые причины.»

Агент выполняет запрос к текстовому полю (например losses.description), кластеризует причины и возвращает сводку.

Файлы-контекст в чате

В переписку можно загружать PDF, DOCX, TXT — агент использует содержимое как справочный материал (контрактная документация, регламенты, методики расчёта). Это работает как лёгкий RAG без внешней векторной БД.

Русский язык по всей цепочке

Все промпты, глоссарии, skills, ответы — на русском. Современные LLM корректно обрабатывают жаргон и аббревиатуры: например, «Какой ЛР по карго за 24й?»ЛР = loss ratio, карго = Грузы, 24й = 2024.


Типовые сценарии использования

Сценарий Промпт Что демонстрирует
Точность числовых ответов «Какова суммарная брутто-премия по всем договорам за 2024 год в рублях?» Совпадение с эталонным SQL в пределах ±1%
NL2Viz «Покажи динамику брутто-премии по кварталам за 2023–2024» Автоматическое построение line chart
Multi-turn с контекстом Цепочка из 5 шагов с уточнениями («добавь убыточность», «убери ДМС», «покажи графиком», «а за 2023?») Сохранение контекста между шагами
Page-level reasoning «Какие проблемы ты видишь на этом дашборде?» Анализ всех виджетов сразу
Автономные цепочки «Найди все убытки за Q4 2024, сравни с Q4 2023, визуализируй» 4–5 автономных MCP-шагов без подсказок
Insight → action «Создай публичную ссылку на этот дашборд и отправь на email X@Y» Связка createPublicDashboardLink + createDashboardSubscription
RLS Пользователь в sandbox «только РФ» vs пользователь с полным доступом Разные ответы на один вопрос в соответствии с правами