Структурированный опрос
AI ведёт беседу по заранее зафиксированной онтологии — 9 блоков. Не уходит в светскую беседу, а добирает недостающие данные. Эксперт видит покрытие в реальном времени.
Платформа проводит структурированные интервью с предметными экспертами, вытягивает логику процесса через жёсткую JSON-схему, разрешает расхождения и собирает валидированную as‑is модель — с evidence-link под каждым утверждением.
От первого интервью до BPMN-диаграммы. Каждым узлом графа управляет состояние, а не капризы LLM. Переходы повторяемы, предсказуемы и покрываются тестами.
AI ведёт беседу по заранее зафиксированной онтологии — 9 блоков. Не уходит в светскую беседу, а добирает недостающие данные. Эксперт видит покрытие в реальном времени.
Каждую реплику проверяет Pydantic-схема. Evidence-link пришивает факт к конкретной точке транскрипта. LLM предлагает — схема пропускает только валидное. Никаких правдоподобных выдумок.
// schema.step.v2 { "name": "validate_request", "actor": "back_office", "rule": "amount > 500_000", "src": "sess_42#t8:14", "conf": 0.91 }
Марина сказала «утверждает руководитель», Иван — «утверждает CFO». Система выставляет conflict-marker, финальное слово — за process owner. На выходе — BPMN 2.0 с полной историей.
У каждого слоя платформы — собственная зона ответственности. Никаких «обёрток над ChatGPT», никаких скрытых эвристик, никакой магии.
Любой вывод LLM проходит через JSON-схему. Нет схемы — нет ответа. Confidence-score и evidence-link — обязательные атрибуты.
// gate_v2.json · validated ✓ { "type": "decision_gate", "condition": { "field": "amount", "op": ">=", "value": 500000 }, "branches": [ { "true": "tender" }, { "false": "direct" } ], "evidence": "sess_42#t12:03", "confidence": 0.87 }
От любого узла модели можно провалиться прямо в транскрипт. Confidence ∈ [0, 1]. Нет источника — нет утверждения.
Разные эксперты дают разные версии. Платформа не усредняет, а фиксирует расхождение. Снимает его только process owner.
Каждое событие уходит в Kafka. У каждого решения — автор и первоисточник. Историю можно отмотать и переиграть. Потерять — невозможно.
LLM — ассистент внутри узлов графа, а не его автор. Переходы детерминированы и покрываются тестами, как обычный код.
Docker Compose — для небольших команд. Helm chart — для Kubernetes. Один и тот же стек, vendor lock-in исключён.
Никакой проприетарщины. Каждый компонент — проверенный временем open source. Разворачивается в вашем контуре или в нашем облаке.
RBAC в Keycloak срабатывает на каждом эндпойнте. Row-Level Security встроен прямо в БД. Данные тенантов не пересекаются ни при каких условиях.
Безопасность — не опция, а поведение по умолчанию. Изоляция прямо в БД, сквозной аудит, переносимое развёртывание.
Keycloak OIDC, JWT и JWKS-кэш в Redis. RBAC проверяется на каждом эндпойнте.
Row-Level Security внутри PostgreSQL. Тенанты разделены на уровне СУБД, а не только приложения.
Event sourcing поверх Kafka. Хронологию можно перепроиграть. У каждого решения есть автор.
Docker Compose, Helm chart, on-prem или облако — везде один и тот же стек. Без vendor lock-in.
Никаких 40 слайдов. Живой прогон всей платформы: интервью, извлечение, сверка, экспорт в BPMN — на том процессе, который выберете вы.