금융권의 AI 도입은 아직 초기 단계입니다. LLM 엔진 자체도 현장에 본격 도입되지 않은 상황에서, 설령 도입하더라도 '어떤 업무에, 어떻게 적용할지'에 대한 구체적인 로드맵이 부재합니다. 즉, 엔진과 활용 구조 모두가 비어 있는 상태입니다.
| 문제 | 설명 |
|---|---|
| 범용 툴의 한계 | n8n 등 시중에 나온 툴은 너무 일반적이어서 복잡한 금융 업무 프로세스를 담아내기에 부적합 |
| 막막한 기획 단계 | AI 뱅킹을 만들려 해도 수천 개의 세부 업무 중 무엇을 어디서부터 연동해야 할지 결정하는 데만 수개월 소요 |
| 반복되는 비효율 | 대부분의 은행/보험사는 90% 이상의 표준 업무를 공유함에도 AI 연동 설계를 각자 처음부터 다시 수행 |
| 폐쇄망 환경의 제약 | 금융권 특성상 외부 클라우드 LLM 사용이 불가하여 내부 폐쇄망에 sLLM을 구축해야 하나, sLLM의 한정된 성능을 최대로 끌어내기 위한 구조적 방법론이 부재 |
각 말단 Node에는 업무 설명, Input, Output이 사전 정의되어 있어, AI가 "대출 한도 조회해줘"라는 요청을 받으면 어떤 정보를 수집하고, 어떤 결과를 돌려줘야 하는지 즉시 판단할 수 있습니다. 위 예시는 은행 수신·여신 일부만 표현한 것이며, 실제 금융권 전체 업무 트리는 수천 개의 Node로 구성됩니다.
기존 BPM 솔루션들은 업무 프로세스를 고객이 직접 정의하도록 빈 캔버스를 제공하는 데 그칩니다. 본 솔루션은 금융 도메인별 업무 트리를 이미 확보·구축한 상태로 제공하며, 이 방대한 트리를 체계적으로 갱신·버전관리할 수 있는 직관적인 전용 관리 도구를 함께 제공합니다. 기 정의된 업무 자산과 관리 도구의 완성도가 곧 솔루션의 핵심 경쟁력입니다.
하나의 업무 트리를 정의하면, 어떤 AI-Agent든 동일한 금융 업무를 즉시 호출할 수 있습니다. Plug-in은 고객사별 기간계에 맞춰 커스터마이징 개발하는 영역이며, 연동 전에는 Mock-up으로 즉시 시연이 가능합니다.
고객(금융권)이 어떤 LLM을 선택하든, 그것을 금융 업무에 즉시 활용할 수 있는 구조를 제공합니다.
| 메타데이터 항목 | 설명 |
|---|---|
| 업무 설명 | 해당 Node가 수행하는 업무의 목적과 범위 |
| 입력값 (Input) | AI가 업무를 실행하기 위해 필요한 파라미터 및 데이터 형식 |
| 결과값 (Output) | 업무 수행 후 반환되는 데이터 구조 및 의미 |
| 선후행 관계 | 다른 업무 Node와의 의존성 및 실행 순서 |
이 플랫폼은 금융사가 AI 서비스를 구축할 때 가장 먼저 도입하는 기반 인프라(Entry Point)로 자리잡게 됩니다.
| # | 전략 | 설명 |
|---|---|---|
| 1 | 추상성 제거 | 금융 현업에서 사용하는 '실제 업무 명칭' 그대로 AI에게 명령을 내릴 수 있는 환경 제공 |
| 2 | 선 시연, 후 연동 | 보안 심의·시스템 연동 전에 업무 트리와 가상 데이터만으로 AI 서비스 효용성을 증명하고 의사결정 유도 |
| 3 | sLLM 성능 극대화 | 업무 트리가 명확한 컨텍스트를 사전 제공하므로 sLLM도 정확한 업무 수행 가능 — 모델 성능의 한계를 구조로 극복 |
| 4 | 모델 비종속 | LLM을 활용하는 구조를 제공하므로 어떤 엔진을 선택해도 동일하게 작동 |
| 5 | 확장성 및 유연성 | 표준 트리를 기반으로 각 금융기관 특수성에 맞춰 커스터마이징 자유로움 |
| # | 모델 | 설명 |
|---|---|---|
| 1 | Platform License | 표준 업무 트리 및 MCP 엔진 라이선스 판매 |
| 2 | Subscription | 업무 트리 메타데이터의 지속적 관리·갱신 서비스 (금융 규제 변화, 신상품 출시, 업무 프로세스 변경에 따른 트리 업데이트 포함) |
| 3 | Customization Fee | 표준 트리를 해당 금융사 전용 시스템과 연결하기 위한 기술 지원 및 최적화 서비스 |
본 솔루션을 실제로 구축하기 위해 예상되는 난점과 대응 전략을 정리합니다. #1~#3은 솔루션의 성패를 좌우하는 핵심 난점으로, 전담팀을 구성하여 집중 대응해야 합니다.
| # | 난점 | 대응 전략 |
|---|---|---|
| 1 | 업무 트리 데이터 확보 | 도메인별 대표 금융사 홈페이지를 크롤링하여 업무 목록을 자동 수집하고, 업무 전문가의 검수를 거쳐 정확도를 확보. 은행 → 보험 → 증권 → 카드 → 펀드 순으로 점진적 확장 |
| 2 | 폐쇄망 환경 대응 | RunPod 등 클라우드 GPU 서비스를 활용하여 Qwen, CodeGemma, Llama, Mistral, EXAONE 등 오픈소스 sLLM을 벤치마킹. AI-Agent 구성이 가능한 수준의 추론 능력(Function Calling, 멀티스텝 판단)을 갖춘 모델을 선별하고, 동시접속자 규모별 처리량(TPS)·응답 지연 시간을 실측하여 고객사 환경에 필요한 GPU 서버 대수를 산정. 이를 기반으로 On-premise H/W·S/W 구성을 확정하여 배포. LLM 계층은 Pluggable 구조로 설계하여 고객사 기존 sLLM으로 교체 가능 |
| 3 | 트리 관리 도구 개발 | 웹 기반 트리 에디터로 개발. react-force-graph 등 WebGL 3D 시각화 React 컴포넌트를 활용하여 수천 개 Node를 3D 공간에서 직관적으로 탐색·편집할 수 있는 비주얼을 구현. 메타데이터 편집·버전관리 포함, 솔루션 경쟁력의 핵심 |
| 4 | MCP 표준 구현 | Anthropic 공식 SDK 및 오픈소스 MCP 라이브러리를 활용하여 표준 스펙 준수. 프로토콜 자체는 경량이므로 구현 난이도는 높지 않음 |
| 5 | 금융 도메인 전문성 | 금융권 경력자를 자문단으로 구성하여 트리 설계·검수에 참여. 크롤링으로 1차 수집 후 전문가가 구조화·보완하는 하이브리드 방식 |
| 6 | 고객사 기간계 연동 | Phase 1에서 Mock-up으로 먼저 가치를 증명한 뒤, Phase 2에서 Plug-in 어댑터를 고객사별로 개발. 연동은 커스터마이징 매출로 연결 |
핵심은 트리 데이터 확보 → sLLM 선정 → 관리 도구 완성 → MCP 포장 순서로 진행하되, Phase 1(Mock-up 시연)을 통해 고객 반응을 먼저 확인하고 본격 투자를 결정하는 린(Lean) 전략입니다.
| FEP | 대외 채널, 전문 송수신 |
| MCI | 내부 연계, 라우팅 |
| OpenAPI G/W | API 표준 규격 노출 |
| EIMS | 인터페이스 통합 관리 |
| 업무 트리 관리 | 메타데이터 정의 UI |
| 시각화 도구 | 트리 구조 탐색·편집 |
| MCP 래핑 | 표준 규격으로 노출 |
| Mock-up | 연동 전 즉시 시연 |
엔소프가 해온 "인터페이스 통합 관리"의 연장선입니다.
업무 트리 관리 기능만 얹으면, 타사 대비 훨씬 적은 비용으로 AI 시대의 핵심 플랫폼을 확보할 수 있으며,
기존 MC*CUBE 제품의 신 시장 확보에도 큰 도움이 될 것입니다.