MCP와 AI 오케스트레이션

AI 오케스트레이션을 통한 조직 내 AI 접근성 확대 전략 3화
시리즈 총 6화
2025.04.28

읽는시간 4

0

■ AI 오케스트레이션에서 ‘모델 콘텍스트 프로토콜(Model Context Protocol, MCP)’은 AI 모델과 데이터 소스 및 도구 간의 상호작용을 표준화하여 조직 내 AI 접근성과 활용성을 크게 향상시키는 핵심 요소로 부상

○ MCP는 LLM이 검색·데이터베이스·연산 등 외부 도구를 상황에 맞게 선택적으로 호출하고 연동할 수 있도록 도와주는 에이전트 인터페이스 프로토콜로, 앤트로픽이 2024년 11월 오픈소스로 공개
 

  • USB-C 포트가 다양한 기기를 하나의 표준 단자로 연결하듯이 LLM과 콘텐츠 저장소, 비즈니스 애플리케이션, 개발 도구 등 여러 시스템을 단일한 방식으로 연결

  • 이처럼 기존의 각기 다른 API 및 플러그인 방식을 통합해 AI 시스템이 필요한 콘텍스트와 데이터를 원활히 얻을 수 있게 함으로써 LLM이 ‘지능형 오케스트레이터’로서 기능할 수 있게 해줌

    - 특히 금융, 법률, 컨설팅과 같이 연속적 해석과 판단이 중요한 도메인¹³에서는 MCP가 없으면 실질적인 자동화가 어려움

    - 복잡한 업무 요청도 AI가 자체적으로 판단하여 최적의 도구를 적절히 조합

  • 기존 LLM API는 단순한 질의응답 구조이기 때문에 콘텍스트 유지가 어렵고 업무 연속성이 낮다는 문제점을 안고 있는데, MCP를 적용하면 마치 업무 도우미처럼 AI가 일관된 콘텍스트로 업무 수행을 보조

    - MCP 개발 전에는 추가 도구를 활용해 콘텍스트 관리를 일부 지원했으나 개발과 유지보수가 어렵다는 단점이 존재

¹³ IT 및 AI 분야에서는 특정 데이터 소스나 모델이 작동하는 환경, 혹은 의료ㆍ금융ㆍ법률과 같은 산업ㆍ업무 분야를 의미하기도 함. 이 경우 해당 데이터의 특성, 분포, 콘텍스트를 포함하는 개념으로 사용됨

○ 사용자가 앤트로픽의 클로드에 휴가 일정과 원하는 지역을 입력하고 사용자의 선호도를 감안해 최적의 여행 일정과 숙소를 검색해 제시해달라고 요청한 경우, MCP를 통한 AI는 3단계로 동작
 

  • [1단계] AI 모델이 공항에서 숙소까지 거리와 예상 소요 시간 확인 등 외부 데이터가 필요함을 인식하고 MCP 클라이언트를 통해 구글 맵과 같은 적절한 MCP 서버에 접근 권한을 요청

  • [2단계] 사용자의 접근 권한 승인을 받아 MCP 표준 형식으로 요청을 전달하면, 서버는 구글 맵과 같은 외부 시스템에서 데이터를 가져와 포맷된 결과를 반환

  • [3단계] AI 모델은 이 정보를 받아 대화 콘텍스트에 통합하고 최종 응답을 생성

MCP를 통한 AI 모델-도구 상호작용 예시

'MCP'를 통한 AI 모델-도구 상호작용 예시를 보여주는 이미지다.

자료: 《MIT 테크놀로지 리뷰(MIT Technology Review)》

○ MCP는 개방성과 실용성이 결합된 기술 설계, 주요 기업의 전략적 선택, 복잡한 업무 환경 수용력이 결합되어 구현되며, AI 연결성 혁명을 이끄는 사실상의 기술 표준(De facto standard)으로 자리매김
 

  • 오픈AI, 마이크로소프트, 구글, 아마존 등이 자체 프로토콜 대신 MCP 도입을 선언하는 등 MCP는 기술적 우위성을 앞세워 주요 AI 기업과 플랫폼에서 채택되고 있음

MCP 채택 기업

주요 기업 채택 사례
마이크로소프트 2025 년 3 월 19 일, 코파일럿 스튜디오(Copilot Studio) 등에서 MCP 지원
오픈 AI 2025 년 3 월 27 일, 자사의 에이전트 SDK 에서 MCP 지원
아마존 2025 년 4 월 2 일, 아마존웹서비스(AWS)에서 MCP 지원 발표
구글 2025 년 4 월 10 일, 제미나이 SDK 에서 MCP 지원 발표
네이버 MCP 지원 예정

자료: 《이데일리》

○ MCP의 핵심 기능은 여러 AI 시스템과 서비스를 중앙에서 통합 관리하며 리소스 할당, 워크플로우 관리, 정책 시행을 조정하는 데 있음
 

  • [콘텍스트 저장 및 공유] 사용자의 입력, 이전 대화 내용, 실행 결과 등 다양한 정보 조각을 구조화된 형태로 저장한 후 호출되는 LLM이나 외부 도구에 해당 콘텍스트를 공유하여 중단 없는 의사결정 흐름을 구현

  • [에이전트 간 콘텍스트 연계] 검색 시스템, 분석 에이전트, 요약 에이전트 등 복수의 AI 에이전트가 순차적으로 호출될 때 단계별 상태 정보를 넘겨받아 콘텍스트를 유지

  • [프롬프트 설계 자동화 및 일관성 확보] 콘텍스트 정보를 기반으로 LLM 프롬프트를 자동 생성하거나 갱신함으로써 사용자 경험의 일관성을 확보

  • [의사결정 흐름 관리] 사용자의 요청에 따라 필요한 AI 에이전트를 자동으로 호출하고 상황에 따라 다르게 흐름을 전환하여 복수의 모델과 시스템 간 실시간 연동 및 조건 기반 분기 실행¹⁴ 자동화를 구현

  • [도구 선택 및 호출] 질의에 따라 검색, 계산, 문서 조회, 모델 실행 등 필요한 외부 기능을 선택적으로 호출

  • [양방향 통신] AI 모델과 데이터 소스 간의 양방향 통신을 통해 지속적으로 연결된 상태에서 정보 교환을 가능하게 함으로써 더 복잡하고 상호작용이 필요한 작업 처리를 지원

¹⁴ 조건에 따라 프로그램의 실행 순서를 변경해 다른 명령을 실행할 수 있게 하는 기능

○ 기존 워크플로우 기반 AI 오케스트레이션이 사전 정의된 순차적 프로세스에 따라 각 AI 시스템이 독립적으로 작동하는 반면, MCP 기반 오케스트레이션은 중앙집중식 제어 엔진이 모든 AI 시스템을 통합 관리하고 실시간으로 리소스와 작업을 조정
 

  • 워크플로우 방식이 정해진 규칙에 따른 제한적 의사결정과 분절된 시스템 관리에 중점을 둔다면, MCP 방식은 상황 인식 기반의 동적 의사결정과 시스템 간 유기적 연계를 통해 보다 높은 효율성과 유연성을 제공

    - 전통적 오케스트레이션의 대표적인 예인 아파치 에어플로우(Apache Airflow)는 배치 작업 오케스트레이션¹⁵으로, 정해진 순서에 따라 명령어를 실행하며 콘텍스트 인식이나 실시간 사용자 요청에 대한 대응은 불가능

    - 또 다른 예로 쿠브플로우 파이프라인(Kubeflow Pipelines)은 AI 모델 학습 및 서빙 워크플로우를 쿠버네티스(Kubernetes)¹⁶ 기반으로 관리하는 오케스트레이션으로, 반복적인 AI 실험에는 적합하나 유저-LLM-도구 상호작용 기반은 아님

전통적 오케스트레이션과의 차이점

구분 전통적 오케스트레이션 MCP 기반 AI 오케스트레이션
중심 대상 데이터 파이프라인·배치 작업 사용자 요청·LLM 중심 워크플로우
흐름 설계 사용자가 명시적으로 구성 사용자 입력을 기반으로 모델이 동적으로 판단
도구 호출 미리 연결된 API 고정 필요에 따라 유연하게 호출
콘텍스트 처리 상태 없음 혹은 배치 단위로 제한적 사용자·세션 중심의 콘텍스트 지속성 유지
상호 작용 없음(자동 스케줄 위주) 인간과 AI 간 실시간 상호작용 가능
확장성 유지보수 비용이 많이 듦 기능 추가 및 연동 용이

자료: KB경영연구소

¹⁵ 여러 배치 작업(일괄 처리 작업)을 조율·예약·실행하고 모니터링하는 프로세스로, 대규모 데이터 처리나 정기적인 시스템 작업이 필요한 기업 환경에서 핵심적 역할을 함

¹⁶ 실행에 필요한 모든 파일을 포함한 전체 실행(runtime) 환경에서 애플리케이션을 패키징하고 격리할 수 있는 기술인 ‘콘테이너’를 활용한 애플리케이션의 배포·확장·관리를 자동화하는 오픈소스 오케스트레이션 플랫폼

최승우

KB경영연구소

최승우

금융용어사전

KB금융그룹의 로고와 KB Think 글자가 함께 기재되어 있습니다. KB Think

이미지