표준화된 통합 프레임워크를 통해 AI 모델이 외부 데이터 소스 및 도구에 안전하게 접근할 수 있도록 지원합니다.
작성자: Databricks 직원
모델 컨텍스트 프로토콜(MCP)은 AI 애플리케이션이 외부 데이터 소스, 도구, 시스템과 원활하게 연결되도록 하는 공개 표준입니다. 모델 컨텍스트 프로토콜을 AI 시스템용 USB-C 포트라고 생각하면 됩니다. USB-C 포트가 기기가 컴퓨터에 연결되는 방식을 표준화하는 것처럼 MCP는 AI 에이전트가 데이터베이스, APIs, 파일 시스템, 지식 베이스와 같은 외부 리소스에 액세스하는 방식을 표준화합니다.

컨텍스트 프로토콜은 AI 에이전트를 구축하는 데 있어 중요한 과제인 "N×M 통합 문제"를 해결합니다. 표준화된 프로토콜이 없으면 각 AI 애플리케이션이 모든 외부 서비스와 직접 통합되어야 하므로 N×M개의 개별 통합이 생성됩니다. 여기서 N은 도구 수를, M은 클라이언트 수를 나타냅니다. 이러한 접근 방식은 빠르게 확장이 불가능해집니다. 모델 컨텍스트 프로토콜 MCP는 각 클라이언트와 각 MCP 서버가 프로토콜을 한 번만 구현하도록 요구하여 총 통합 수를 N×M에서 N+M으로 줄임으로써 이 문제를 해결합니다.
AI 시스템이 LLM 학습 데이터를 넘어 실시간 데이터에 액세스할 수 있도록 함으로써 MCP는 AI 모델이 초기 학습 단계의 정적 학습 데이터에만 의존하는 대신 정확하고 최신 응답을 제공하도록 돕습니다.
모델 컨텍스트 프로토콜은 개발자가 컨텍스트를 인식하는 AI 애플리케이션을 빌드할 수 있게 해주는 상호 운용성을 위한 오픈 소스 통합 표준입니다. MCP는 LLM 애플리케이션의 배포, 모니터링, 수명 주기 관리를 단순화하는 런타임 통합, 관측성, 거버넌스 제어 기능을 노출하여 LLMOps 를 보완합니다.
AI 애플리케이션은 프롬프트 조절 및 그라운딩 생성을 위해 로컬 리소스, 데이터베이스, 데이터 파이프라인 (스트리밍/배치), 검색 엔진, 계산기, 워크플로와 같은 자산에 액세스해야 합니다. 컨텍스트 프로토콜은 상용구 통합 코드를 줄이는 구조화된 방식을 통해 애플리케이션이 이러한 자산에 연결하는 방법을 표준화합니다.
확장성 문제로 인해 AI 모델(특히 대규모 언어 모델)은 일반적으로 훈련을 위해 기존의 정적 데이터에 의존해야 합니다. 정적 데이터세트로 훈련된 모델은 새로운 정보를 통합하기 위해 추가 업데이트가 필요하므로, 이는 부정확하거나 오래된 응답으로 이어질 수 있습니다. MCP는 확장성을 해결함으로써 AI 애플리케이션이 컨텍스트를 인식하고 정적 훈련 데이터의 한계에 제약받지 않는 최신 결과물을 제공할 수 있도록 합니다.
모델 컨텍스트 프로토콜 MCP는 AI 애플리케이션이 런타임에 외부 도구 및 데이터 소스를 검색하고 상호작용할 수 있는 표준화된 방식을 제공합니다. MCP를 사용하는 AI 에이전트는 각 외부 서비스에 대한 연결을 하드코딩하는 대신, 사용 가능한 도구를 동적으로 검색하고 구조화된 호출을 통해 해당 기능을 파악하며 적절한 도구 권한으로 호출할 수 있습니다.
MCP는 AI 기반 도구가 정보에 액세스하는 방식을 혁신하기 때문에 사용됩니다. 기존 AI 시스템은 학습 데이터에 의해 제한되며, 이 데이터는 빠르게 최신성을 잃습니다. 컨텍스트 프로토콜을 통해 개발자는 단일 표준화 프로토콜만으로 널리 사용되는 엔터프라이즈 시스템, 개발 환경 및 기타 외부 소스의 실시간 데이터를 사용하여 작업을 수행하는 AI 에이전트 를 빌드할 수 있습니다.
이 공개 프로토콜은 상용구 통합 코드도 줄여줍니다. 개발자는 모든 새로운 통합에 대해 맞춤형 커넥터를 작성하는 대신 클라이언트와 서버 측 모두에 MCP를 한 번만 구현합니다. 이 접근 방식은 다양한 컨텍스트에서 여러 도구를 자율적으로 발견하고 사용해야 하는 에이전트 AI 시스템에 특히 유용합니다.
기존 API는 유형이 지정된 parameter가 있는 Endpoint를 노출하며, 클라이언트는 API가 변경될 때마다 이를 하드코딩하고 업데이트해야 합니다. APIs는 반환된 데이터의 사용 방법에 대해 최소한의 의미론적 가이드만 제공하므로 컨텍스트 스티칭은 클라이언트의 책임이 됩니다. API 요청은 일반적으로 호출 간에 상태나 컨텍스트를 유지하지 않고 간단한 요청-응답 패턴을 따릅니다.
MCP는 기존 APIs와는 다른 접근 방식을 정의합니다. 하드코딩된 엔드포인트 대신 MCP 서버는 런타임에 검색할 수 있는 기계 판독형 기능 표면을 노출합니다. AI 시스템은 사전 정의된 연결에 의존하는 대신 사용 가능한 도구, 리소스, 프롬프트를 쿼리할 수 있습니다. 모델 컨텍스트 프로토콜은 문서, 데이터베이스 행, 파일과 같은 리소스 형태를 표준화하여 직렬화 복잡성을 줄임으로써 AI 모델이 추론에 최적화된 관련 컨텍스트를 수신하도록 합니다.
MCP 구현은 스트리밍 시맨틱을 통해 양방향, 상태 저장 통신을 지원합니다. 이를 통해 MCP 서버는 업데이트 및 진행률 알림을 AI 에이전트의 컨텍스트 루프에 직접 푸시하여 기존 APIs가 기본적으로 제공할 수 없는 다단계 워크플로와 부분적인 결과를 지원할 수 있습니다. 이러한 클라이언트-서버 아키텍처는 에이전틱 시스템에서 더 정교한 도구 사용 패턴을 가능하게 합니다.
검색 증강 생성(RAG) 은 문서를 임베딩으로 변환하고 벡터 데이터베이스에 저장하며, 생성 중에 관련 정보를 검색하여 AI 정확도를 향상시킵니다. 그러나 RAG는 일반적으로 콘텐츠 리포지토리의 색인화된 정적 소스에 의존합니다. 모델 컨텍스트 프로토콜은 실시간 API, 데이터베이스, 스트림에 대한 온디맨드 액세스를 제공하여 최신성이 중요할 때 신뢰할 수 있는 최신 컨텍스트를 반환합니다.
주로 읽기 전용 컨텍스트를 반환하는 RAG와 달리, 컨텍스트 프로토콜은 리소스와 도구를 분리하여 AI 에이전트가 제어된 스키마를 사용하여 외부 시스템에서 데이터를 가져오고 작업을 수행할 수 있도록 합니다. MCP는 RAG가 기본적으로 제공하지 않는 에이전트 워크플로 활성화, 다중 턴 오케스트레이션, 런타임 기능 검색, 다중 테넌트 거버넌스와 같은 더 광범위한 통합 요구 사항을 해결합니다.
MCP는 RAG 구현을 보완할 수 있습니다. 조직은 RAG를 사용하여 상시 콘텐츠를 인덱싱하여 빠르게 검색하는 동시에 모델 컨텍스트 프로토콜을 사용하여 트랜잭션 조회, SQL 쿼리 실행, 라이브 시스템에서 올바른 컨텍스트를 필요로 하는 작업을 수행할 수 있습니다. 이 하이브리드 접근 방식은 속도와 정확성을 모두 제공합니다.
런타임 검색이 가능한 양방향 프로토콜인 모델 컨텍스트 프로토콜은 서로 다른 외부 도구와 데이터를 주소 지정이 가능한 리소스와 호출 가능한 작업으로 변환합니다. 단일 MCP 클라이언트는 파일, 데이터베이스 행, 벡터 스니펫, 라이브 스트림 및 API 엔드포인트를 일관되게 검색할 수 있습니다. 인덱싱된 RAG 캐시와 공존하는 MCP는 신뢰할 수 있는 실시간 조회 및 작업 시맨틱을 제공합니다.
실질적인 결과는 맞춤형 커넥터 감소, 사용자 지정 코드 감소, 더 빠른 통합, 그리고 적절한 오류 처리와 감사 추적 기능을 갖춘 더 안정적인 에이전틱 시스템입니다. AI 어시스턴트를 원격 리소스에 연결하는 이 표준화된 방식은 개발 주기를 가속화하는 동시에 엔터프라이즈 보안 제어를 유지합니다. 널리 사용되는 엔터프라이즈 시스템을 위한 더 많은 MCP 서버 구현이 가능해짐에 따라 MCP 생태계는 이러한 표준화의 이점을 누립니다.
MCP 아키텍처는 영구적인 통신 채널을 통해 연결된 세 가지 주요 역할(MCP 서버, MCP 클라이언트, MCP 호스트)을 중심으로 통합을 구성합니다. 이 클라이언트-서버 아키텍처를 통해 AI 도구는 격리된 요청-응답 상호작용 대신 다단계의 상태 저장 워크플로를 실행할 수 있습니다.
MCP 서버는 표준화된 인터페이스를 통해 데이터와 도구를 노출하며 클라우드, 온프레미스 또는 하이브리드 환경에서 실행될 수 있습니다. 각 서버는 명명된 리소스, 호출 가능한 도구, 프롬프트 및 알림 후크의 기능 표면을 게시합니다. 리소스에는 문서, 데이터베이스 행, 파일, 파이프라인 결과물이 포함될 수 있습니다.
MCP 서버 구현은 JSON-RPC 2.0 메서드와 알림을 사용하고, 장기 실행 작업을 위해 스트리밍을 지원하며, 전송 계층을 통 해 기계가 읽을 수 있는 검색 기능을 제공합니다. 이를 통해 MCP 호스트와 AI 모델은 사용 가능한 도구에 대한 사전 지식 없이도 런타임에 기능을 쿼리할 수 있습니다.
널리 사용되는 MCP 서버 구현은 AI 시스템을 Google Drive, Slack, GitHub, PostgreSQL 데이터베이스와 같은 외부 서비스에 연결합니다. 이 MCP 서버는 표준화된 프로토콜을 통해 일관된 인터페이스를 제공하면서 인증, 데이터 검색, 도구 실행을 처리합니다. MCP 생태계의 각 서버는 여러 클라이언트에 동시에 서비스를 제공할 수 있습니다.
MCP 클라이언트는 호스트 애플리케이션 내의 구성 요소로, 사용자 또는 모델의 의도를 프로토콜 메시지로 변환합니다. 각 클라이언트는 일반적으로 MCP 서버와 일대일 연결을 유지하며 구조화된 방식으로 수명 주기, 인증, 전송 세부 정보를 관리합니다.
MCP 클라이언트는 JSON-RPC를 사용하여 요청을 구조화된 호출로 직렬화하고, 비동기 알림 및 부분 스트림을 처리하며, 통합된 로컬 API를 제공하여 통합 복잡성을 줄입니다. 여러 클라이언트가 동일한 MCP 호스트에서 작동할 수 있으며, 각 클라이언트는 서로 다른 MCP 서버에 동시에 연결됩니다.
이러한 클라이언트를 통해 AI 에이전트는 각 외부 서비스의 구현 세부 정보를 이해하지 않고도 외부 데이터 소스와 상호 작용할 수 있습니다. 클라이언트는 모든 통신 프로토콜, 오류 처리 및 재시도 로직을 자동으로 처리합니다.
MCP 호스트는 MCP 클라이언트와 서버 기능을 조정하는 AI 애플리케이션 레이어를 제공합니다. 예시로는 Claude Desktop, Claude Code, AI 기반 IDEs 및 AI 에이전트가 작동하는 기타 플랫폼이 있습니다. MCP 호스트는 프롬 프트, 대화 상태, 클라이언트 응답을 통합하여 다중 도구 워크플로를 오케스트레이션합니다.
MCP 호스트는 도구를 호출하고, 추가 입력을 요청하고, 알림을 표시할 시점을 결정합니다. 이러한 중앙 집중식 오케스트레이션을 통해 AI 모델은 서비스별 맞춤형 코드 없이 이기종 MCP 서버에서 작동할 수 있으며, 이는 AI 어시스턴트를 다양한 시스템에 연결하는 데 있어 MCP 생태계의 보편적인 상호 운용성 목표를 지원합니다.
모델 컨텍스트 프로토콜의 클라이언트-서버 통신은 전송 계층에서 JSON-RPC 2.0을 사용하는 양방향 메시지 기반 통신입니다. MCP 클라이언트는 메서드를 호출하여 리소스를 가져오거나 도구를 호출하는 반면, MCP 서버는 결과를 반환하고, 부분 출력을 스트리밍하며, 관련 정보가 포함된 알림을 보냅니다.

MCP 서버는 또한 함수 호출 메커니즘을 통해 MCP 호스트에게 옵션을 샘플링하거나 사용자 입력을 유도하도록 요청하여 요청을 시작할 수도 있습니다. 이러한 양방향 기능은 컨텍스트 프로토콜을 기존의 단방향 API 패턴과 구별하는 특징입니다. MCP의 실시간 신뢰성 있는 조회는 추적성을 위한 출처 메타데이터와 함께 적시(just-in-time) 레코드를 제공하여 RAG를 보완합니다.
영구 전송은 메시지 순서를 보존하고 실시간 업데이트를 가능하게 하여, AI 시스템이 중간 결과물을 반복하고 자율 AI 에이전 트를 가능하게 하는 에이전트 루프를 실행하도록 합니다.
MCP 구현은 보안 위협으로부터 보호하기 위해 원격 전송을 위한 전송 계층 보안(TLS), 엄격한 도구 권한, 범위가 지정된 자격 증명을 시행해야 합니다. 이 프로토콜은 주입 공격과 잘못된 형식의 요청을 방지하기 위해 MCP 클라이언트와 서버 모두에서 JSON 스키마 적용을 통한 속도 제한 및 강력한 입력 유효성 검사를 요구합니다.
감사 로깅, 토큰 순환, 최소 권한 부여는 수명이 긴 채널을 관리하는 데 필수적인 요구사항입니다. 이러한 보안 조치는 모델 컨텍스트 프로토콜이 지원하는 검색 가능한 통합 기능을 보존하면서 무단 액세스로부터 보호합니다. 조직은 데이터 보안을 보장하기 위해 수명이 긴 MCP 채널에 대해 전송 중 및 저장 시 암호화, 마스킹, 범위가 지정된 권한을 구현해야 합니다.
MCP를 배포하는 조직에는 대규모 언어 모델, MCP 서버, 연결된 데이터 소스를 호스팅할 수 있는 compute 및 네트워킹 인프라가 필요합니다. 여기에는 클라이언트-서버 아키텍처의 구성 요소 간에 적절한 GPU/CPU 용량, 메모리, 디스크 I/O 및 지연 시간이 짧은 네트워크 경로가 포함됩니다.
클라우드 플랫폼은 모델 인스턴스 및 MCP 서버의 탄력적 확장을 지원해야 합니다. 팀은 동시 스트림과 장기 실행 운영을 위한 자동 확장 정책을 정의해야 합니다. 전송 계층은 임베디드 구성 요소를 위한 로컬 STDIO와 분산 배포를 위한 HTTP/SSE 또는 WebSocket과 같은 원격 스트리밍 채널을 모두 지원해야 합니다.
MCP 작업에는 JSON-RPC 2.0 메시징, 검색 Endpoint, 리소스/도구 스키마 구현이 필요합니다. MCP 서버는 표준 프로토콜을 통해 자신의 기능을 기계가 읽을 수 있는 형식으로 게시해야 합니다. 이를 통해 개발자는 하드코딩된 연결 없이 도구 검색을 지원하는 검색 기반 통합을 구축할 수 있습니다.
오류 처리, 재연결 전략, 백프레셔 관리는 프로덕션 안정성을 위한 중요한 구현 요구 사항입니다. 조직은 측정항목, 추적, 로그를 사용하여 영구 스트림, 메서드 지연 시간, 리소스 사용량에 대한 관측성을 구현해야 합니다. 속도 제한기, 서킷 브레이커, 할당량은 다운스트림 시스템을 과부하로부터 보호합니다.
모델 컨텍스트 프로토콜을 사용하면 AI 모델이 캐시된 임베딩이나 정적 LLM의 학습 데이터에만 의존하지 않고 필요에 따라 라이브 레코드, 파이프라인 출력, API 응답 및 파일을 검색할 수 있습니다. 이는 응답을 현재의 신뢰할 수 있는 데이터 소스에 기반하게 하여 AI 시스템이 잘못된 정보를 생성하는 환각을 줄입니다.
쿼리 시 반환되는 리소스에는 소스 ID 및 타임스탬프와 같은 출처 메타데이터가 포함되어 있어 MCP 호스트가 출처를 기록하고 출력을 추적할 수 있습니다. 이러한 투명성은 규제 산업에서 감사 가능성이 요구되는 작업을 AI 에이전트가 수행할 때 매우 중요합니다. 컨텍스트 프로토콜은 신뢰할 수 있는 외부 시스템에서 관련 컨텍스트를 항상 사용할 수 있도록 보장합니다.
MCP 서버는 표준화된 방식을 통해 리소스, 도구, 프롬프트를 게시하므로 AI 모델은 하드코딩된 엔드포인트 없이 서비스를 발견하고 호출할 수 있습니다. 이 공개 표준은 MCP 서버로부터 서버가 시작하는 도출 및 스트리밍 응답을 지원하여 다단계 추론, 입력 명확화, 부분 결과에 대한 반복을 가능하게 합니다.
도구는 범위가 지정된 도구 권한과 함께 JSON 스키마로 정의된 입/출력을 노출하여 AI 에이전트가 티켓 생성, SQL 쿼리 실행 또는 워크플로 실행과 같은 제어된 작업을 수행할 수 있도록 합니다. 이러한 자율적인 도구 검색, 양방향 상호작용 및 기본 내장 가드레일은 외부 시스템 전반에서 안정적인 에이전틱 AI를 위한 기반을 제공합니다.
모델 컨텍스트 프로토콜(MCP)은 동적 도구 검색 및 작업 프리미티브를 사용하여 시스템 전반에서 인식, 결정, 행동하는 에이전트 워크플로를 명시적으로 지원합니다. 이를 통해 적절한 거버넌스 제어를 유지하면서 자율적으로 작동하는 AI 에이전트를 구축할 수 있습니다.