모델 컨텍스트 프로토콜 (MCP, Model Context Protocol)
AI 모델이 외부 도구·데이터 소스에 표준 방식으로 접근하도록 하는 오픈 프로토콜
#MCP#Model Context Protocol#모델 컨텍스트 프로토콜#AI 에이전트#Anthropic#AI 표준
MCP란?
MCP(Model Context Protocol)는 AI 모델이 외부 도구, 파일 시스템, 데이터베이스, API 등에 접근할 수 있도록 연결 방식을 표준화한 오픈 프로토콜입니다. Anthropic이 설계·공개했으며, 누구나 구현해 자신의 AI 애플리케이션에 붙일 수 있습니다.
비유하자면, MCP는 AI 세계의 USB-C에 해당합니다. USB-C 하나로 여러 장치를 연결할 수 있듯, MCP 클라이언트와 서버가 같은 프로토콜을 따르면 어떤 AI 모델이든 어떤 도구든 서로 붙일 수 있습니다.
어떻게 작동하나요?
MCP는 클라이언트-서버 구조로 동작합니다.
- MCP 서버: 특정 도구나 데이터를 외부에 노출하는 측 (예: 깃 저장소 조회 서버, 데이터베이스 쿼리 서버)
- MCP 클라이언트: Claude Desktop, Claude Code, VS Code 확장 등 AI 어시스턴트 쪽 구현체
- 둘은 JSON-RPC 기반 표준 메시지로 통신하며, 서버가 제공하는
tools·resources·prompts를 모델이 사용 가능한 기능으로 노출합니다
즉, 한 번 MCP 서버를 만들어 두면 여러 AI 도구에서 공통으로 쓸 수 있고, 반대로 AI 도구는 서버 하나만 추가해 다양한 기능을 확장할 수 있습니다.
왜 중요한가요?
MCP 이전에는 AI 에이전트마다 도구 연결 방식이 제각각이어서, 같은 기능을 여러 번 구현해야 했습니다. MCP는 이 단절을 표준 규격으로 해소해 생태계 전체의 통합 비용을 낮추고, AI 어시스턴트가 회사 내부 시스템·개인 파일·서드파티 SaaS까지 일관되게 다룰 수 있는 기반을 제공합니다. 에이전트형 AI가 실무에서 확산되려면 이러한 표준 인터페이스가 필수적이며, MCP는 그 중심 후보로 빠르게 채택되고 있습니다.
관련 용어
AI 인프라/모델 최적화
경사하강법 (Gradient Descent)
손실 함수를 최소화하기 위해 기울기 반대 방향으로 파라미터를 반복 업데이트하는 최적화 방법
AI 인프라/모델 최적화
딥러닝 (Deep Learning)
다층 신경망을 이용해 데이터의 복잡한 표현을 자동으로 학습하는 머신러닝 접근
AI 인프라/모델 최적화
레이트 리미팅 (Rate Limiting)
짧은 시간에 과도한 요청이 몰릴 때 API 호출량을 제한하는 제어 기법
AI 인프라/모델 최적화
로봇 파운데이션 모델 (Robot Foundation Model)
대규모 로봇 데이터와 멀티모달 입력으로 사전 학습되어 다양한 물리 작업에 전이 가능한 범용 로봇 AI 모델
AI 인프라/모델 최적화
로컬 AI (Local AI)
모델을 외부 API가 아닌 자체 PC·서버에서 직접 실행하는 방식
AI 인프라/모델 최적화
모델 증류 (Model Distillation)
대형 모델의 출력 신호를 활용해 더 작은 모델을 학습시키는 경량화 기법