EP163: 2025년에 사용할 수 있는 12가지 MCP Server
이번 주 system design 복습:
-
APIs Explained in 6 Minutes! (Youtube 영상)
-
2025년에 사용할 수 있는 12가지 MCP Server
-
서비스 배포 방법
-
System Design Topic Map
-
Transformers Architecture는 어떻게 동작하는가?
-
ByteByteGo 채용 중
-
SPONSOR US
2025년에 사용할 수 있는 12가지 MCP Server

MCP (Model Context Protocol)는 AI 모델, 특히 LLM이 외부 데이터 소스, 도구, 서비스와 상호작용하는 방식을 단순화하는 open standard입니다. MCP server는 이러한 AI 모델과 외부 도구 사이의 bridge 역할을 합니다. 주요 MCP server들을 소개합니다:
-
File System MCP Server LLM이 로컬 파일 시스템에 직접 접근하여 파일을 읽고, 쓰고, 디렉토리를 생성할 수 있게 합니다.
-
GitHub MCP Server Claude를 GitHub repository에 연결하여 파일 업데이트, 코드 검색 등을 수행할 수 있게 합니다.
-
Slack MCP Server Slack API를 위한 MCP Server로, Claude가 Slack workspace와 상호작용할 수 있게 합니다.
-
Google Maps MCP Server Google Maps API를 위한 MCP Server입니다.
-
Docker MCP Server Docker와 통합하여 container, image, volume, network를 관리합니다.
-
Brave MCP Server Brave의 Search API를 사용한 웹 검색 및 로컬 검색을 제공합니다.
-
PostgreSQL MCP Server LLM이 데이터베이스 schema를 검사하고 읽기 전용 query를 실행할 수 있게 하는 MCP server입니다.
-
Google Drive MCP Server Google Drive와 통합하여 파일을 읽고 검색할 수 있게 하는 MCP server입니다.
-
Redis MCP Server Redis 데이터베이스에 접근할 수 있게 하는 MCP Server입니다.
-
Notion MCP Server Notion API를 위한 MCP server를 구현한 프로젝트입니다.
-
Stripe MCP Server Stripe API와 상호작용하기 위한 MCP Server입니다.
-
Perplexity MCP Server 실시간 검색을 위해 Perplexity의 Sonar API에 연결하는 MCP Server입니다.
Over to you: 목록에 추가하고 싶은 다른 MCP Server가 있나요?
서비스 배포 방법
서비스를 배포하거나 업그레이드하는 것은 위험을 수반합니다. 이 글에서는 위험 완화 전략을 살펴봅니다.
아래 다이어그램은 일반적인 배포 전략들을 보여줍니다.

Multi-Service Deployment
이 모델에서는 새로운 변경 사항을 여러 서비스에 동시에 배포합니다. 이 방식은 구현하기 쉽습니다. 하지만 모든 서비스가 동시에 업그레이드되기 때문에 dependency를 관리하고 테스트하기 어렵습니다. 또한 안전하게 rollback하기도 어렵습니다.
Blue-Green Deployment
Blue-green deployment에서는 두 개의 동일한 환경을 가집니다: 하나는 staging (blue)이고 다른 하나는 production (green)입니다. Staging 환경은 production보다 한 버전 앞서 있습니다. Staging 환경에서 테스트가 완료되면 사용자 트래픽이 staging 환경으로 전환되고, staging이 production이 됩니다. 이 배포 전략은 rollback을 수행하기 간단하지만, 두 개의 동일한 production 품질의 환경을 유지하는 것은 비용이 많이 들 수 있습니다.
Canary Deployment
Canary deployment는 서비스를 점진적으로 업그레이드하며, 매번 사용자의 일부에게만 적용합니다. Blue-green deployment보다 비용이 저렴하고 rollback을 수행하기 쉽습니다. 하지만 staging 환경이 없기 때문에 production에서 테스트해야 합니다. 점진적으로 더 많은 사용자를 이전 버전에서 이전시키면서 canary를 모니터링해야 하므로 이 프로세스는 더 복잡합니다.
A/B Test
A/B test에서는 서로 다른 버전의 서비스가 production에서 동시에 실행됩니다. 각 버전은 사용자의 일부에 대해 "실험"을 수행합니다. A/B test는 production에서 새 기능을 테스트하는 저렴한 방법입니다. 일부 기능이 실수로 사용자에게 푸시되는 경우에 대비하여 배포 프로세스를 제어해야 합니다.
Over to you - 어떤 배포 전략을 사용해 보셨나요? production에서 배포 관련 장애를 목격한 적이 있나요? 왜 발생했나요?
System Design Topic Map
효과적인 system design은 trade-off의 게임이며, 최선의 결정을 내리기 위해서는 폭넓은 지식 기반이 필요합니다. 이 topic map은 필수적인 system design 주제들을 카테고리별로 분류합니다.

-
Application Layer: availability, scalability, reliability 등의 핵심 개념과 기타 NFR(Non-Functional Requirements)을 다룹니다. 또한 OOP, DDD, Microservices, Clean Architecture, Modular Monoliths 등의 설계 및 아키텍처 주제도 포함합니다.
-
Network & Communication: 통신 프로토콜, 서비스 통합, 메시징, 실시간 통신, event-driven architecture를 다룹니다.
-
Data Layer: 데이터베이스 시스템의 기초(schema design, indexing, SQL vs NoSQL, transaction 등), 다양한 유형의 데이터베이스, 그리고 distributed database의 세부 사항(replication, sharding, leader election 등)을 다룹니다.
-
Scalability & Reliability: scalability 전략(horizontal, stateless, caching, partitioning 등)과 load balancing, rate limiting 등의 reliability 전략을 다룹니다.
-
Security & Observability: 인증 및 인가 기술(OAuth 2, JWT, PASETO, Sessions, Cookies, RBAC 등)과 보안 위협을 다룹니다. Observability 영역은 monitoring, tracing, logging 같은 주제를 다룹니다.
-
Infrastructure & Deployments: CI/CD 파이프라인, containerization 및 orchestration, serverless architecture, IaC, disaster recovery 기술을 다룹니다.
Over to you: 목록에 추가하고 싶은 것이 있나요?
Transformers Architecture는 어떻게 동작하는가?
Transformers Architecture는 GPT, Gemini, Claude, DeepSeek, Llama를 포함한 가장 인기 있는 LLM들의 기반이 되었습니다.

작동 방식은 다음과 같습니다:
-
일반적인 transformer 기반 모델은 encoder와 decoder의 두 가지 주요 부분을 가집니다. Encoder는 입력을 읽고 이해합니다. Decoder는 이 이해를 사용하여 올바른 출력을 생성합니다.
-
첫 번째 단계(Input Embedding)에서 각 단어는 의미를 나타내는 숫자(벡터)로 변환됩니다.
-
다음으로, Positional Encoding이라는 패턴이 모델에게 각 단어가 문장에서 어디에 있는지 알려줍니다. 이는 문장에서 단어 순서가 중요하기 때문입니다. 예를 들어 "고양이가 물고기를 먹었다"는 "물고기가 고양이를 먹었다"와 다릅니다.
-
다음은 Multi-Head Attention으로, encoder의 두뇌입니다. 모델이 모든 단어를 한 번에 보고 어떤 단어가 관련되어 있는지 결정할 수 있게 합니다. Add & Normalize 단계에서 모델은 attention에서 배운 것을 문장에 다시 추가합니다.
-
Feed Forward 프로세스는 이해에 추가적인 깊이를 더합니다. 전체 프로세스가 여러 번 반복되어 모델이 문장을 깊이 이해할 수 있습니다.
-
Encoder가 완료된 후 decoder가 작동을 시작합니다. Output embedding은 예상 출력의 각 단어를 숫자로 변환합니다. 각 단어가 어디에 위치해야 하는지 이해하기 위해 Positional Encoding을 추가합니다.
-
Masked Multi-Head Attention은 미래의 단어를 숨겨서 모델이 한 번에 하나의 단어만 예측하도록 합니다.
-
Multi-Head Attention 단계는 입력의 올바른 부분을 출력의 올바른 부분과 정렬합니다. Decoder는 입력 문장과 지금까지 생성한 단어를 모두 살펴봅니다.
-
Feed Forward는 최종 단어 선택을 더 좋게 만들기 위해 추가 처리를 적용합니다. 결과를 개선하기 위해 프로세스가 여러 번 반복됩니다.
-
Decoder가 각 단어에 대한 숫자를 예측하면, 출력을 준비하기 위해 Linear Layer를 통과합니다. 이 레이어는 decoder의 출력을 가능한 단어들의 큰 집합에 매핑합니다.
-
Linear Layer가 각 단어에 대한 점수를 생성한 후, Softmax 레이어가 이 점수를 확률로 변환합니다. 가장 높은 확률을 가진 단어가 다음 단어로 선택됩니다.
-
마지막으로, 사람이 읽을 수 있는 문장이 생성됩니다.
Over to you: Transformer Architecture를 이해하기 위해 무엇을 더 추가하시겠습니까?
Related Articles
Thank you for reading.