Multi-LLM Agent 기반 비동기 분산 클러스터로
서비스 수준의 제품 완성도를 목표로 한 고도화 여정
Evolution journey toward production-ready quality
with Multi-LLM Agent based async distributed cluster
Google DeepMind의 World Model 아키텍처를 개발 프로세스에 투영했습니다. 24-노드 분산 클러스터는 Agent가 탐색하고 상호작용하는 '세계(World)'로 기능하며, LLM Agent는 코드베이스 구조와 실시간 Observability 메트릭을 컨텍스트로 주입받아 환경의 현재 상태를 파악하고 다음 행동을 결정합니다. 배포 → 관측 → 피드백의 연속적인 사이클 속에서 Agent의 환경 인식은 점차 정교해지고, 개발자와 클러스터는 함께 진화합니다. This development process is a projection of Google DeepMind's World Model architecture. The 24-node distributed cluster functions as the 'World' that the Agent explores and interacts with, while the LLM Agent receives codebase structure and real-time Observability metrics as context to comprehend the current state and determine subsequent actions. Through the continuous Deploy → Observe → Feedback cycle, the Agent's environmental awareness progressively refines, and both developer and cluster evolve in tandem.
7개 핵심 도메인에서의 설계, 구현, 트러블슈팅 경험을 기록했습니다. Documented design, implementation, and troubleshooting experiences across 7 core domains.
AWS 기반 24-노드 Kubernetes 클러스터를 IaC로 구축하고, DOMA(Domain-Oriented Microservices Architecture) 원칙에 따라 도메인별 노드 격리와 라벨 계층을 설계했습니다. ArgoCD App-of-Apps + Sync Wave로 선언적 배포를 구현하고, Istio Service Mesh로 서비스 간 통신을 표준화했습니다. Built a 24-node Kubernetes cluster on AWS using IaC, designed domain-specific node isolation and label hierarchy following DOMA (Domain-Oriented Microservices Architecture) principles. Implemented declarative deployments with ArgoCD App-of-Apps + Sync Wave, standardized inter-service communication with Istio Service Mesh.
Envoy ext_authz를 활용해 인증/인가 로직을 API 서버에서 분리했습니다. Go 기반 gRPC 서버로 구현하고, Redis Pool 튜닝 → Local Cache + Fanout 브로드캐스트로 2,500 VU 기준 RPS 1,500+ 클러스터 Baseline을 달성했습니다. Separated authentication/authorization logic from API servers using Envoy ext_authz. Implemented with Go-based gRPC server, achieved RPS 1,500+ cluster baseline at 2,500 VU via Redis Pool tuning → Local Cache + Fanout broadcast.
ECK(Elastic Cloud on Kubernetes) 기반 EFK 스택을 구축하고, ECS(Elastic Common Schema)로 구조화된 로깅을 구현했습니다. OpenTelemetry + Jaeger로 분산 트레이싱을 통합하고, Kiali로 서비스 메시를 시각화했습니다. Built EFK stack on ECK (Elastic Cloud on Kubernetes), implemented structured logging with ECS (Elastic Common Schema). Integrated distributed tracing with OpenTelemetry + Jaeger and visualized service mesh with Kiali.
RabbitMQ + Celery 기반 비동기 아키텍처를 설계하고, AI 파이프라인(vision→rule→answer→reward)을 4단계 Celery Chain으로 구현했습니다. 읽기 비중이 높은 API에 한해 Fanout Exchange로 Worker 로컬 캐시 동기화를 구현해 DB 조회를 제거했습니다. Designed async architecture with RabbitMQ + Celery, implemented AI pipeline (vision→rule→answer→reward) as 4-stage Celery Chain. For read-heavy APIs, implemented Worker local cache sync via Fanout Exchange, eliminating DB queries.
Redis Streams(내구성) + Pub/Sub(실시간) + State KV(복구)를 조합한 Event Relay Layer를 설계했습니다. LLM Agent 기반 Scan 파이프라인(Vision→Rule→Answer→Reward)의 실시간 이벤트 전달을 담당합니다. Designed Event Relay Layer combining Redis Streams (durability) + Pub/Sub (realtime) + State KV (recovery). Handles real-time event delivery for LLM Agent-based Scan pipeline (Vision→Rule→Answer→Reward).
Persistence Offloading 패턴으로 Application Layer와 Persistence Layer의 관심사를 철저히 분리했습니다. API 서버는 비즈니스 로직에만 집중하고, DB Write 작업은 전용 Worker Queue로 이관하여 비동기 배치 처리합니다. 이를 통해 응답 지연을 최소화하고, 트랜잭션 병목을 제거해 처리량을 극대화했습니다. Implemented Persistence Offloading pattern to strictly separate Application and Persistence Layer concerns. API servers focus solely on business logic while DB write operations are delegated to dedicated Worker Queues for async batch processing. This minimizes response latency and maximizes throughput by eliminating transaction bottlenecks.
DOMA(Domain-Oriented Microservices Architecture) 원칙에 따라 기존 레거시 코드를 Clean Architecture로 점진적 마이그레이션했습니다. DIP(의존성 역전 원칙)와 Port & Adapter 패턴을 적용하고, 도메인별로 Entity, Use Case, Adapter 계층을 분리했습니다. Incrementally migrated legacy code to Clean Architecture following DOMA (Domain-Oriented Microservices Architecture) principles. Applied DIP and Port & Adapter patterns, separated Entity, Use Case, Adapter layers per domain.
PWA 기반 프론트엔드와 연동되는 24-Node 분산 클러스터 아키텍처입니다. 24-Node distributed cluster architecture integrated with PWA-based frontend.
프로젝트에서 활용한 주요 기술들입니다. Key technologies used in the project.