diff --git a/claude/architecture-patterns.md b/claude/architecture-patterns.md
new file mode 100644
index 0000000..4177e80
--- /dev/null
+++ b/claude/architecture-patterns.md
@@ -0,0 +1,169 @@
+# 클라우드 아키텍처패턴선정 가이드
+
+## 개요
+이 가이드는 마이크로서비스 기반 클라우드 시스템을 위한 아키텍처 패턴 선정 방법론을 제공합니다. 체계적인 분석과 정량적 평가를 통해 최적의 패턴을 선정할 수 있습니다.
+
+## 1. 요구사항 분석
+
+### 1.1 유저스토리 분석
+각 서비스별로 기능적/비기능적 요구사항을 명확히 도출합니다.
+
+**기능적 요구사항**:
+- 각 유저스토리에서 요구하는 핵심 기능
+- 서비스 간 데이터 교환 요구사항
+- 비즈니스 로직의 복잡도와 특성
+
+**비기능적 요구사항**:
+- 성능 요구사항 (응답시간, 처리량)
+- 가용성 및 신뢰성 요구사항
+- 확장성 및 유지보수성 요구사항
+- 보안 및 컴플라이언스 요구사항
+
+### 1.2 UI/UX설계 분석
+Wireframe을 통해 사용자 인터랙션 패턴과 데이터 플로우를 파악합니다.
+
+**분석 항목**:
+- 사용자 인터랙션 패턴 (동기/비동기 처리 필요성)
+- 데이터 조회/변경 패턴
+- 화면 간 전환 흐름
+- 실시간 업데이트 요구사항
+
+### 1.3 통합 분석
+유저스토리와 UI/UX 설계를 연계하여 **기술적 도전과제를 식별**합니다.
+
+**도전과제 식별**:
+- 복잡한 비즈니스 트랜잭션
+- 대용량 데이터 처리
+- 실시간 처리 요구사항
+- 외부 시스템 연동 복잡성
+- 서비스 간 의존성 관리
+
+## 2. 패턴 선정
+
+### 2.1 평가 기준
+다음 5가지 기준으로 각 패턴을 정량적으로 평가합니다.
+
+| 기준 | 가중치 | 평가 내용 |
+|------|--------|-----------|
+| **기능 적합성** | 35% | 요구사항을 직접 해결하는 능력 |
+| **성능 효과** | 25% | 응답시간 및 처리량 개선 효과 |
+| **운영 복잡도** | 20% | 구현 및 운영의 용이성 |
+| **확장성** | 15% | 미래 요구사항에 대한 대응력 |
+| **비용 효율성** | 5% | 개발/운영 비용 대비 효과(ROI) |
+
+### 2.2 정량적 평가 방법
+
+**평가 척도**: 1-10점 (10점이 가장 우수)
+
+**패턴별 평가 매트릭스 예시**:
+
+| 패턴 | 기능 적합성
(35%) | 성능 효과
(25%) | 운영 복잡도
(20%) | 확장성
(15%) | 비용 효율성
(5%) | **총점** |
+|------|:---:|:---:|:---:|:---:|:---:|:---:|
+| API Gateway | 8 × 0.35 = 2.8 | 7 × 0.25 = 1.75 | 8 × 0.20 = 1.6 | 9 × 0.15 = 1.35 | 7 × 0.05 = 0.35 | **7.85** |
+| CQRS | 9 × 0.35 = 3.15 | 9 × 0.25 = 2.25 | 5 × 0.20 = 1.0 | 8 × 0.15 = 1.2 | 6 × 0.05 = 0.3 | **7.90** |
+| Event Sourcing | 7 × 0.35 = 2.45 | 8 × 0.25 = 2.0 | 4 × 0.20 = 0.8 | 9 × 0.15 = 1.35 | 5 × 0.05 = 0.25 | **6.85** |
+
+### 2.3 단계별 적용 로드맵
+MVP → 확장 → 고도화 3단계로 구분하여 점진적 적용 계획을 수립합니다.
+
+**Phase 1: MVP (Minimum Viable Product)**
+- 핵심 비즈니스 기능 중심
+- 단순하고 안정적인 패턴 우선
+- 빠른 출시를 위한 최소 기능
+
+**Phase 2: 확장 (Scale-up)**
+- 사용자 증가에 따른 성능 최적화
+- 고급 패턴 도입
+- 모니터링 및 운영 자동화
+
+**Phase 3: 고도화 (Advanced)**
+- 복잡한 비즈니스 요구사항 대응
+- 최신 기술 및 패턴 적용
+- 글로벌 확장 대비
+
+## 3. 문서 작성
+
+### 3.1 구조화된 작성 순서
+1. **요구사항 분석 결과**
+2. **패턴 평가** (평가 매트릭스 포함)
+3. **적용 설계** (Mermaid 다이어그램)
+4. **구현 계획** (Phase별 로드맵)
+
+### 3.2 Mermaid 다이어그램 작성
+서비스 아키텍처와 패턴 적용을 시각적으로 표현합니다.
+
+```mermaid
+graph TB
+ Client[클라이언트] --> Gateway[API Gateway]
+ Gateway --> Auth[인증 서비스]
+ Gateway --> UserSvc[사용자 서비스]
+ Gateway --> OrderSvc[주문 서비스]
+
+ OrderSvc --> EventBus[이벤트 버스]
+ EventBus --> PaymentSvc[결제 서비스]
+ EventBus --> NotificationSvc[알림 서비스]
+
+ UserSvc --> UserDB[(사용자 DB)]
+ OrderSvc --> OrderDB[(주문 DB)]
+ PaymentSvc --> PaymentDB[(결제 DB)]
+```
+
+### 3.3 실용적 내용 포함
+- **코드 예시**: 패턴 구현을 위한 구체적인 코드 스니펫
+- **구현 시 고려사항**: 실제 개발 시 주의할 점
+- **예상 효과**: 정량적 성과 지표 (응답시간 개선, 처리량 증가 등)
+
+## 참고 자료
+- **유저스토리**
+- UI/UX설계서
+- **클라우드아키텍처패턴요약표**
+
+## 결과 파일
+선정된 아키텍처 패턴은 다음과 같이 문서화됩니다:
+
+### 파일명
+design/pattern/architecture-pattern.md
+
+### 필수 포함 내용
+1. **요구사항 분석 결과**
+ - 기능적/비기능적 요구사항 상세 분석
+ - 기술적 도전과제 식별
+
+2. **패턴 선정 매트릭스 (평가표)**
+ - 후보 패턴별 정량적 평가 점수
+ - 선정 근거 및 이유
+
+3. **서비스별 패턴 적용 설계 (Mermaid)**
+ - 전체 아키텍처 구조
+ - 패턴별 적용 영역 표시
+
+4. **Phase별 구현 로드맵**
+ - 단계별 적용 계획
+ - 마일스톤 및 목표 설정
+
+5. **예상 성과 지표**
+ - 성능 개선 예상치
+ - 비용 절감 효과
+ - 개발 생산성 향상
+
+## 체크리스트
+
+작성 완료 후 다음 항목들을 검토하세요:
+
+- [ ] **각 유저스토리가 어떤 패턴으로 해결되는지 명시했는가?**
+- [ ] **패턴 선정 이유를 정량적으로 설명했는가?**
+- [ ] **패턴 간 상호작용과 통합 아키텍처를 표현했는가?**
+- [ ] **구현 우선순위와 단계별 목표가 명확한가?**
+- [ ] **실무자가 바로 활용할 수 있는 수준인가?**
+
+## 작성 시 주의사항
+
+1. **객관적 평가**: 주관적 판단보다는 정량적 데이터 기반 선정
+2. **현실성**: 팀의 기술 수준과 프로젝트 일정을 고려한 실현 가능한 패턴 선정
+3. **확장성**: 현재 요구사항뿐만 아니라 미래 확장성까지 고려
+4. **비용 효율성**: 과도한 엔지니어링 지양, 비즈니스 가치 중심 선정
+5. **문서화**: 선정 과정과 근거를 명확히 문서화하여 후속 의사결정 지원
+
+## 완료 후 mermaid 스크립트 테스트 방법 안내
+- https://mermaid.live/edit 에 접근
+- 스크립트 내용을 붙여넣어 확인
\ No newline at end of file
diff --git a/claude/check-mermaid.ps1 b/claude/check-mermaid.ps1
new file mode 100644
index 0000000..49327a5
--- /dev/null
+++ b/claude/check-mermaid.ps1
@@ -0,0 +1,96 @@
+# Mermaid Syntax Checker using Docker Container
+# Similar to PlantUML checker - keeps container running for better performance
+
+param(
+ [Parameter(Mandatory=$true, Position=0)]
+ [string]$FilePath
+)
+
+# Check if file exists
+if (-not (Test-Path $FilePath)) {
+ Write-Host "Error: File not found: $FilePath" -ForegroundColor Red
+ exit 1
+}
+
+# Get absolute path
+$absolutePath = (Resolve-Path $FilePath).Path
+$fileName = Split-Path $absolutePath -Leaf
+
+Write-Host "`nChecking Mermaid syntax for: $fileName" -ForegroundColor Cyan
+Write-Host ("=" * 60) -ForegroundColor Gray
+
+# Check if mermaid container is running
+$containerRunning = docker ps --filter "name=mermaid-cli" --format "{{.Names}}" 2>$null
+
+if (-not $containerRunning) {
+ Write-Host "Error: Mermaid CLI container is not running." -ForegroundColor Red
+ Write-Host "Please follow the setup instructions in the Mermaid guide to start the container." -ForegroundColor Yellow
+ Write-Host "`nQuick setup commands:" -ForegroundColor Cyan
+ Write-Host ""
+ Write-Host "# 1. Start container with root privileges (port 48080)" -ForegroundColor Green
+ Write-Host "docker run -d --rm --name mermaid-cli -u root -p 48080:8080 --entrypoint sh minlag/mermaid-cli:latest -c `"while true;do sleep 3600; done`"" -ForegroundColor White
+ Write-Host ""
+ Write-Host "# 2. Install Chromium and dependencies" -ForegroundColor Green
+ Write-Host "docker exec mermaid-cli sh -c `"apk add --no-cache chromium chromium-chromedriver nss freetype harfbuzz ca-certificates ttf-freefont`"" -ForegroundColor White
+ Write-Host ""
+ Write-Host "# 3. Create Puppeteer configuration" -ForegroundColor Green
+ Write-Host "docker exec mermaid-cli sh -c `"echo '{```"executablePath```": ```"/usr/bin/chromium-browser```", ```"args```": [```"--no-sandbox```", ```"--disable-setuid-sandbox```", ```"--disable-dev-shm-usage```"]}' > /tmp/puppeteer-config.json`"" -ForegroundColor White
+ Write-Host ""
+ exit 1
+}
+
+# Set Puppeteer configuration file path
+$puppeteerConfigFile = "/tmp/puppeteer-config.json"
+
+# Generate unique temp filename
+$timestamp = Get-Date -Format "yyyyMMddHHmmss"
+$processId = $PID
+$tempFile = "/tmp/mermaid_${timestamp}_${processId}.mmd"
+$outputFile = "/tmp/mermaid_${timestamp}_${processId}.svg"
+
+try {
+ # Copy file to container
+ Write-Host "Copying file to container..." -ForegroundColor Gray
+ docker cp "$absolutePath" "mermaid-cli:$tempFile" 2>&1 | Out-Null
+
+ if ($LASTEXITCODE -ne 0) {
+ Write-Host "Error: Failed to copy file to container" -ForegroundColor Red
+ exit 1
+ }
+
+ # Run syntax check with Puppeteer configuration
+ Write-Host "Running syntax check..." -ForegroundColor Gray
+ $output = docker exec mermaid-cli sh -c "cd /home/mermaidcli && node_modules/.bin/mmdc -i '$tempFile' -o '$outputFile' -p '$puppeteerConfigFile' -q" 2>&1
+ $exitCode = $LASTEXITCODE
+
+ if ($exitCode -eq 0) {
+ Write-Host "`nSuccess: Mermaid syntax is valid!" -ForegroundColor Green
+ } else {
+ Write-Host "`nError: Mermaid syntax validation failed!" -ForegroundColor Red
+ Write-Host "`nError details:" -ForegroundColor Red
+
+ # Parse and display error messages
+ $errorLines = $output -split "`n"
+ foreach ($line in $errorLines) {
+ if ($line -match "Error:|Parse error|Expecting|Syntax error") {
+ Write-Host " $line" -ForegroundColor Red
+ } elseif ($line -match "line \d+|at line") {
+ Write-Host " $line" -ForegroundColor Yellow
+ } elseif ($line.Trim() -ne "") {
+ Write-Host " $line" -ForegroundColor DarkRed
+ }
+ }
+
+ exit 1
+ }
+
+} finally {
+ # Clean up temp files
+ Write-Host "`nCleaning up..." -ForegroundColor Gray
+ docker exec mermaid-cli rm -f "$tempFile" "$outputFile" 2>&1 | Out-Null
+}
+
+Write-Host "`nValidation complete!" -ForegroundColor Cyan
+
+# Note: Container is kept running for subsequent checks
+# To stop: docker stop mermaid-cli && docker rm mermaid-cli
\ No newline at end of file
diff --git a/claude/cloud-design-patterns.md b/claude/cloud-design-patterns.md
new file mode 100644
index 0000000..4e39358
--- /dev/null
+++ b/claude/cloud-design-patterns.md
@@ -0,0 +1,104 @@
+# 클라우드 디자인 패턴 개요
+
+## 전체 분류 현황
+
+총 **42개의 클라우드 디자인 패턴**
+
+- **DB 성능개선**: 1개
+- **읽기 최적화**: 4개
+- **핵심업무 집중**: 6개
+- **안정적 현대화**: 2개
+- **효율적 분산처리**: 13개
+- **안정성**: 6개
+- **보안**: 3개
+- **운영**: 7개
+
+---
+
+## 패턴 목록
+
+### 1. DB 성능개선 (1개)
+
+| No. | 패턴명 | 목적 | 설명 |
+|-----|--------|------|------|
+| 1 | Sharding | 데이터 양 줄이기 | 데이터 저장소를 수평적으로 분할(shard)하여 대규모 데이터 저장 및 접근 시 확장성을 높이는 패턴 |
+
+### 2. 읽기 최적화 (4개)
+
+| No. | 패턴명 | 목적 | 설명 |
+|-----|--------|------|------|
+| 2 | Index Table | NoSQL DB Query 최적화 | 데이터 저장소에서 자주 참조되는 필드에 대한 인덱스를 생성하여 쿼리 성능을 개선하는 패턴 |
+| 3 | Cache-Aside | 성능 향상 및 데이터 일관성 유지 | 데이터 저장소에서 캐시에 데이터를 필요에 따라 로드하여 성능을 개선하고, 캐시와 데이터 저장소 간의 일관성을 유지하는 패턴 |
+| 4 | Materialized View | 쿼리 성능 최적화 | 데이터를 미리 변환하여 준비된 뷰를 생성함으로써 쿼리 성능을 높이고 데이터 추출을 효율화하는 패턴 |
+| 5 | CQRS | 읽기/쓰기 분리 | 데이터 저장소의 읽기와 쓰기 작업을 분리하여 성능, 확장성, 보안성을 높이는 패턴 |
+
+### 3. 핵심업무 집중 (6개)
+
+| No. | 패턴명 | 목적 | 설명 |
+|-----|--------|------|------|
+| 6 | Gateway Offloading | 횡단관심사 분리 | SSL 인증서 관리, 인증, 로깅 등의 공통 기능을 게이트웨이로 분리하여 애플리케이션의 복잡도를 낮추는 패턴 |
+| 7 | Gateway Routing | 라우팅 중앙 처리 | 단일 엔드포인트를 통해 요청을 받아 백엔드 서비스나 인스턴스로 라우팅하는 패턴 |
+| 8 | Gateway Aggregation | 클라이언트 요청 수 줄이기 | 단일 엔드포인트에서 클라이언트 요청을 받아 여러 백엔드 서비스로 분배하고 응답을 취합하는 패턴 |
+| 9 | Backends for Frontends | 프론트엔드 유형별 전용처리 | 특정 프런트엔드에 특화된 백엔드 서비스를 별도로 구축하는 패턴 |
+| 10 | Sidecar | 공통 기능 분리 | 애플리케이션의 일부 컴포넌트를 별도 프로세스나 컨테이너로 분리하여 격리와 확장성을 제공하는 패턴 |
+| 11 | Ambassador | 네트워크 통신의 안정성과 보안 강화 | 클라이언트를 대신해 네트워크 요청을 처리하는 헬퍼 서비스를 생성하는 패턴 |
+
+### 4. 안정적 현대화 (2개)
+
+| No. | 패턴명 | 목적 | 설명 |
+|-----|--------|------|------|
+| 12 | Strangler Fig | 현대화의 위험 최소화와 점진적 전환 | 레거시 시스템을 점진적으로 새로운 애플리케이션 및 서비스로 교체하는 패턴 |
+| 13 | Anti-Corruption Layer | 시스템 간 안정적 인터페이스 | 서로 다른 하위 시스템 간의 의미적 차이를 조정하기 위해 중간 계층을 구현하는 패턴 |
+
+### 5. 효율적 분산처리 (13개)
+
+| No. | 패턴명 | 목적 | 설명 |
+|-----|--------|------|------|
+| 14 | Pipes and Filters | 작업 단계 모듈화로 재사용성과 성능 향상 | 복잡한 작업을 독립적인 단계(필터)로 분리하고 메시지(파이프)로 연결하여 모듈성과 유연성을 높이는 패턴 |
+| 15 | Scheduler Agent Supervisor | 워크플로우의 신뢰성 향상 | 작업 단계를 스케줄러, 에이전트, 감독자로 분리하여 신뢰성과 확장성을 높이는 패턴 |
+| 16 | Leader Election | 분산 작업의 충돌 방지와 안정성 향상 | 분산 시스템에서 여러 작업 인스턴스 중 하나를 리더로 선출하여 조정 역할을 맡기는 패턴 |
+| 17 | Saga | 데이터 일관성 보장 | 각 서비스의 로컬 트랜잭션을 사용하여 분산 트랜잭션의 일관성을 보장하는 패턴 |
+| 18 | Compensating Transaction | 오류 복구로 데이터 일관성 보장 | 분산 트랜잭션에서 실패한 작업을 보상하기 위해 이전 작업을 취소하거나 상쇄하는 트랜잭션을 실행하는 패턴 |
+| 19 | Priority Queue | 중요 작업의 우선 처리 보장 | 메시지의 우선순위에 따라 처리 순서를 조정하는 큐를 사용하는 패턴 |
+| 20 | Queue-Based Load Leveling | 부하의 균등한 분산으로 안정성 확보 | 메시지 큐를 사용하여 작업과 서비스 간의 부하를 균등하게 분산시키는 패턴 |
+| 21 | Sequential Convoy | 처리순서 보장 | 관련 메시지 집합을 순서대로 처리하되 다른 메시지 처리를 차단하지 않도록 하는 패턴 |
+| 22 | Claim Check | 메시지 크기 최소화 및 성능과 보안 향상 | 메시지에서 페이로드를 분리하여 외부 저장소에 저장하고 참조키(클레임 체크)를 사용하는 패턴 |
+| 23 | Publisher-Subscriber | 단일 이벤트 메시지의 복수 서비스 처리 보장 | 다수의 소비자(Consumer)에게 이벤트를 발행하는 패턴 |
+| 24 | Asynchronous Request-Reply | 장시간 처리 작업의 응답시간 단축 | 프런트엔드(클라이언트)와 백엔드 간 비동기로 요청과 응답을 분리하여 응답 시간을 단축하는 패턴 |
+| 25 | Competing Consumers | 병렬처리로 작업 처리 속도 향상 | 동일 메시지 채널에서 여러 소비자가 경쟁적으로 메시지를 처리하여 병렬성을 높이는 패턴 |
+| 26 | Choreography | 중앙집중 처리의 병목현상 방지 | 중앙 조정자 없이 각 서비스가 자율적으로 이벤트를 구독하고 반응하여 전체 워크플로를 수행하는 패턴 |
+
+### 6. 안정성 (6개)
+
+| No. | 패턴명 | 목적 | 설명 |
+|-----|--------|------|------|
+| 27 | Rate Limiting | 요청 폭주 방지로 안정성 유지 | 일정 기간 동안 허용되는 요청 수를 제한하여 과부하를 방지하고 서비스 안정성을 높이는 패턴 |
+| 28 | Throttling | 요청 폭주 방지로 안정성 유지 | 시스템의 부하 상태에 따라 요청 처리량을 동적으로 조절하여 과부하를 방지하는 패턴 |
+| 29 | Bulkhead | 자원풀 격리로 장애 전파 방지 | 애플리케이션 요소를 격리된 풀로 분할하여 하나의 장애가 전체로 전파되는 것을 방지하는 패턴 |
+| 30 | Circuit Breaker | 장애전파 방지 | 장애가 발생한 구성 요소를 빠르게 감지하고 요청 실패를 최소화하는 패턴 |
+| 31 | Retry | 일시적 오류시 처리 보장 | 일시적인 오류에 대해 실패한 요청을 재시도하여 복원력을 높이는 패턴 |
+| 32 | Event Sourcing | 데이터 멱등성 보장과 변경 기록 제공 | 데이터에 대한 모든 변경사항을 이벤트로 저장하고, 이벤트를 재생하여 데이터의 상태를 복원하는 패턴 |
+
+### 7. 보안 (3개)
+
+| No. | 패턴명 | 목적 | 설명 |
+|-----|--------|------|------|
+| 33 | Federated Identity | 사용자 인증 및 관리 효율화 | 인증을 외부 ID 제공자에 위임하여 사용자 관리를 간소화하고 SSO를 구현하는 패턴 |
+| 34 | Gatekeeper | 데이터 접근 제어와 보안 강화 | 신뢰할 수 있는 호스트에 보안 관련 기능을 집중시켜 스토리지나 서비스의 보안을 강화하는 패턴 |
+| 35 | Valet Key | 네트워크 대역폭 감소 | 클라이언트가 특정 리소스에 제한된 직접 접근을 할 수 있도록 토큰을 사용하는 패턴 |
+
+### 8. 운영 (7개)
+
+| No. | 패턴명 | 목적 | 설명 |
+|-----|--------|------|------|
+| 36 | Geodes | 글로벌 서비스 가용성과 성능 최적화 | 백엔드 서비스를 여러 지역에 분산 배치하여 지연 시간을 줄이고 가용성을 높이는 패턴 |
+| 37 | Deployment Stamps | 멀티 테넌트 관리 | 리소스 그룹을 복제하여 작업이나 테넌트 단위로 격리된 운영 환경을 제공하는 패턴 |
+| 38 | Health Endpoint Monitoring | 서비스 가용성 상태 점검 | 애플리케이션의 상태를 모니터링하기 위한 전용 API 엔드포인트를 노출하는 패턴 |
+| 39 | Compute Resource Consolidation | 자원 사용 효율성과 비용 절감 | 여러 작업이나 운영을 단일 컴퓨팅 단위로 통합하여 효율성과 비용을 최적화하는 패턴 |
+| 40 | Static Content Hosting | 정적 자원 제공, 비용절감과 성능 향상 | 정적 콘텐츠를 클라우드 스토리지에 배포하여 클라이언트에 직접 제공함으로써 컴퓨팅 인스턴스 사용을 줄이는 패턴 |
+| 41 | External Configuration Store | 환경설정 중앙관리와 재배포 없이 설정 변경 적용 | 애플리케이션의 설정 정보를 중앙화하여 관리 효율성을 높이고 설정 값 변경 시 재배포 없이 적용하는 패턴 |
+| 42 | Edge Workload Configuration | 엣지컴퓨팅의 효율적 관리 | 장치와 시스템이 혼재된 엣지 환경에서 워크로드 구성을 효율적으로 관리하여 지연 시간 단축과 네트워크 비용 절감을 하는 패턴 |
+
+---
+
+> **참고**: 이 문서는 클라우드 환경에서 자주 사용되는 디자인 패턴들을 체계적으로 분류하여 정리한 것입니다. 각 패턴은 특정 목적과 상황에 맞게 적용될 수 있으며, 실제 구현 시에는 프로젝트의 요구사항과 제약사항을 충분히 고려해야 합니다.
diff --git a/design/pattern/architecture-pattern.md b/design/pattern/architecture-pattern.md
new file mode 100644
index 0000000..36e0593
--- /dev/null
+++ b/design/pattern/architecture-pattern.md
@@ -0,0 +1,1008 @@
+# KT AI 기반 소상공인 이벤트 자동 생성 서비스 - 클라우드 아키텍처 패턴 선정서
+
+**작성일**: 2025-10-21
+**작성자**: System Architect (박영자)
+**버전**: 1.0
+
+---
+
+## 1. 요구사항 분석
+
+### 1.1 마이크로서비스별 기능 및 비기능 요구사항
+
+#### 1.1.1 User 서비스
+**기능 요구사항**:
+- 회원가입/로그인 (JWT 인증)
+- 매장 정보 관리 및 사업자번호 검증
+- KT 인증 시스템 연동
+
+**비기능 요구사항**:
+- 응답시간: 1초 이내
+- 가용성: 99.9%
+- 보안: 개인정보 암호화 (AES-256), HTTPS/TLS
+- 확장성: 1,000 동시 사용자
+
+**기술적 도전과제**:
+- 외부 사업자번호 검증 API 의존성
+- 인증 토큰 관리 및 세션 유지
+- 개인정보 보호 규정 준수
+
+---
+
+#### 1.1.2 Event Planning 서비스
+**기능 요구사항**:
+- AI 기반 업종/지역 트렌드 분석
+- AI 이벤트상품 추천 (Claude API)
+- AI 참여 방법 설계
+- AI 홍보 문구 생성 (GPT-4 API)
+
+**비기능 요구사항**:
+- **응답시간: 10초 이내 (전체 기획 과정)** ⚡
+- AI API 병렬 호출 필수
+- 추첨형/선착순형 이벤트 자동 프로세스 분기
+- 확장성: 100개 동시 이벤트 기획
+
+**기술적 도전과제**:
+- **Claude + GPT-4 API 병렬 호출 및 응답 시간 관리**
+- AI 프롬프트 최적화로 10초 목표 달성
+- 트렌드 데이터베이스 실시간 조회 성능
+- 응답 캐싱 전략
+
+---
+
+#### 1.1.3 Content Generation 서비스
+**기능 요구사항**:
+- AI 이미지 생성 (Stable Diffusion, 3종)
+- AI 영상 제작 (15초)
+- SNS 콘텐츠 자동 생성 (플랫폼별 최적화)
+- QR 포스터 생성
+
+**비기능 요구사항**:
+- **응답시간: 5-8분 이내 (병렬 처리 시)** ⚡
+- 이미지 생성: 2-3분 (Stable Diffusion 특성)
+- 영상 제작: 3-5분 (AI 영상 엔진 특성)
+- GPU 가속 활용
+- 확장성: 50개 동시 콘텐츠 생성
+
+**기술적 도전과제**:
+- **이미지 3종 + 영상 1개 병렬 생성**
+- 진행 상황 실시간 피드백
+- 백그라운드 비동기 처리 필수
+- 품질과 속도 균형 유지
+
+---
+
+#### 1.1.4 Distribution 서비스
+**기능 요구사항**:
+- 다중 채널 배포 (우리동네TV, 링고비즈, 지니TV, Instagram, Naver Blog, Kakao Channel)
+- 네이버 클로바 TTS 연동 (연결음 생성)
+- 배포 실패 시 자동 재시도 (3회)
+
+**비기능 요구사항**:
+- **응답시간: 1분 이내 (전체 배포 과정)** ⚡
+- 채널별 병렬 배포 필수
+- 배포 상태 실시간 업데이트
+- 확장성: 100개 동시 배포
+
+**기술적 도전과제**:
+- **6개 외부 API 병렬 호출 및 통합**
+- API 장애 대응 (Circuit Breaker, Retry)
+- 네이버 클로바 TTS 품질 보장
+- 배포 실패 복구 전략
+
+---
+
+#### 1.1.5 Participation 서비스
+**기능 요구사항**:
+- 이벤트 참여 신청 및 중복 방지
+- 추첨형 자동 추첨 (매장 방문 고객 가산점)
+- 선착순형 쿠폰 소진 시 자동 종료
+- 당첨 알림 발송 (SMS/카카오 알림톡)
+
+**비기능 요구사항**:
+- 응답시간: 1초 이내
+- 1인 1회 참여 보장 (멱등성)
+- 공정한 추첨 알고리즘
+- 확장성: 10,000 동시 참여
+
+**기술적 도전과제**:
+- 중복 참여 방지 (전화번호 기준)
+- 추첨형/선착순형 프로세스 분기
+- 대량 SMS/알림톡 발송
+- 매장 방문 고객 가산점 처리
+
+---
+
+#### 1.1.6 Analytics 서비스
+**기능 요구사항**:
+- 실시간 대시보드 (참여자 수, 노출 수, 매출 증가율)
+- 5분 간격 데이터 수집 및 업데이트
+- 채널별 성과 분석 (Instagram, Naver Blog, Kakao Channel API)
+- ROI 자동 계산
+- 분석 리포트 PDF 생성
+
+**비기능 요구사항**:
+- **데이터 수집 주기: 5분 간격** ⏱
+- 실시간 데이터 시각화
+- 확장성: 100개 이벤트 동시 분석
+
+**기술적 도전과제**:
+- **다중 데이터 소스 통합 (KT API, POS, SNS API)**
+- CQRS 패턴으로 읽기/쓰기 분리
+- 5분 간격 스케줄러 기반 수집
+- 대시보드 실시간 업데이트
+
+---
+
+#### 1.1.7 AI Learning 서비스
+**기능 요구사항**:
+- 이벤트 결과 분석 및 개선안 생성
+- 성공 패턴 학습 및 재활용
+- 다음 이벤트 아이디어 제안 (시즌별)
+
+**비기능 요구사항**:
+- 빅데이터 분석 시스템 연동
+- AI 머신러닝 엔진 API 호출
+- 학습 데이터 누적 및 모델 개선
+- 확장성: 누적 데이터 기반 지속적 학습
+
+**기술적 도전과제**:
+- 성공/실패 패턴 자동 학습
+- 업종별/지역별 데이터 축적
+- 추천 정확도 향상 알고리즘
+- Event Sourcing으로 학습 데이터 추적
+
+---
+
+### 1.2 통합 분석 및 핵심 도전과제
+
+#### 성능 목표 요약
+| 서비스 | 목표 응답시간 | 핵심 최적화 전략 |
+|--------|--------------|------------------|
+| Event Planning | **10초 이내** | AI API 병렬 호출, 응답 캐싱 |
+| Content Generation | **5-8분 이내** | 이미지+영상 병렬 생성, 비동기 처리 |
+| Distribution | **1분 이내** | 6개 채널 병렬 배포 |
+| Analytics | **5분 주기** | CQRS 읽기/쓰기 분리, 스케줄러 수집 |
+
+#### 확장성 요구사항
+- **동시 이벤트 처리**: 최소 100개
+- **AI API 동시 호출**: 최소 50개
+- **배포 API 동시 호출**: 최소 100개
+
+#### 외부 시스템 의존성
+- **KT 채널**: 우리동네TV, 링고비즈, 지니TV
+- **AI API**: Claude, GPT-4, Stable Diffusion
+- **SNS**: Instagram, Naver Blog, Kakao Channel
+- **기타**: 네이버 클로바 TTS, 사업자번호 검증, POS 시스템
+
+---
+
+## 2. 클라우드 아키텍처 패턴 선정
+
+### 2.1 패턴 평가 매트릭스
+
+#### 핵심 패턴 Top 10 정량 평가
+
+| 패턴 | 기능 적합성
(35%) | 성능 효과
(25%) | 운영 복잡도
(20%) | 확장성
(15%) | 비용 효율성
(5%) | **총점** | **우선순위** |
+|------|:---:|:---:|:---:|:---:|:---:|:---:|:---:|
+| **API Gateway** | 10 × 0.35 = 3.5 | 9 × 0.25 = 2.25 | 9 × 0.20 = 1.8 | 9 × 0.15 = 1.35 | 8 × 0.05 = 0.4 | **9.30** | 🥇 1위 |
+| **Async Request-Reply** | 10 × 0.35 = 3.5 | 9 × 0.25 = 2.25 | 7 × 0.20 = 1.4 | 8 × 0.15 = 1.2 | 7 × 0.05 = 0.35 | **8.70** | 🥈 2위 |
+| **Circuit Breaker** | 9 × 0.35 = 3.15 | 7 × 0.25 = 1.75 | 8 × 0.20 = 1.6 | 8 × 0.15 = 1.2 | 8 × 0.05 = 0.4 | **8.10** | 🥉 3위 |
+| **CQRS** | 9 × 0.35 = 3.15 | 9 × 0.25 = 2.25 | 5 × 0.20 = 1.0 | 8 × 0.15 = 1.2 | 6 × 0.05 = 0.3 | **7.90** | 4위 |
+| **Cache-Aside** | 8 × 0.35 = 2.8 | 9 × 0.25 = 2.25 | 9 × 0.20 = 1.8 | 7 × 0.15 = 1.05 | 9 × 0.05 = 0.45 | **8.35** | 5위 |
+| **Event Sourcing** | 9 × 0.35 = 3.15 | 7 × 0.25 = 1.75 | 4 × 0.20 = 0.8 | 9 × 0.15 = 1.35 | 5 × 0.05 = 0.25 | **7.30** | 6위 |
+| **Queue-Based Load Leveling** | 8 × 0.35 = 2.8 | 8 × 0.25 = 2.0 | 7 × 0.20 = 1.4 | 9 × 0.15 = 1.35 | 7 × 0.05 = 0.35 | **7.90** | 7위 |
+| **Retry** | 7 × 0.35 = 2.45 | 6 × 0.25 = 1.5 | 9 × 0.20 = 1.8 | 6 × 0.15 = 0.9 | 9 × 0.05 = 0.45 | **7.10** | 8위 |
+| **Publisher-Subscriber** | 8 × 0.35 = 2.8 | 7 × 0.25 = 1.75 | 6 × 0.20 = 1.2 | 8 × 0.15 = 1.2 | 7 × 0.05 = 0.35 | **7.30** | 9위 |
+| **Choreography** | 7 × 0.35 = 2.45 | 6 × 0.25 = 1.5 | 5 × 0.20 = 1.0 | 8 × 0.15 = 1.2 | 6 × 0.05 = 0.3 | **6.45** | 10위 |
+
+---
+
+### 2.2 선정 패턴 및 적용 전략
+
+#### 🥇 **1. API Gateway** (총점: 9.30) - Phase 1 MVP
+
+**선정 이유**:
+- 단일 진입점으로 7개 마이크로서비스 라우팅
+- 인증/인가 중앙 처리 (JWT 토큰 검증)
+- Rate Limiting으로 100개 동시 이벤트 관리
+- 횡단 관심사 분리 (로깅, 모니터링)
+
+**적용 서비스**: 전체 서비스
+
+**예상 효과**:
+- 클라이언트 요청 단순화 (1개 엔드포인트)
+- 인증 처리 시간 50% 단축
+- 서비스 간 결합도 감소
+
+---
+
+#### 🥈 **2. Async Request-Reply** (총점: 8.70) - Phase 1 MVP
+
+**선정 이유**:
+- **Content Generation 서비스의 5-8분 처리 시간 대응**
+- 이미지/영상 생성 백그라운드 처리
+- 진행 상황 실시간 피드백 (WebSocket/폴링)
+- 클라이언트 블로킹 방지
+
+**적용 서비스**: Content Generation, AI Learning
+
+**예상 효과**:
+- 사용자 대기 시간 체감 80% 감소
+- 시스템 응답성 향상
+- 동시 콘텐츠 생성 50개 처리 가능
+
+**구현 예시**:
+```javascript
+// 클라이언트: 콘텐츠 생성 요청
+const response = await axios.post('/api/content/generate', {
+ eventId: 'evt-001',
+ imageCount: 3
+});
+const jobId = response.data.jobId; // Job ID 발급
+
+// 상태 폴링 (5초 간격)
+const checkStatus = setInterval(async () => {
+ const status = await axios.get(`/api/content/status/${jobId}`);
+ if (status.data.completed) {
+ clearInterval(checkStatus);
+ // 콘텐츠 다운로드
+ }
+}, 5000);
+```
+
+---
+
+#### 🥉 **3. Circuit Breaker** (총점: 8.10) - Phase 1 MVP
+
+**선정 이유**:
+- **6개 외부 API 장애 대응 (KT 채널, AI API, SNS)**
+- Distribution 서비스의 배포 실패 방지
+- API 장애 시 빠른 실패 및 폴백
+- 연쇄 장애 전파 차단
+
+**적용 서비스**: Distribution, Event Planning, Content Generation
+
+**예상 효과**:
+- API 장애 시 응답 시간 95% 단축
+- 시스템 가용성 99.9% 보장
+- 배포 성공률 98% 이상 유지
+
+**구현 예시** (Node.js with opossum):
+```javascript
+const CircuitBreaker = require('opossum');
+
+// 우리동네TV API 호출
+const callWooridongneTV = async (data) => {
+ return axios.post('https://api.wooridongne.kt.com/deploy', data);
+};
+
+const breaker = new CircuitBreaker(callWooridongneTV, {
+ timeout: 15000, // 15초 타임아웃
+ errorThresholdPercentage: 50, // 50% 실패 시 OPEN
+ resetTimeout: 30000 // 30초 후 재시도
+});
+
+breaker.fallback(() => ({ success: false, message: '우리동네TV 배포 실패' }));
+
+// 배포 요청
+const result = await breaker.fire(deployData);
+```
+
+---
+
+#### **4. Cache-Aside** (총점: 8.35) - Phase 1 MVP
+
+**선정 이유**:
+- Event Planning 서비스의 10초 응답 목표 달성
+- 트렌드 데이터베이스 조회 성능 향상
+- AI API 응답 캐싱 (동일 조건 재사용)
+- Redis 활용 고속 캐싱
+
+**적용 서비스**: Event Planning, Analytics
+
+**예상 효과**:
+- 트렌드 분석 응답 시간 70% 단축 (3초 → 0.9초)
+- AI API 호출 횟수 40% 감소
+- 비용 절감 (AI API 사용량 감소)
+
+**구현 예시**:
+```javascript
+// 트렌드 데이터 조회 (캐시 우선)
+const getTrendData = async (industry, region) => {
+ const cacheKey = `trend:${industry}:${region}`;
+
+ // 1. 캐시 조회
+ let data = await redis.get(cacheKey);
+
+ if (data) {
+ return JSON.parse(data); // 캐시 히트
+ }
+
+ // 2. DB 조회
+ data = await db.query('SELECT * FROM trends WHERE industry = ? AND region = ?', [industry, region]);
+
+ // 3. 캐시 저장 (TTL: 1시간)
+ await redis.setex(cacheKey, 3600, JSON.stringify(data));
+
+ return data;
+};
+```
+
+---
+
+#### **5. CQRS** (총점: 7.90) - Phase 2 확장
+
+**선정 이유**:
+- **Analytics 서비스의 읽기/쓰기 분리**
+- 실시간 대시보드 조회 성능 최적화
+- 5분 간격 데이터 수집과 실시간 조회 분리
+- 읽기 전용 DB로 복잡한 집계 쿼리 처리
+
+**적용 서비스**: Analytics
+
+**예상 효과**:
+- 대시보드 조회 속도 80% 향상
+- 쓰기 작업 영향 없이 읽기 확장 가능
+- 복잡한 ROI 계산 성능 개선
+
+**아키텍처**:
+```mermaid
+graph LR
+ Client[클라이언트] --> ReadAPI[읽기 API]
+ Client --> WriteAPI[쓰기 API]
+
+ WriteAPI --> CommandDB[(Command DB
쓰기 전용)]
+ CommandDB --> EventBus[이벤트 버스]
+ EventBus --> ReadDB[(Query DB
읽기 전용)]
+ ReadAPI --> ReadDB
+```
+
+---
+
+#### **6. Event Sourcing** (총점: 7.30) - Phase 3 고도화
+
+**선정 이유**:
+- AI Learning 서비스의 학습 데이터 추적
+- 이벤트 전체 이력 저장 및 재생
+- 감사 추적 (Audit Trail) 요구사항 충족
+- 성공/실패 패턴 분석 정확도 향상
+
+**적용 서비스**: AI Learning, Participation
+
+**예상 효과**:
+- AI 학습 정확도 30% 향상
+- 데이터 멱등성 100% 보장
+- 과거 데이터 재분석 가능
+
+---
+
+#### **7. Queue-Based Load Leveling** (총점: 7.90) - Phase 2 확장
+
+**선정 이유**:
+- Distribution 서비스의 배포 요청 급증 대응
+- 100개 동시 배포 요청 큐잉 처리
+- 백엔드 서비스 부하 평준화
+- 배포 실패 재시도 관리
+
+**적용 서비스**: Distribution, Content Generation
+
+**예상 효과**:
+- 피크 타임 안정성 99.9% 유지
+- 배포 성공률 98% 이상
+- 시스템 과부하 방지
+
+---
+
+#### **8. Retry** (총점: 7.10) - Phase 1 MVP
+
+**선정 이유**:
+- Distribution 서비스의 배포 실패 자동 재시도 (3회)
+- 외부 API 일시적 오류 복구
+- Circuit Breaker와 조합 사용
+
+**적용 서비스**: Distribution, Event Planning
+
+**예상 효과**:
+- 배포 성공률 15% 향상
+- 일시적 네트워크 오류 자동 복구
+
+---
+
+#### **9. Publisher-Subscriber** (총점: 7.30) - Phase 2 확장
+
+**선정 이유**:
+- 이벤트 완료 시 다중 서비스 알림 (Analytics, AI Learning)
+- 서비스 간 결합도 감소
+- 비동기 이벤트 처리
+
+**적용 서비스**: 전체 서비스 (이벤트 기반 통신)
+
+**예상 효과**:
+- 서비스 간 결합도 70% 감소
+- 새로운 서비스 추가 용이성
+
+---
+
+#### **10. Choreography** (총점: 6.45) - Phase 3 고도화
+
+**선정 이유**:
+- Saga 패턴 대안으로 중앙 조정자 없는 워크플로
+- Event Planning → Content Generation → Distribution 자율 조정
+- 확장성 및 유연성 향상
+
+**적용 서비스**: 이벤트 생성 워크플로
+
+**예상 효과**:
+- 워크플로 확장성 향상
+- 중앙 병목 현상 제거
+
+---
+
+## 3. 서비스별 패턴 적용 설계
+
+### 3.1 전체 아키텍처 구조
+
+```mermaid
+graph TB
+ subgraph "클라이언트"
+ Web[웹 애플리케이션]
+ Mobile[모바일 앱]
+ end
+
+ subgraph "API Gateway Layer"
+ Gateway[API Gateway
인증/인가/라우팅/Rate Limiting]
+ end
+
+ subgraph "마이크로서비스"
+ User[User 서비스
회원/매장 관리]
+ Planning[Event Planning 서비스
AI 이벤트 기획
Cache-Aside]
+ Content[Content Generation 서비스
AI 콘텐츠 생성
Async Request-Reply]
+ Dist[Distribution 서비스
다중 채널 배포
Circuit Breaker + Retry]
+ Participation[Participation 서비스
참여/추첨 관리]
+ Analytics[Analytics 서비스
효과 측정
CQRS]
+ AILearn[AI Learning 서비스
학습/개선
Event Sourcing]
+ end
+
+ subgraph "데이터 계층"
+ UserDB[(User DB
PostgreSQL)]
+ PlanningDB[(Planning DB
MongoDB)]
+ ContentDB[(Content DB
MongoDB)]
+ DistDB[(Distribution DB
PostgreSQL)]
+ PartDB[(Participation DB
PostgreSQL)]
+
+ subgraph "CQRS - Analytics"
+ WriteDB[(Command DB
쓰기)]
+ ReadDB[(Query DB
읽기)]
+ end
+
+ EventStore[(Event Store
AI Learning)]
+
+ Cache[(Redis Cache
Cache-Aside)]
+ end
+
+ subgraph "메시지 큐"
+ Queue[RabbitMQ/Kafka
Queue-Based Load Leveling
Pub-Sub]
+ end
+
+ subgraph "외부 시스템"
+ KTAPI[KT 채널 API
우리동네TV/링고비즈/지니TV]
+ AIAPI[AI API
Claude/GPT-4/Stable Diffusion]
+ SNS[SNS API
Instagram/Naver/Kakao]
+ Clova[네이버 클로바 TTS]
+ POS[POS 시스템]
+ end
+
+ Web --> Gateway
+ Mobile --> Gateway
+
+ Gateway --> User
+ Gateway --> Planning
+ Gateway --> Content
+ Gateway --> Dist
+ Gateway --> Participation
+ Gateway --> Analytics
+ Gateway --> AILearn
+
+ User --> UserDB
+ Planning --> PlanningDB
+ Planning --> Cache
+ Content --> ContentDB
+ Content --> Queue
+ Dist --> DistDB
+ Dist --> Queue
+ Participation --> PartDB
+ Analytics --> WriteDB
+ Analytics --> ReadDB
+ WriteDB --> Queue
+ Queue --> ReadDB
+ AILearn --> EventStore
+
+ Planning -->|Circuit Breaker| AIAPI
+ Content -->|Circuit Breaker| AIAPI
+ Dist -->|Circuit Breaker + Retry| KTAPI
+ Dist -->|Circuit Breaker + Retry| SNS
+ Dist -->|Circuit Breaker| Clova
+ Analytics --> KTAPI
+ Analytics --> SNS
+ Analytics --> POS
+
+ Queue -->|Pub-Sub| Analytics
+ Queue -->|Pub-Sub| AILearn
+```
+
+---
+
+### 3.2 Event Planning 서비스 - 10초 응답 최적화
+
+**패턴 적용**:
+- **Cache-Aside**: 트렌드 데이터 캐싱
+- **Circuit Breaker**: Claude + GPT-4 API 장애 대응
+- **병렬 처리**: AI API 동시 호출
+
+**아키텍처**:
+```mermaid
+sequenceDiagram
+ participant Client
+ participant Gateway
+ participant Planning as Event Planning
+ participant Cache as Redis Cache
+ participant DB as Planning DB
+ participant Claude as Claude API
+ participant GPT4 as GPT-4 API
+
+ Client->>Gateway: 이벤트 기획 시작
+ Gateway->>Planning: 기획 요청
+
+ Note over Planning,Cache: Phase 1: 트렌드 분석 (3초 목표)
+ Planning->>Cache: 트렌드 데이터 조회
+ alt 캐시 히트
+ Cache-->>Planning: 캐시 데이터 반환
+ else 캐시 미스
+ Planning->>DB: DB 조회
+ DB-->>Planning: 트렌드 데이터
+ Planning->>Cache: 캐시 저장 (TTL: 1시간)
+ end
+
+ Note over Planning,GPT4: Phase 2: AI 병렬 호출 (7초 목표)
+ par Claude: 이벤트상품 + 참여방법
+ Planning->>Claude: 이벤트상품 추천 요청
+ 참여방법 설계 요청
+ Claude-->>Planning: 추천 결과 (5초)
+ and GPT-4: 홍보문구
+ Planning->>GPT4: 홍보문구 생성 요청
+ GPT4-->>Planning: 홍보문구 (4초)
+ end
+
+ Planning->>DB: 기획안 저장
+ Planning-->>Gateway: 완성된 기획안 (총 10초 이내)
+ Gateway-->>Client: 기획안 제공
+```
+
+**예상 성과**:
+- **총 응답시간: 10초 이내** (목표 달성)
+- 트렌드 분석: 3초 → 0.9초 (캐시 히트 시)
+- AI API 병렬 호출: 9초 → 5초
+
+---
+
+### 3.3 Content Generation 서비스 - 비동기 처리
+
+**패턴 적용**:
+- **Async Request-Reply**: 5-8분 장시간 처리
+- **Queue-Based Load Leveling**: 동시 50개 콘텐츠 생성
+- **Circuit Breaker**: Stable Diffusion API 장애 대응
+
+**아키텍처**:
+```mermaid
+sequenceDiagram
+ participant Client
+ participant Gateway
+ participant Content as Content Generation
+ participant Queue as RabbitMQ
+ participant Worker as Background Worker
+ participant SD as Stable Diffusion
+ participant VideoAI as AI Video Engine
+ participant DB as Content DB
+
+ Client->>Gateway: 콘텐츠 생성 요청
+ Gateway->>Content: 생성 요청
+ Content->>DB: Job 생성 (상태: PENDING)
+ Content->>Queue: 작업 큐잉
+ Content-->>Gateway: Job ID 발급
+ Gateway-->>Client: Job ID 반환
+
+ Note over Client: 클라이언트는 다른 작업 가능
+
+ Queue->>Worker: 작업 할당
+
+ par 이미지 3종 생성 (2-3분)
+ Worker->>SD: 이미지 생성 요청 (3건 병렬)
+ SD-->>Worker: 이미지 3종
+ and 영상 1개 생성 (3-5분)
+ Worker->>VideoAI: 영상 제작 요청
+ VideoAI-->>Worker: 15초 영상
+ end
+
+ Worker->>DB: 콘텐츠 저장 + 상태 업데이트 (COMPLETED)
+
+ loop 상태 확인 (5초 간격)
+ Client->>Gateway: Job 상태 조회
+ Gateway->>Content: 상태 조회
+ Content->>DB: 상태 확인
+ DB-->>Content: 상태 + 진행률
+ Content-->>Gateway: 진행 상황 (예: 60% 완료)
+ Gateway-->>Client: 진행률 표시
+ end
+
+ Client->>Gateway: 최종 상태 조회
+ Gateway->>Content: 상태 조회
+ Content-->>Gateway: COMPLETED + 콘텐츠 URL
+ Gateway-->>Client: 콘텐츠 다운로드
+```
+
+**예상 성과**:
+- **총 처리시간: 5-8분** (목표 달성)
+- 사용자 대기 체감 시간: 8분 → 0초 (비동기)
+- 동시 처리 능력: 50개 콘텐츠
+
+---
+
+### 3.4 Distribution 서비스 - 안정적 배포
+
+**패턴 적용**:
+- **Circuit Breaker**: 6개 외부 API 장애 대응
+- **Retry**: 배포 실패 자동 재시도 (3회)
+- **Queue-Based Load Leveling**: 100개 동시 배포
+
+**아키텍처**:
+```mermaid
+sequenceDiagram
+ participant Client
+ participant Gateway
+ participant Dist as Distribution
+ participant Queue as RabbitMQ
+ participant CB1 as Circuit Breaker
(우리동네TV)
+ participant CB2 as Circuit Breaker
(지니TV)
+ participant CB3 as Circuit Breaker
(Instagram)
+ participant KTAPI as KT API
+ participant SNS as SNS API
+
+ Client->>Gateway: 배포 요청 (6개 채널)
+ Gateway->>Dist: 배포 시작
+ Dist->>Queue: 배포 작업 큐잉
+
+ par 병렬 배포 (1분 목표)
+ Queue->>CB1: 우리동네TV 배포
+ CB1->>KTAPI: API 호출
+ alt API 성공
+ KTAPI-->>CB1: 배포 완료
+ else API 실패
+ KTAPI--xCB1: 오류
+ CB1->>CB1: Retry (최대 3회)
+ alt Retry 성공
+ CB1->>KTAPI: 재시도
+ KTAPI-->>CB1: 배포 완료
+ else Retry 실패
+ CB1-->>Queue: 배포 실패 (OPEN 상태)
+ end
+ end
+ CB1-->>Dist: 결과 반환
+ and
+ Queue->>CB2: 지니TV 배포
+ CB2->>KTAPI: API 호출
+ KTAPI-->>CB2: 배포 완료
+ CB2-->>Dist: 결과 반환
+ and
+ Queue->>CB3: Instagram 배포
+ CB3->>SNS: API 호출
+ SNS-->>CB3: 포스팅 완료
+ CB3-->>Dist: 결과 반환
+ end
+
+ Dist-->>Gateway: 배포 결과 (성공 5/6)
+ Gateway-->>Client: 배포 완료 + 실패 채널 안내
+```
+
+**예상 성과**:
+- **총 배포시간: 1분 이내** (목표 달성)
+- 배포 성공률: 95% → 98% (Retry)
+- API 장애 시 응답: 30초 → 3초 (Circuit Breaker)
+
+---
+
+### 3.5 Analytics 서비스 - CQRS 읽기/쓰기 분리
+
+**패턴 적용**:
+- **CQRS**: 읽기/쓰기 분리
+- **Publisher-Subscriber**: 5분 간격 데이터 수집
+
+**아키텍처**:
+```mermaid
+graph TB
+ subgraph "쓰기 모델"
+ Collector[데이터 수집기
5분 스케줄러]
+ WriteAPI[쓰기 API]
+ CommandDB[(Command DB
원본 데이터)]
+ end
+
+ subgraph "이벤트 버스"
+ EventBus[RabbitMQ
Pub-Sub]
+ end
+
+ subgraph "읽기 모델"
+ ReadAPI[읽기 API
대시보드]
+ QueryDB[(Query DB
집계 데이터)]
+ Aggregator[집계 프로세서]
+ end
+
+ subgraph "외부 데이터 소스"
+ KTAPI[KT API]
+ SNS[SNS API]
+ POS[POS]
+ end
+
+ Collector -->|5분마다| KTAPI
+ Collector -->|5분마다| SNS
+ Collector -->|5분마다| POS
+ Collector --> WriteAPI
+ WriteAPI --> CommandDB
+ CommandDB --> EventBus
+ EventBus --> Aggregator
+ Aggregator -->|ROI 계산
채널별 집계| QueryDB
+ ReadAPI --> QueryDB
+
+ Client[클라이언트
대시보드] -->|실시간 조회| ReadAPI
+```
+
+**예상 성과**:
+- 대시보드 조회 속도: 5초 → 1초 (80% 향상)
+- ROI 계산 응답: 10초 → 2초
+- 동시 조회 처리: 100개 대시보드
+
+---
+
+## 4. Phase별 구현 로드맵
+
+### Phase 1: MVP (Minimum Viable Product) - 3개월
+
+**목표**: 핵심 비즈니스 기능 제공 및 빠른 출시
+
+**적용 패턴**:
+1. **API Gateway** - 단일 진입점 및 인증/인가
+2. **Async Request-Reply** - 콘텐츠 생성 비동기 처리
+3. **Circuit Breaker** - 외부 API 장애 대응
+4. **Cache-Aside** - 트렌드 데이터 캐싱
+5. **Retry** - 배포 실패 자동 재시도
+
+**구현 우선순위**:
+1. **Week 1-4**: User 서비스 + API Gateway
+ - 회원가입/로그인 (JWT 인증)
+ - 매장 정보 관리
+ - 사업자번호 검증 연동
+
+2. **Week 5-8**: Event Planning 서비스
+ - AI API 연동 (Claude, GPT-4)
+ - Cache-Aside 패턴 적용 (Redis)
+ - Circuit Breaker 적용
+
+3. **Week 9-10**: Content Generation 서비스
+ - Async Request-Reply 패턴 구현
+ - Stable Diffusion 연동
+ - 진행 상황 폴링 API
+
+4. **Week 11-12**: Distribution + Participation 서비스
+ - 6개 채널 병렬 배포 (Circuit Breaker + Retry)
+ - 추첨/선착순 분기 로직
+
+**성공 지표**:
+- Event Planning: 10초 이내 응답 ✅
+- Content Generation: 8분 이내 완료 ✅
+- Distribution: 1분 이내 배포 ✅
+- 동시 이벤트 처리: 50개
+
+---
+
+### Phase 2: 확장 (Scale-up) - 3개월
+
+**목표**: 성능 최적화 및 사용자 증가 대응
+
+**추가 패턴**:
+6. **CQRS** - Analytics 읽기/쓰기 분리
+7. **Queue-Based Load Leveling** - 피크 타임 부하 평준화
+8. **Publisher-Subscriber** - 서비스 간 이벤트 기반 통신
+
+**구현 계획**:
+1. **Week 1-4**: Analytics 서비스 CQRS 적용
+ - Command DB / Query DB 분리
+ - 5분 간격 데이터 수집 스케줄러
+ - 실시간 대시보드 최적화
+
+2. **Week 5-8**: 메시지 큐 도입 (RabbitMQ/Kafka)
+ - Queue-Based Load Leveling 적용
+ - Publisher-Subscriber 패턴 구현
+ - 서비스 간 결합도 감소
+
+3. **Week 9-12**: 성능 모니터링 및 최적화
+ - Auto Scaling 설정
+ - 로드 밸런싱 최적화
+ - 캐시 전략 개선
+
+**성공 지표**:
+- 동시 이벤트 처리: 100개 ✅
+- 대시보드 조회 속도: 1초 이내 ✅
+- 시스템 가용성: 99.9% ✅
+
+---
+
+### Phase 3: 고도화 (Advanced) - 6개월
+
+**목표**: AI 학습 고도화 및 글로벌 확장
+
+**추가 패턴**:
+9. **Event Sourcing** - AI Learning 학습 데이터 추적
+10. **Choreography** - 워크플로 자율 조정
+
+**구현 계획**:
+1. **Week 1-8**: AI Learning 서비스 고도화
+ - Event Sourcing 패턴 적용
+ - 성공/실패 패턴 학습 고도화
+ - 추천 정확도 30% 향상
+
+2. **Week 9-16**: Choreography 패턴 적용
+ - Event Planning → Content → Distribution 자율 조정
+ - 중앙 조정자 제거
+ - 워크플로 확장성 향상
+
+3. **Week 17-24**: 글로벌 확장 대비
+ - Geodes 패턴 (다중 지역 배포)
+ - Federated Identity (글로벌 인증)
+
+**성공 지표**:
+- AI 추천 정확도: 30% 향상 ✅
+- 워크플로 확장성: 무제한 ✅
+- 글로벌 지연 시간: 100ms 이내 ✅
+
+---
+
+## 5. 예상 성과 지표
+
+### 5.1 성능 개선
+
+| 지표 | 현재 (패턴 미적용) | Phase 1 MVP | Phase 2 확장 | Phase 3 고도화 |
+|------|-------------------|-------------|-------------|---------------|
+| **Event Planning 응답시간** | 25초 | **10초** ✅ | 8초 | 6초 |
+| **Content Generation 완료시간** | 12분 | **8분** ✅ | 6분 | 5분 |
+| **Distribution 배포시간** | 3분 | **1분** ✅ | 40초 | 30초 |
+| **Analytics 대시보드 조회** | 5초 | 3초 | **1초** ✅ | 0.5초 |
+| **동시 이벤트 처리** | 20개 | 50개 | **100개** ✅ | 300개 |
+| **시스템 가용성** | 95% | 99% | **99.9%** ✅ | 99.99% |
+
+---
+
+### 5.2 비용 절감 효과
+
+| 항목 | 절감율 | 연간 절감액 (추정) |
+|------|--------|-------------------|
+| **AI API 호출 비용** (Cache-Aside) | 40% | ₩24,000,000 |
+| **외부 API 재시도 비용** (Circuit Breaker) | 30% | ₩9,000,000 |
+| **서버 리소스 비용** (CQRS, 캐싱) | 25% | ₩15,000,000 |
+| **운영 인력 비용** (자동화) | 20% | ₩12,000,000 |
+| **총 절감액** | - | **₩60,000,000** |
+
+---
+
+### 5.3 개발 생산성 향상
+
+| 지표 | 개선율 |
+|------|--------|
+| **서비스 간 결합도 감소** (Pub-Sub) | 70% |
+| **장애 복구 시간** (Circuit Breaker) | 80% |
+| **새 기능 개발 속도** (패턴 재사용) | 50% |
+| **코드 재사용률** (Gateway, Sidecar) | 60% |
+
+---
+
+## 6. 구현 시 고려사항
+
+### 6.1 API Gateway
+- **기술 스택**: Kong, AWS API Gateway, Azure API Management
+- **Rate Limiting**: 사용자당 1분 100 요청
+- **JWT 토큰**: 만료 시간 1시간, Refresh Token 7일
+- **로깅**: 모든 요청/응답 로그 저장 (CloudWatch, ELK)
+
+### 6.2 Async Request-Reply
+- **Job ID 관리**: UUID v4 사용
+- **상태 폴링**: 5초 간격, 최대 10분 타임아웃
+- **WebSocket 대안**: 실시간 진행 상황 푸시 (선택사항)
+
+### 6.3 Circuit Breaker
+- **타임아웃 설정**: 외부 API별 차등 (15초 ~ 60초)
+- **실패 임계값**: 50% 실패 시 OPEN
+- **재시도 간격**: 30초 후 HALF-OPEN
+- **폴백 전략**: 캐시 데이터 반환 또는 기본값 제공
+
+### 6.4 Cache-Aside
+- **캐시 TTL**: 트렌드 데이터 1시간, AI 응답 30분
+- **캐시 무효화**: 데이터 업데이트 시 자동 삭제
+- **Redis Cluster**: 고가용성 보장
+
+### 6.5 CQRS
+- **DB 선택**: Command (PostgreSQL), Query (MongoDB)
+- **동기화 지연**: 최대 5초
+- **이벤트 버스**: RabbitMQ 또는 Kafka
+
+---
+
+## 7. 리스크 관리
+
+### 7.1 기술적 리스크
+
+| 리스크 | 확률 | 영향도 | 완화 전략 |
+|--------|------|--------|-----------|
+| AI API 응답 지연 (>10초) | 중간 | 높음 | Cache-Aside, 프롬프트 최적화, 병렬 호출 |
+| 외부 API 장애 | 높음 | 높음 | Circuit Breaker, Retry, 폴백 전략 |
+| Redis 장애 | 낮음 | 중간 | Redis Cluster, DB 폴백 |
+| 메시지 큐 장애 | 낮음 | 높음 | Dead Letter Queue, 재처리 로직 |
+
+### 7.2 운영 리스크
+
+| 리스크 | 확률 | 영향도 | 완화 전략 |
+|--------|------|--------|-----------|
+| 피크 타임 트래픽 폭주 | 높음 | 높음 | Auto Scaling, Queue-Based Load Leveling |
+| 데이터 불일치 (CQRS) | 중간 | 중간 | 이벤트 재생, 수동 동기화 도구 |
+| 배포 실패율 증가 | 중간 | 중간 | Retry 3회, 수동 배포 옵션 |
+
+---
+
+## 8. 결론
+
+### 8.1 핵심 패턴 요약
+
+본 서비스는 **10개의 클라우드 아키텍처 패턴**을 3단계로 적용하여 성능, 확장성, 안정성을 보장합니다:
+
+1. **API Gateway**: 단일 진입점 및 횡단 관심사 분리
+2. **Async Request-Reply**: 장시간 처리 작업 비동기화
+3. **Circuit Breaker**: 외부 API 장애 대응
+4. **Cache-Aside**: 응답 시간 단축
+5. **CQRS**: 읽기/쓰기 분리로 조회 성능 최적화
+6. **Event Sourcing**: AI 학습 데이터 추적
+7. **Queue-Based Load Leveling**: 부하 평준화
+8. **Retry**: 일시적 오류 자동 복구
+9. **Publisher-Subscriber**: 서비스 간 결합도 감소
+10. **Choreography**: 워크플로 자율 조정
+
+### 8.2 예상 효과
+
+- **Event Planning**: 25초 → **10초** (60% 단축) ✅
+- **Content Generation**: 12분 → **8분** (33% 단축) ✅
+- **Distribution**: 3분 → **1분** (67% 단축) ✅
+- **시스템 가용성**: 95% → **99.9%** ✅
+- **동시 이벤트 처리**: 20개 → **100개** (5배 향상) ✅
+- **연간 비용 절감**: **₩60,000,000** 💰
+
+### 8.3 다음 단계
+
+1. **Phase 1 MVP 착수** (3개월)
+ - API Gateway + Async Request-Reply + Circuit Breaker 우선 구현
+ - 핵심 비즈니스 기능 검증
+
+2. **성능 모니터링**
+ - Prometheus + Grafana 대시보드 구축
+ - 각 패턴별 성과 지표 측정
+
+3. **지속적 개선**
+ - Phase 2, 3 로드맵에 따라 점진적 고도화
+ - AI 학습 정확도 향상 및 글로벌 확장
+
+---
+
+**문서 승인**:
+- [ ] System Architect (박영자)
+- [ ] Backend Developer (최수연)
+- [ ] DevOps Engineer (송근정)
+- [ ] PO (갑빠)
+
+**참조 문서**:
+- design/userstory.md
+- claude/cloud-design-patterns.md
+- claude/architecture-patterns.md