hgzero/design/backend/sequence/inner/ai-전문용어감지.puml
yabo0812 d2f396cffb 설계서 전면 업데이트: RAG Service 문서화 및 불필요 설계 정리
## 주요 변경사항

### 1. RAG Service 독립 서비스 문서화
- RAG Service OpenAPI 명세 작성 (9개 API)
  - Terms APIs: 용어 검색, 조회, 맥락 기반 설명 (3개)
  - Documents APIs: 관련 문서 검색, 통계 (2개)
  - Minutes APIs: 회의록 벡터 검색, 연관 검색 (4개)
- 기술 스택: Python 3.11+, FastAPI, PostgreSQL+pgvector, Azure AI Search
- 성능 요구사항 명시 (용어 검색 <500ms, 설명 생성 <3초)

### 2. 불필요한 설계서 삭제 (10개 파일, 27% 감소)
- AI Service (3개): 결정사항제안, 논의사항제안, 회의록개선
- Meeting Service (5개): 실시간수정동기화, 충돌해결, Todo완료처리, Todo할당, 리마인더발송
- Notification Service (2개): Todo알림발송, 초대알림발송

### 3. API 설계서 업데이트 (v2.0 → v2.1)
- 마이크로서비스: 5개 → 6개 (RAG Service 추가)
- 총 API 개수: 47개 → 56개 (+9개)
- AI Service 주요 특징 업데이트
  - RAG Service 연동 명시
  - 삭제된 Suggestion API 제거
  - 차별화 포인트: 맥락 기반 용어 설명, 하이브리드 검색 강조
- RAG Service 섹션 완전 신규 작성
- 통계 및 문서 이력 업데이트

### 4. 내부 시퀀스 다이어그램 업데이트 (2개)
- ai-전문용어감지.puml: RAG Service API 호출 방식 명시
- ai-맥락기반용어설명.puml: RAG Service API 호출 방식 명시

### 5. 문서화
- 설계서 업데이트 요약 문서 작성 (claudedocs/설계서_업데이트_요약.md)
- 전체 변경 사항, 영향 분석, 다음 단계 작업 명시

## 영향 분석
- 설계서 파일: 37개 → 27개 (10개 삭제)
- 유저스토리 커버리지: 28개 유저스토리 100% 반영
- 서비스 아키텍처: AI Service와 RAG Service 분리로 독립성 향상

🤖 Generated with [Claude Code](https://claude.com/claude-code)

Co-Authored-By: Claude <noreply@anthropic.com>
2025-10-29 17:51:57 +09:00

251 lines
5.4 KiB
Plaintext

@startuml
!theme mono
title AI Service 내부 시퀀스 - 전문용어감지
participant "TermController" as Controller
participant "TermDetectionService" as Service
participant "LLMClient" as LLM
participant "TermRepository" as Repo
database "Azure OpenAI<<E>>" as OpenAI
database "PostgreSQL<<E>>" as DB
== 회의록 텍스트 실시간 분석 요청 ==
note over Controller
API 요청 (실시간 또는 배치):
POST /api/ai/terms/detect
Body: {
"meetingId": "{meetingId}",
"text": "회의록 텍스트"
}
end note
Controller -> Service: detectTerms(meetingId, text)
activate Service
== 용어 사전 조회 ==
note over Service
**구현 방식**: AI Service → RAG Service API 호출
POST /api/rag/terms/search
- 하이브리드 검색 (키워드 + 벡터)
- PostgreSQL + pgvector
- Redis 캐싱
end note
par "조직별 용어 사전"
Service -> Repo: getOrganizationTerms(organizationId)
activate Repo
Repo -> DB: 조직 전문용어 조회\n(조직ID 기준, 용어/정의/카테고리)\n**실제: RAG Service API 호출**
activate DB
DB --> Repo: 조직 전문용어 목록
deactivate DB
Repo --> Service: orgTerms
deactivate Repo
else
Service -> Repo: getIndustryTerms(industry)
activate Repo
Repo -> DB: 산업 표준용어 조회\n(산업분류 기준, 용어/정의/카테고리)\n**실제: RAG Service API 호출**
activate DB
DB --> Repo: 산업 표준용어 목록
deactivate DB
Repo --> Service: industryTerms
deactivate Repo
end
Service -> Service: 용어 사전 병합 및 준비
note right
용어 사전:
- 조직별 용어 (우선순위 높음)
- 산업별 표준 용어
- 기술 용어
end note
== LLM 기반 전문용어 감지 ==
Service -> Service: 용어 감지 프롬프트 생성
note right
시스템 프롬프트:
- 역할: 전문용어 감지 전문가
- 지시사항:
* 텍스트에서 전문용어 탐지
* 용어 사전과 비교
* 신뢰도 점수 계산
* 위치 정보 추출
사용자 프롬프트:
- 분석 대상 텍스트: {text}
- 용어 사전: {termDictionary}
응답 형식:
{
"detectedTerms": [
{
"term": "용어명",
"position": {line, offset},
"confidence": 0.0-1.0,
"category": "기술|업무|도메인"
}
]
}
end note
Service -> LLM: detectTechnicalTerms(prompt, text, termDictionary)
activate LLM
LLM -> OpenAI: POST /chat/completions
activate OpenAI
note right
요청 파라미터:
- model: gpt-4o
- temperature: 0.1
- response_format: json_object
end note
OpenAI -> OpenAI: 텍스트 분석 및 용어 감지
note right
처리 단계:
1. 텍스트 토큰화
2. 용어 사전과 매칭
3. 문맥 기반 용어 식별
4. 신뢰도 계산
- 정확한 매칭: 0.9-1.0
- 변형 매칭: 0.7-0.9
- 문맥 기반: 0.7-0.8
5. 위치 정보 추출
end note
OpenAI --> LLM: 감지된 용어 목록 (JSON)
deactivate OpenAI
LLM --> Service: detectedTerms
deactivate LLM
== 용어 필터링 및 검증 ==
Service -> Service: 신뢰도 기반 필터링
note right
필터링 기준:
- 신뢰도 70% 이상만 선택
- 중복 용어 제거
(첫 번째 출현만 유지)
- 카테고리별 분류
end note
loop 각 감지된 용어마다
Service -> Service: 용어 메타데이터 보강
note right
추가 정보:
- 용어 정의 (사전에서)
- 카테고리
- 사용 빈도
- 관련 문서 참조
end note
end
== 감지 결과 저장 ==
Service -> Repo: saveDetectedTerms(meetingId, detectedTerms)
activate Repo
loop 각 용어마다
Repo -> DB: INSERT INTO detected_terms
activate DB
note right
저장 데이터:
- meeting_id
- term
- position (JSON)
- confidence_score
- category
- detected_at
- status: DETECTED
end note
DB --> Repo: termId
deactivate DB
end
Repo --> Service: 저장 완료
deactivate Repo
== 하이라이트 정보 생성 ==
Service -> Service: 하이라이트 데이터 구성
note right
프론트엔드 전달 정보:
- 용어 위치 (줄 번호, 오프셋)
- 하이라이트 스타일
- 툴팁 텍스트
- 신뢰도 표시
end note
== 맥락 기반 설명 트리거 ==
Service -> Service: 용어 설명 생성 트리거
note right
비동기로 용어 설명 생성 시작
(UFR-RAG-020 연동)
각 감지된 용어에 대해:
- RAG 검색 수행
- 맥락 기반 설명 생성
end note
== 응답 반환 ==
Service -> Service: 응답 데이터 구성
note right
응답 데이터:
- detectedTerms: [
{
"term": "용어명",
"position": {line, offset},
"confidence": 0.85,
"category": "기술",
"highlight": true
}
]
- totalCount: 감지된 용어 수
- highlightInfo: 하이라이트 정보
end note
Service --> Controller: 감지 완료 응답
deactivate Service
Controller --> Controller: 200 OK 응답 반환
note right
프론트엔드 처리:
- 용어 하이라이트 표시
- 툴팁 준비
- 설명 로딩 중 표시
end note
note over Controller, DB
처리 시간:
- 용어 사전 조회: 100-200ms
- LLM 용어 감지: 2-4초
- 필터링 및 검증: 100-200ms
- 저장 처리: 200-300ms
총 처리 시간: 약 3-5초
정책:
- 신뢰도 70% 이상만 자동 감지
- 중복 용어는 첫 번째만 하이라이트
- 맥락 기반 설명은 비동기 생성
end note
@enduml