상태: 수락됨 (2026년 3월) 배경: LLM 기능이 빠르게 발전함에 따라, 엔지니어링 노력을 어디에 투자할지, 어디서 유지할지 결정하기 위한 프레임워크가 필요합니다.
의사결정
우리는 모든 기능을 LLM 진전과의 관계에 따라 분류하고 그에 따라 노력을 배분합니다.| 카테고리 | 전략 | 투자 | 예시 |
|---|---|---|---|
| 직교(Orthogonal) | 모델이 더 똑똑해져도 이들은 감소하지 않음 — 순수 엔지니어링/통합 문제 | 전체 투자 | 커넥터, 자격증명, OAuth, 감사, RBAC, 보안, 배포 |
| Tailwind | 모델 개선이 이들을 더 낫게 만듦, 중복되지 않음 — 상생 관계 | 투자 (이점이 복합됨) | AI 커넥터 빌더 (더 똑똑한 모델 = 더 높은 품질의 커넥터 출력) |
| 동결(Frozen) | 이미 출시됨, 잘 작동 중 — 하지만 모델이 이러한 기능을 흡수 중 | 유지만, 새 기능 없음 | ReAct 루프, DAG 계획, RAG 파이프라인, 메모리, 기반 생성 |
| 검토(Consider) | 제공자가 플랫폼 수준에서 기본적으로 구축 중 — 중복 위험 높음 | 무기한 연기 | 멀티-에이전트 오케스트레이션, 의미론적 메모리, 메모리 생명주기 |
분석
커넥터 플랫폼이 완전히 직교하는 이유
모델은 절대 기본적으로 다음을 수행할 수 없습니다:- API 자격증명 저장 및 암호화 (AES-GCM)
- OAuth 흐름 관리 (인증 페이지 → 콜백 → 새로고침 토큰)
- 클라이언트의 Kingdee/金蝶 ERP 데이터베이스에 연결
- Lark/飞书 또는 WeCom/企微에 알림 푸시
- 어떤 커넥터를 사용할 수 있는지에 대한 RBAC 적용
- 규정 준수 감사를 위해 모든 도구 호출 기록
AI 커넥터 빌더가 “주도적”인 이유, “흡수되지” 않는 이유
빌더 에이전트는 모델 지능을 사용하여 관리되고 지속되는 커넥터 엔티티를 생성합니다 — DB에 저장되고, 에이전트 전체에서 재사용 가능하며, 자격증명 관리 및 감사 추적을 포함합니다. 모델의 향상된 API 이해도는 빌더를 불필요하게 만드는 것이 아니라 빌더가 더 나은 커넥터를 생성하도록 합니다. 유추: Cursor는 Claude를 사용하여 코드를 작성합니다. Claude가 더 똑똑해지면 Cursor는 더 나아지고, 중복되지 않습니다. 왜냐하면 Cursor는 모델이 대체할 수 없는 엔지니어링 가치(프로젝트 관리, 파일 구성, 버전 제어)를 제공하기 때문입니다.v0.1–v0.5 기능이 “동결”된 이유
| 기능 | 업계에서 일어나고 있는 일 |
|---|---|
| ReAct 루프 | 모델이 기본 도구 호출 기능을 갖추고 있음 (OpenAI, Anthropic). 외부 추론 루프는 모델이 이를 내재화하면서 가치가 감소함. |
| DAG 계획 | 모델 추론 능력이 빠르게 개선되고 있음. 외부 계획자가 필요했던 복잡한 작업 분해가 단일 샷 능력이 되고 있음. |
| 메모리 관리 | 컨텍스트 윈도우가 빠르게 증가하고 있음 (Gemini 2M+, Claude 200K+). 외부 윈도우 관리, 요약 및 압축의 필요성이 감소하고 있음. |
| RAG 파이프라인 | 제공자들이 자신의 플랫폼에 검색을 통합하고 있음 (OpenAI file_search, Google NotebookLM, Gemini Search Grounding). 공개 지식의 경우 기존의 청크-임베딩-검색 파이프라인이 대체되고 있음. |
| 근거 기반 생성 | 모델이 기본적으로 출처를 인용하는 데 더 능숙해지고 있음. 우리가 구축한 5단계 근거 파이프라인의 가치가 감소하고 있음. |
다중 에이전트 오케스트레이션이 연기된 이유
LLM 제공자들이 오케스트레이션을 기본적으로 구축하고 있습니다:- OpenAI Swarm: 핸드오프 프로토콜을 포함한 다중 에이전트 프레임워크
- Anthropic Claude Code Teams: 작업 그래프를 포함한 리더/워커 에이전트 풀
- Google A2A (Agent-to-Agent): 에이전트 간 통신 프로토콜
의미론적 메모리와 메모리 생명주기가 연기된 이유
- 컨텍스트 윈도우가 빠르게 증가하고 있어 세션 간 메모리 검색의 필요성이 감소하고 있습니다
- 제공자들이 네이티브 메모리 기능을 추가하고 있습니다 (ChatGPT Memory, Claude Projects)
- 신뢰할 수 있는 메모리 시스템 구축의 엔지니어링 비용 (TTL, 중요도 점수 매기기, 의미론적 검색)이 줄어드는 격차에 비해 높습니다
기능 수준 분류
직교성 (v0.6+)
| 기능 | 버전 | 직교성 이유 |
|---|---|---|
| Connector 엔티티 + CRUD | v0.6.1 | 엔터프라이즈 통합, 순수 엔지니어링 |
| 사용자별 자격증명 (AES-GCM) | v0.6.2 | 보안 인프라 |
| 확인 게이트 | v0.6.2 | 쓰기 작업을 위한 안전 메커니즘 |
| Connector 내보내기/가져오기/포크 | v0.7 | 배포 메커니즘 |
| OAuth 2.0 | v0.7 | 프로토콜 구현 |
| MCP Server 내보내기 | v0.7 | 상호운용성 (MCP 채택에 따라 결정) |
| 데이터베이스 Connector | v0.8 | 직접 DB 접근, 연결 풀 |
| 메시지 푸시 | v0.8 | 알림 채널 |
| RBAC | v0.8 | 접근 제어, 거버넌스 |
| 작업 감사 로그 | v0.8 | 규정 준수 |
| 샌드박스 강화 | v0.9 | 보안 격리 |
| 관찰성 (OTel, 서킷 브레이커) | v0.9 | 프로덕션 운영 |
| Connector 분석 | v0.9 | 사용 추적 |
| Docker Compose | v0.9 | 배포 |
| 관리자 대시보드 | v1.0 | 관리 UI |
| 예약된 작업 / Webhooks | v1.0 | 자동화 트리거 |
| 배치 실행 | v1.0 | 엔터프라이즈 규모 처리 |
| 임베드 가능한 위젯 / iframe | v1.0 | 전달 모드 |
| 엔터프라이즈 보안 | v1.0 | 규정 준수 (암호화, IP 화이트리스팅) |
Tailwind
| Feature | Version | Relationship |
|---|---|---|
| AI 커넥터 빌더 | v0.6.3 | 더 똑똑한 모델 → 더 나은 빌더 출력 |
| AI 커넥터 생성 (OpenAPI) | v1.0 | 동일 — 모델이 API 사양을 더 잘 이해 → 더 정확한 자동 생성 |
Frozen (shipped, maintain only)
| Feature | Version | Status |
|---|---|---|
| ReAct 에이전트 | v0.1 | Shipped, working |
| DAG 계획 / 재계획 | v0.1, v0.5 | Shipped, working |
| 메모리 (Window, Summary, Compact) | v0.2, v0.5 | Shipped, working |
| RAG 파이프라인 (embedding, vector store, chunking, hybrid retrieval) | v0.5 | Shipped, working |
| Grounded Generation | v0.5 | Shipped, working |
| ContextGuard / Pinned Messages | v0.5 | Shipped, working |
고려 중 (무기한 연기)
| 기능 | 원본 버전 | 연기 사유 |
|---|---|---|
| Multi-Agent Orchestration | v1.0 | 제공자가 기본적으로 구축 중 |
| Semantic Memory Store | Backlog | 컨텍스트 윈도우 확대; 제공자가 기본 메모리 추가 중 |
| Memory Lifecycle | Backlog | 위와 동일 |
함의
- v0.5 기능으로 돌아가지 마세요. 버그 수정은 가능하지만 새로운 기능은 안 됩니다.
- 커넥터 플랫폼이 핵심 투자입니다. v0.6–v0.8은 대부분의 엔지니어링 시간을 받아야 합니다.
- 엔터프라이즈 엔지니어링(RBAC, 감사, 보안, 배포)이 경쟁 우위입니다. 이들은 지루하지만 방어 가능합니다.
- 매년 재평가하세요. 모델 진전이 정체되거나 “동결된” 기능이 여전히 상당한 격차가 있다면 재고려하세요.