Status: Accepted (March 2026) Context: LLM機能が急速に進化する中で、エンジニアリング努力をどこに投資し、どこで保持するかを決定するためのフレームワークが必要です。
意思決定
LLMの進歩との関係性に基づいてすべての機能を分類し、それに応じて努力を配分します。| カテゴリ | 戦略 | 投資 | 例 |
|---|---|---|---|
| 直交 | モデルがより賢くなってもこれらは減少しない — 純粋なエンジニアリング/統合の問題 | 全面投資 | コネクタ、認証情報、OAuth、監査、RBAC、セキュリティ、デプロイメント |
| Tailwind | モデルの改善がこれらをより良くする — 相互に利益をもたらす関係 | 投資(利益が複合する) | AI コネクタビルダー(より賢いモデル = より高品質なコネクタ出力) |
| 凍結 | すでにリリース済み、良好に動作 — ただしモデルがこれらの機能を吸収している | メンテナンスのみ、新機能なし | ReAct ループ、DAG プランニング、RAG パイプライン、メモリ、グラウンデッド生成 |
| 検討中 | プロバイダーがプラットフォームレベルでネイティブに構築 — 冗長性の高いリスク | 無期限延期 | マルチエージェントオーケストレーション、セマンティックメモリ、メモリライフサイクル |
分析
Connector Platform が完全に直交している理由
モデルは決してネイティブに以下を行いません:- API 認証情報を保存・暗号化する (AES-GCM)
- OAuth フローを管理する (認可ページ → コールバック → リフレッシュトークン)
- クライアントの Kingdee/金蝶 ERP データベースに接続する
- Lark/飞书 または WeCom/企微 に通知をプッシュする
- どのコネクタを使用できるかについて RBAC を実施する
- コンプライアンス監査のためにすべてのツール呼び出しをログに記録する
AI コネクタビルダーが「順調」である理由は「吸収されている」のではなく
ビルダーエージェントはモデルインテリジェンスを使用して管理された永続的なコネクタエンティティを作成します — DB に保存され、エージェント全体で再利用可能で、認証情報管理と監査証跡を備えています。モデルの API 理解の向上により、ビルダーはより優れたコネクタを生成するようになり、ビルダーが不要になるわけではありません。 類似例:Cursor は Claude を使用してコードを書きます。Claude がより高度になることで Cursor はより優れたものになり、冗長になるのではありません。なぜなら Cursor はモデルが置き換えられないエンジニアリング価値(プロジェクト管理、ファイル整理、バージョン管理)を提供するからです。v0.1~v0.5の機能が「凍結」されている理由
| 機能 | 業界で起きていること |
|---|---|
| ReActループ | モデルはネイティブなツール呼び出し機能を備えている(OpenAI、Anthropic)。外部の推論ループは、モデルがそれを内部化するにつれて、付加価値が減少している。 |
| DAG計画 | モデルの推論能力は急速に向上している。外部プランナーが必要だった複雑なタスク分解が、単一ショットの機能になりつつある。 |
| メモリ管理 | コンテキストウィンドウが急速に拡大している(Gemini 2M+、Claude 200K+)。外部ウィンドウ管理、要約、圧縮の必要性が減少している。 |
| RAGパイプライン | プロバイダーはプラットフォームに検索機能を組み込んでいる(OpenAI file_search、Google NotebookLM、Gemini Search Grounding)。公開知識については、従来のチャンク・埋め込み・検索パイプラインが置き換わりつつある。 |
| グラウンデッド生成 | モデルはネイティブにソースを引用する能力が向上している。構築した5段階のグラウンディングパイプラインは、付加価値が減少している。 |
マルチエージェント オーケストレーションが延期された理由
LLM プロバイダーがオーケストレーションをネイティブに構築しています:- OpenAI Swarm: ハンドオフプロトコルを備えたマルチエージェント フレームワーク
- Anthropic Claude Code Teams: タスク グラフを備えたリーダー/ワーカー エージェント プール
- Google A2A (Agent-to-Agent): エージェント間通信プロトコル
セマンティックメモリとメモリライフサイクルが延期された理由
- コンテキストウィンドウが急速に拡大しており、セッション間のメモリ検索の必要性が減少している
- プロバイダーがネイティブメモリ機能を追加している(ChatGPT Memory、Claude Projects)
- 信頼性の高いメモリシステム(TTL、重要度スコアリング、セマンティック検索)を構築するエンジニアリングコストが、それが埋める縮小するギャップに比べて高い
機能レベルの分類
直交性 (v0.6+)
| 機能 | バージョン | 直交性の理由 |
|---|---|---|
| コネクタエンティティ + CRUD | v0.6.1 | エンタープライズ統合、純粋なエンジニアリング |
| ユーザーごとの認証情報 (AES-GCM) | v0.6.2 | セキュリティインフラストラクチャ |
| 確認ゲート | v0.6.2 | 書き込み操作の安全メカニズム |
| コネクタのエクスポート/インポート/フォーク | v0.7 | 配布メカニズム |
| OAuth 2.0 | v0.7 | プロトコル実装 |
| MCP サーバーエクスポート | v0.7 | 相互運用性 (MCP採用に依存) |
| データベースコネクタ | v0.8 | 直接DB アクセス、接続プール |
| メッセージプッシュ | v0.8 | 通知チャネル |
| RBAC | v0.8 | アクセス制御、ガバナンス |
| 操作監査ログ | v0.8 | コンプライアンス |
| サンドボックス強化 | v0.9 | セキュリティ分離 |
| 可観測性 (OTel、サーキットブレーカー) | v0.9 | 本番運用 |
| コネクタ分析 | v0.9 | 使用状況追跡 |
| Docker Compose | v0.9 | デプロイメント |
| 管理ダッシュボード | v1.0 | 管理UI |
| スケジュール済みジョブ / Webhook | v1.0 | 自動化トリガー |
| バッチ実行 | v1.0 | エンタープライズスケール処理 |
| 埋め込み可能なウィジェット / iframe | v1.0 | 配信モード |
| エンタープライズセキュリティ | v1.0 | コンプライアンス (暗号化、IP ホワイトリスト) |
Tailwind
| 機能 | バージョン | 関係性 |
|---|---|---|
| AI Connector Builder | v0.6.3 | より高度なモデル → より良いビルダー出力 |
| AI Connector Generation (OpenAPI) | v1.0 | 同じ — モデルがAPI仕様をより良く理解 → より正確な自動生成 |
Frozen (shipped, maintain only)
| Feature | Version | Status |
|---|---|---|
| ReAct Agent | v0.1 | Shipped, working |
| DAG Planning / Re-Planning | v0.1, v0.5 | Shipped, working |
| Memory (Window, Summary, Compact) | v0.2, v0.5 | Shipped, working |
| RAG pipeline (embedding, vector store, chunking, hybrid retrieval) | v0.5 | Shipped, working |
| Grounded Generation | v0.5 | Shipped, working |
| ContextGuard / Pinned Messages | v0.5 | Shipped, working |
検討中(無期限延期)
| 機能 | 元のバージョン | 延期の理由 |
|---|---|---|
| マルチエージェント オーケストレーション | v1.0 | プロバイダーがネイティブに構築中 |
| セマンティック メモリ ストア | バックログ | コンテキスト ウィンドウが拡大中。プロバイダーがネイティブ メモリを追加中 |
| メモリ ライフサイクル | バックログ | 上記と同じ |
含意
- 不要回到v0.5的功能。 可以进行错误修复,但不能添加新功能。
- コネクタプラットフォームはコア投資です。 v0.6–v0.8は大多数のエンジニアリング時間を受け取るべきです。
- エンタープライズエンジニアリング(RBAC、監査、セキュリティ、デプロイメント)は競争優位性です。 これらは退屈ですが、防御可能です。
- 年1回再評価してください。 モデルの進歩が停滞するか、「凍結」された機能にまだ大きなギャップがある場合は、再検討してください。