メインコンテンツへスキップ
Status: Accepted (March 2026) Context: LLM機能が急速に進化する中で、エンジニアリング努力をどこに投資し、どこで保持するかを決定するためのフレームワークが必要です。

意思決定

LLMの進歩との関係性に基づいてすべての機能を分類し、それに応じて努力を配分します。
カテゴリ戦略投資
直交モデルがより賢くなってもこれらは減少しない — 純粋なエンジニアリング/統合の問題全面投資コネクタ、認証情報、OAuth、監査、RBAC、セキュリティ、デプロイメント
Tailwindモデルの改善がこれらをより良くする — 相互に利益をもたらす関係投資(利益が複合する)AI コネクタビルダー(より賢いモデル = より高品質なコネクタ出力)
凍結すでにリリース済み、良好に動作 — ただしモデルがこれらの機能を吸収しているメンテナンスのみ、新機能なしReAct ループ、DAG プランニング、RAG パイプライン、メモリ、グラウンデッド生成
検討中プロバイダーがプラットフォームレベルでネイティブに構築 — 冗長性の高いリスク無期限延期マルチエージェントオーケストレーション、セマンティックメモリ、メモリライフサイクル
経験則: 機能が*「モデルをより賢くする方法」を解決する場合、それは吸収されています。「モデルを安全に現実世界に接続する方法」*を解決する場合、それは直交しています。

分析

Connector Platform が完全に直交している理由

モデルは決してネイティブに以下を行いません:
  • API 認証情報を保存・暗号化する (AES-GCM)
  • OAuth フローを管理する (認可ページ → コールバック → リフレッシュトークン)
  • クライアントの Kingdee/金蝶 ERP データベースに接続する
  • Lark/飞书 または WeCom/企微 に通知をプッシュする
  • どのコネクタを使用できるかについて RBAC を実施する
  • コンプライアンス監査のためにすべてのツール呼び出しをログに記録する
これらはインテリジェンスの問題ではなく、エンジニアリングの問題です。10倍スマートなモデルでも、インフラストラクチャなしではこれらのことを行うことはできません。

AI コネクタビルダーが「順調」である理由は「吸収されている」のではなく

ビルダーエージェントはモデルインテリジェンスを使用して管理された永続的なコネクタエンティティを作成します — DB に保存され、エージェント全体で再利用可能で、認証情報管理と監査証跡を備えています。モデルの API 理解の向上により、ビルダーはより優れたコネクタを生成するようになり、ビルダーが不要になるわけではありません。 類似例:Cursor は Claude を使用してコードを書きます。Claude がより高度になることで Cursor はより優れたものになり、冗長になるのではありません。なぜなら Cursor はモデルが置き換えられないエンジニアリング価値(プロジェクト管理、ファイル整理、バージョン管理)を提供するからです。

v0.1~v0.5の機能が「凍結」されている理由

機能業界で起きていること
ReActループモデルはネイティブなツール呼び出し機能を備えている(OpenAI、Anthropic)。外部の推論ループは、モデルがそれを内部化するにつれて、付加価値が減少している。
DAG計画モデルの推論能力は急速に向上している。外部プランナーが必要だった複雑なタスク分解が、単一ショットの機能になりつつある。
メモリ管理コンテキストウィンドウが急速に拡大している(Gemini 2M+、Claude 200K+)。外部ウィンドウ管理、要約、圧縮の必要性が減少している。
RAGパイプラインプロバイダーはプラットフォームに検索機能を組み込んでいる(OpenAI file_search、Google NotebookLM、Gemini Search Grounding)。公開知識については、従来のチャンク・埋め込み・検索パイプラインが置き換わりつつある。
グラウンデッド生成モデルはネイティブにソースを引用する能力が向上している。構築した5段階のグラウンディングパイプラインは、付加価値が減少している。
これらの機能は悪くない — 出荷され、機能し、今日の製品を機能させている。決定は単に、これらへの追加を停止し、努力をリダイレクトすることである。

マルチエージェント オーケストレーションが延期された理由

LLM プロバイダーがオーケストレーションをネイティブに構築しています:
  • OpenAI Swarm: ハンドオフプロトコルを備えたマルチエージェント フレームワーク
  • Anthropic Claude Code Teams: タスク グラフを備えたリーダー/ワーカー エージェント プール
  • Google A2A (Agent-to-Agent): エージェント間通信プロトコル
競合するオーケストレーション レイヤーを構築することは、より深いモデル統合を備えたファーストパーティ実装と競争することを意味します。これは持続可能な差別化要因ではありません。

セマンティックメモリとメモリライフサイクルが延期された理由

  • コンテキストウィンドウが急速に拡大しており、セッション間のメモリ検索の必要性が減少している
  • プロバイダーがネイティブメモリ機能を追加している(ChatGPT Memory、Claude Projects)
  • 信頼性の高いメモリシステム(TTL、重要度スコアリング、セマンティック検索)を構築するエンジニアリングコストが、それが埋める縮小するギャップに比べて高い

機能レベルの分類

直交性 (v0.6+)

機能バージョン直交性の理由
コネクタエンティティ + CRUDv0.6.1エンタープライズ統合、純粋なエンジニアリング
ユーザーごとの認証情報 (AES-GCM)v0.6.2セキュリティインフラストラクチャ
確認ゲートv0.6.2書き込み操作の安全メカニズム
コネクタのエクスポート/インポート/フォークv0.7配布メカニズム
OAuth 2.0v0.7プロトコル実装
MCP サーバーエクスポートv0.7相互運用性 (MCP採用に依存)
データベースコネクタv0.8直接DB アクセス、接続プール
メッセージプッシュv0.8通知チャネル
RBACv0.8アクセス制御、ガバナンス
操作監査ログv0.8コンプライアンス
サンドボックス強化v0.9セキュリティ分離
可観測性 (OTel、サーキットブレーカー)v0.9本番運用
コネクタ分析v0.9使用状況追跡
Docker Composev0.9デプロイメント
管理ダッシュボードv1.0管理UI
スケジュール済みジョブ / Webhookv1.0自動化トリガー
バッチ実行v1.0エンタープライズスケール処理
埋め込み可能なウィジェット / iframev1.0配信モード
エンタープライズセキュリティv1.0コンプライアンス (暗号化、IP ホワイトリスト)

Tailwind

機能バージョン関係性
AI Connector Builderv0.6.3より高度なモデル → より良いビルダー出力
AI Connector Generation (OpenAPI)v1.0同じ — モデルがAPI仕様をより良く理解 → より正確な自動生成

Frozen (shipped, maintain only)

FeatureVersionStatus
ReAct Agentv0.1Shipped, working
DAG Planning / Re-Planningv0.1, v0.5Shipped, working
Memory (Window, Summary, Compact)v0.2, v0.5Shipped, working
RAG pipeline (embedding, vector store, chunking, hybrid retrieval)v0.5Shipped, working
Grounded Generationv0.5Shipped, working
ContextGuard / Pinned Messagesv0.5Shipped, working

検討中(無期限延期)

機能元のバージョン延期の理由
マルチエージェント オーケストレーションv1.0プロバイダーがネイティブに構築中
セマンティック メモリ ストアバックログコンテキスト ウィンドウが拡大中。プロバイダーがネイティブ メモリを追加中
メモリ ライフサイクルバックログ上記と同じ

含意

  1. 不要回到v0.5的功能。 可以进行错误修复,但不能添加新功能。
  2. コネクタプラットフォームはコア投資です。 v0.6–v0.8は大多数のエンジニアリング時間を受け取るべきです。
  3. エンタープライズエンジニアリング(RBAC、監査、セキュリティ、デプロイメント)は競争優位性です。 これらは退屈ですが、防御可能です。
  4. 年1回再評価してください。 モデルの進歩が停滞するか、「凍結」された機能にまだ大きなギャップがある場合は、再検討してください。