Zum Hauptinhalt springen
Status: Akzeptiert (März 2026) Kontext: Da sich LLM-Fähigkeiten schnell weiterentwickeln, benötigen wir ein Framework, um zu entscheiden, wo wir Engineeringaufwand investieren und wo wir stillhalten sollten.

Entscheidung

Wir klassifizieren jede Funktion nach ihrer Beziehung zum LLM-Fortschritt und ordnen die Ressourcen entsprechend zu.
KategorieStrategieInvestitionBeispiele
OrthogonalIntelligentere Modelle schmälern diese nicht — reine Engineering-/IntegrationsproblemeVollständige InvestitionKonnektoren, Anmeldedaten, OAuth, Audit, RBAC, Sicherheit, Bereitstellung
TailwindModellverbesserungen machen diese besser, nicht überflüssig — symbiotische BeziehungInvestieren (Vorteile verstärken sich)AI Connector Builder (intelligenteres Modell = höherwertige Connector-Ausgabe)
EingefrorenBereits ausgeliefert, funktioniert gut — aber Modelle absorbieren diese FunktionenNur Wartung, keine neuen FunktionenReAct-Schleife, DAG-Planung, RAG-Pipeline, Memory, Grounded Generation
ÜberdenkenAnbieter bauen nativ auf Plattformebene — hohes RedundanzrisikoAuf unbestimmte Zeit aufgeschobenMulti-Agent-Orchestrierung, semantisches Memory, Memory-Lebenszyklus
Faustregel: Wenn eine Funktion das Problem „wie man das Modell intelligenter macht” löst, wird sie absorbiert. Wenn sie das Problem „wie man das Modell sicher mit der realen Welt verbindet” löst, ist sie orthogonal.

Analyse

Warum die Connector-Plattform vollständig orthogonal ist

Modelle werden niemals nativ:
  • API-Anmeldedaten speichern und verschlüsseln (AES-GCM)
  • OAuth-Flows verwalten (Autorisierungsseite → Callback → Refresh-Token)
  • Sich mit einer Kingdee/金蝶 ERP-Datenbank eines Kunden verbinden
  • Benachrichtigungen an Lark/飞书 oder WeCom/企微 senden
  • RBAC für die Kontrolle durchsetzen, wer welchen Connector nutzen kann
  • Jeden Tool-Aufruf für Compliance-Audits protokollieren
Dies sind Engineering-Probleme, keine Intelligenzprobleme. Ein 10x intelligenteres Modell kann diese Dinge ohne Infrastruktur immer noch nicht tun.

Warum AI Connector Builder “tailwind” ist und nicht “absorbiert” wird

Der Builder-Agent nutzt Modellintelligenz, um verwaltete, persistente Connector-Entitäten zu erstellen — gespeichert in der DB, wiederverwendbar über Agenten hinweg, mit Credential-Management und Audit-Trails. Das verbesserte API-Verständnis des Modells führt dazu, dass der Builder bessere Connectoren produziert, nicht dass der Builder überflüssig wird. Analogie: Cursor nutzt Claude zum Schreiben von Code. Wenn Claude intelligenter wird, wird Cursor besser, nicht redundant, weil Cursor Engineering-Wert bietet (Projektmanagement, Dateiorganisation, Versionskontrolle), den das Modell nicht ersetzt.

Warum v0.1–v0.5 Features “eingefroren” sind

FeatureWas in der Branche passiert
ReAct loopModelle haben natives Tool Calling (OpenAI, Anthropic). Die externe Reasoning-Schleife bietet weniger Mehrwert, da Modelle dies internalisieren.
DAG PlanningDie Reasoning-Fähigkeiten von Modellen verbessern sich schnell. Komplexe Task-Zerlegung, die externe Planer benötigte, wird zu einer Single-Shot-Fähigkeit.
Memory managementContext Windows wachsen schnell (Gemini 2M+, Claude 200K+). Der Bedarf für externes Window Management, Zusammenfassung und Komprimierung schrumpft.
RAG pipelineAnbieter bauen Retrieval in ihre Plattformen ein (OpenAI file_search, Google NotebookLM, Gemini Search Grounding). Für öffentliches Wissen wird die traditionelle Chunk-Embed-Retrieve-Pipeline ersetzt.
Grounded GenerationModelle werden besser darin, Quellen nativ zu zitieren. Die 5-stufige Grounding-Pipeline, die wir gebaut haben, bietet abnehmenden Mehrwert.
Diese Features sind nicht schlecht — sie wurden ausgeliefert, sie funktionieren, sie machen das Produkt heute funktionsfähig. Die Entscheidung ist einfach, sie nicht weiter auszubauen und die Bemühungen umzuleiten.

Warum Multi-Agent-Orchestrierung aufgeschoben wurde

LLM-Anbieter bauen Orchestrierung nativ auf:
  • OpenAI Swarm: Multi-Agent-Framework mit Handoff-Protokollen
  • Anthropic Claude Code Teams: Leader/Worker-Agent-Pools mit Task-Graphen
  • Google A2A (Agent-to-Agent): Inter-Agent-Kommunikationsprotokoll
Der Aufbau einer konkurrierenden Orchestrierungsschicht würde bedeuten, gegen First-Party-Implementierungen mit tieferer Modellintegration anzutreten. Dies ist kein nachhaltiger Differenziator.

Warum Semantic Memory und Memory Lifecycle aufgeschoben wurden

  • Kontextfenster wachsen schnell, was die Notwendigkeit für sitzungsübergreifendes Speicherabrufen verringert
  • Anbieter fügen native Speicherfunktionen hinzu (ChatGPT Memory, Claude Projects)
  • Die Engineeringkosten für den Aufbau eines zuverlässigen Speichersystems (TTL, Importance Scoring, semantisches Abrufen) sind hoch im Verhältnis zur schrumpfenden Lücke, die es füllt

Klassifizierung auf Funktionsebene

Orthogonal (v0.6+)

FeatureVersionWhy orthogonal
Connector-Entität + CRUDv0.6.1Enterprise-Integration, reine Technik
Benutzer-spezifische Anmeldedaten (AES-GCM)v0.6.2Sicherheitsinfrastruktur
Confirmation Gatev0.6.2Sicherheitsmechanismus für Schreibvorgänge
Connector Export/Import/Forkv0.7Verteilungsmechanismus
OAuth 2.0v0.7Protokollimplementierung
MCP Server Exportv0.7Interoperabilität (abhängig von MCP-Adoption)
Datenbank-Connectorv0.8Direkter DB-Zugriff, Connection Pools
Message Pushv0.8Benachrichtigungskanäle
RBACv0.8Zugriffskontrolle, Governance
Operation Audit Logv0.8Compliance
Sandbox Hardeningv0.9Sicherheitsisolation
Observability (OTel, Circuit Breaker)v0.9Produktionsbetrieb
Connector Analyticsv0.9Nutzungsverfolgung
Docker Composev0.9Bereitstellung
Admin Dashboardv1.0Management-UI
Scheduled Jobs / Webhooksv1.0Automatisierungs-Trigger
Batch Executionv1.0Enterprise-Scale-Verarbeitung
Embeddable Widget / iframev1.0Liefermodus
Enterprise Securityv1.0Compliance (Verschlüsselung, IP-Whitelisting)

Tailwind

FeatureVersionRelationship
AI Connector Builderv0.6.3Intelligentere Modelle → bessere Builder-Ausgabe
AI Connector Generation (OpenAPI)v1.0Gleich — Modelle verstehen API-Spezifikationen besser → genauere automatische Generierung

Frozen (shipped, maintain only)

FeatureVersionStatus
ReAct Agentv0.1Shipped, working
DAG Planning / Re-Planningv0.1, v0.5Shipped, working
Memory (Window, Summary, Compact)v0.2, v0.5Shipped, working
RAG pipeline (embedding, vector store, chunking, hybrid retrieval)v0.5Shipped, working
Grounded Generationv0.5Shipped, working
ContextGuard / Pinned Messagesv0.5Shipped, working

Überlegung (auf unbestimmte Zeit aufgeschoben)

FunktionUrsprüngliche VersionGrund für Aufschub
Multi-Agent-Orchestrierungv1.0Anbieter bauen nativ
Semantischer SpeicherBacklogKontextfenster wachsen; Anbieter fügen nativen Speicher hinzu
Speicher-LebenszyklusBacklogWie oben

Auswirkungen

  1. Nicht zu v0.5-Funktionen zurückkehren. Fehlerbehebungen ja, neue Funktionen nein.
  2. Connector-Plattform ist die Kernanlage. v0.6–v0.8 sollten die Mehrheit der Entwicklungszeit erhalten.
  3. Enterprise-Engineering (RBAC, Audit, Sicherheit, Bereitstellung) ist der Wettbewerbsvorteil. Diese sind langweilig, aber verteidigbar.
  4. Jährlich neu bewerten. Wenn der Modellfortschritt stagniert oder eine „eingefrorene” Funktion sich als noch mit erheblichen Lücken herausstellt, überdenken Sie dies.