Ziel: Aufbau eines KI-gestützten Connector-Hubs — Standalone (Portal-Assistent), Copilot (in Host-System eingebettet), Hub (zentrale systemübergreifende Orchestrierung). Prinzipien: Anbieterunabhängig (keine Herstellerbindung), minimale Abstraktion, protokollorientiert, connector-first (Integration ist der Kernwert).
Produktvision
FIM One ist ein AI-Connector-Hub, der drei progressive Modi bedient:| Schritt | Modus | Was passiert |
|---|---|---|
| Land | Copilot | In ein System einbetten, Wert in ihrer UI nachweisen |
| Expand | Copilot → Hub | Auf mehr Systeme ausrollen; Hub aggregiert sie |
Ausgelieferte Versionen
v0.1 (2026-02-22) — MVP: ReAct + DAG Planner
- ReActAgent mit Tools (calculator, python_exec, web_search)
- DAG Planner (LLM generiert Abhängigkeitsgraphen)
- Portal UI mit Streaming + KaTeX
v0.2 (2026-02-24) — Multi-Modell + Speicher
- Wiederholung / Ratenbegrenzung / Nutzungsverfolgung
- Native Funktionsaufrufe (kein reines JSON-Parsing)
- Multi-Modell-Unterstützung (schnelles + Haupt-LLM)
- Speicher: WindowMemory, SummaryMemory
- FastAPI-Backend mit SSE-Streaming
v0.3 (2026-02-25) — Web Tools + MCP
- Web tools (web_search, web_fetch) via Jina/Tavily/Brave
- File operations tool
- MCP client (standard tool integration)
- Tool auto-discovery + categories
- DAG visualization with click-to-scroll
- Code exec in Docker (
--network=none)
v0.4 (2026-02-25) — Multi-Turn + Agenten
- Multi-Turn-Konversationen (DbMemory)
- Tool-Schritt-Faltungs-UI
- HTTP-Anfrage + Shell-Exec-Tools
- Agenten-Management (erstellen, konfigurieren, veröffentlichen)
- JWT-Authentifizierung
- Pro-Agenten-Ausführungsmodus + Temperaturkontrolle
v0.5 (2026-02-28) — Full RAG + Grounded Gen
- Full RAG pipeline (embedding + vector store + FTS + RRF + reranker)
- Grounded Generation (citations, conflict detection, confidence scores)
- Knowledge base document management (CRUD, search, retry, schema migration)
- ContextGuard + pinned messages (token budget manager)
- DbMemory persistence + LLM Compact
- DAG Re-Planning (up to 3 rounds)
v0.6 (2026-03-01) — Connector-Plattform
- Connector CRUD: erstellen, lesen, aktualisieren, löschen
- ConnectorToolAdapter: konvertiert Connector → BaseTool
- Benutzer-spezifische Anmeldedaten: AES-GCM-Verschlüsselung
- Bestätigungsgate: Genehmigung von Schreibvorgängen
- Audit-Protokollierung: alle Tool-Aufrufe werden aufgezeichnet
- Circuit Breaker: elegante Verschlechterung bei Ausfällen
- Utility-Tools: email_send, json_transform, template_render, text_utils
- Embedding-Optionen: Jina, OpenAI, benutzerdefinierte Anbieter
v0.7 (2026-03-06) — Admin-Plattform + Multi-Mandant
- Admin-Plattform: Benutzerverwaltung, Rollenwechsel, Passwort-Zurücksetzen, Konto aktivieren/deaktivieren
- Nur-auf-Einladung-Registrierung: drei Modi (offen/Einladung/deaktiviert) + Einladungscode CRUD
- Speicherverwaltung: Festplattennutzung pro Benutzer, Löschen, verwaiste Bereinigung
- Gesprächsmoderation: Admin-Liste/Löschen aller
- Erzwungenes Logout pro Benutzer: alle Token widerrufen
- API-Gesundheits-Dashboard: Systemstatistiken, Connector-Metriken
- Assistent für die erste Einrichtung: geführte Admin-Kontoerstellung
- Persönliches Zentrum: globale Anweisungen pro Benutzer, Spracheinstellung
- JWT-Authentifizierung: Token-basierte SSE-Authentifizierung, Gesprächseigentum
- Globale MCP-Server: von Admin bereitgestellt, in allen Sitzungen geladen
- Rückwärtskompatibilität: registration_enabled → registration_mode automatische Migration
v0.7.x (2026-03-07 bis 2026-03-12) — Stabilität + Verbesserungen
- Einladungscode-Verwaltung
- Pro-Benutzer-Kontingente (429-Durchsetzung)
- Strukturiertes Audit-Logging
- Filterung sensibler Wörter
- Admin-Anmeldungsverlauf
- Admin-Dateibrowser
- Erweiterte Admin-Ansichten (Felder model_name, tools, kb_ids)
- Docker Compose-Bereitstellung (einzelnes Image, benannte Volumes)
- OAuth-Autoekennung aus window.location
- Unterstützung für erweitertes Denken / Reasoning (
LLM_REASONING_EFFORT,LLM_REASONING_BUDGET_TOKENS) für OpenAI o-Serie, Gemini 2.5+, Claude - Admin pro Werkzeug aktivieren/deaktivieren (deaktivierte Werkzeuge zur Laufzeit aus Chat ausgeschlossen)
- MCP-Server-Verwaltung auf Connectors-Seite verschoben
- Duale Datenbankunterstützung: SQLite (Null-Konfiguration Standard) + PostgreSQL (Produktion); Docker Compose stellt PostgreSQL automatisch bereit
- Dokumentationsseite zur Modellkonfiguration mit erweitertem Thinking-Setup pro Anbieter
- SSE-Protokoll v2: Echtzeit-Antwort-Streaming mit
delta_reasoning-,usage-Feldern und aufgeteiltendone-/suggestions-/title-/end-Ereignissen; SQLite-Pool-Größe 5 -> 20 - AI Builder-Erweiterung: 7 neue Builder-Werkzeuge (GetSettings, TestConnection, ImportOpenAPI für Connectors; ListConnectors, AddConnector, RemoveConnector, SetModel für Agenten),
is_builder-Flag auf Agenten, automatische Builder-Prompt-Aktualisierung, SSRF-Schutz - SSE v2 Frontend: Streaming-Punkt-Puls-Cursor, DAG-Neuplan-Runden-Snapshots als einklappbare Karten, DAG-Layout entkoppelt von Schrittständen
- Konzeptdokumentationsseite für AI Builder mit Connector- und Agent-Builder-Leitfäden
- Organisationssystem: vollständige CRUD mit rollenbasierter Mitgliedschaft (Besitzer/Admin/Mitglied), Admin-Verwaltungs-UI
- Dreiebenen-Ressourcensichtbarkeit (persönlich/Org/global) für Agenten, Connectors, Wissensdatenbanken, MCP-Server
- Veröffentlichungs-/Unveröffentlichungs-API für alle Ressourcentypen; Besitzerdelegation für veröffentlichte Agenten
- Admin-Set-Visibility-Endpunkt (ersetzt Clone-to-Global); einheitlicher
build_visibility_filter()-Abfrage-Helfer - Datenbank-Connectors (Phase 1-3): direkter SQL-Zugriff auf PG/MySQL/Oracle/SQL Server + chinesische Legacy-DBs; Schema-Introspection, KI-Anmerkung, schreibgeschützte Abfrageausführung, verschlüsselte Anmeldedaten, 3 Werkzeuge pro Connector (
list_tables,describe_table,query) - Evaluation Center: quantitative Agenten-Qualitätsbenchmarking — Test-Dataset CRUD (Prompt + erwartetes Verhalten + Assertions), Eval-Läufe (parallele Ausführung + LLM-Bewerter + Pro-Fall-Bestanden/Fehlgeschlagen/Latenz/Token-Ergebnisse), Ergebnis-Viewer mit automatischem Polling; Migration
r8t0v2x4z567 - Drei Modellrollen (General/Fast/Reasoning) mit Pro-Tier-Umgebungskonfigurationsisolation; Fast-Modell erbt nicht mehr die Hauptmodell-Einstellungen
StepOutput-Datenklasse ersetzt einfache String-Schrittergebnisse für strukturierte Daten und Artefakt-Übergabe- Werkzeug-Cache für DAG-Ausführung — identische Werkzeugaufrufe pro Lauf gecacht mit asynchronem Lock-Stampede-Schutz (
DAG_TOOL_CACHE) - Pro-Schritt-LLM-Verifizierung mit 1 Wiederholung bei Fehler (
DAG_STEP_VERIFICATION) - Auto-Routing: schnelles LLM klassifiziert Abfragen als ReAct oder DAG;
/api/auto-Endpunkt; Frontend 3-Wege-Modusumschalter (AUTO_ROUTING) -
Plattform-Organisation + Ressourcen-Abonnements: Integrierte Plattform-Org tritt automatisch allen Benutzern bei; Market-API zum Abonnieren gemeinsamer Ressourcen; Ressourcen-Abonnementtabelle; Org-basierte Ressourcenfreigabe ersetzt globale Sichtbarkeit -
Agent-Autoekennung und Sub-Agent-Bindung:discoverable-Flag auf Agenten;sub_agent_ids-Whitelist; CallAgentTool zum Delegieren von Aufgaben an Spezialisten-Agenten -
MCP-Server-Anmeldedaten + Pro-Benutzer-Überschreibung:mcp_server_credentials-Tabelle;PUT /api/mcp-servers/{id}/my-credentials-Endpunkt;allow_fallback-Flag für Anmeldedaten-Fallback-Verhalten -
Connector/KB-Umschalter:POST /api/connectors/{id}/toggleundPOST /api/knowledge-bases/{id}/togglezum Unterbrechen/Fortsetzen von Ressourcen -
Eigenständige KB-Gespräche:kb_ids-Feld auf Gesprächen für direkten KB-Chat ohne Agent-Bindung
Geplante Versionen
v0.8 — Konnektoren deklarative Konfiguration + Progressive Offenlegung
Ziel: Vereinfachung der Konnektoren-Definition ohne Python-Code und Optimierung der Exposition von Werkzeugen und Anweisungen gegenüber dem LLM.-
Datenbank-Konnektoren: direkter SQL-Zugriff (PostgreSQL, MySQL, Oracle)(ausgeliefert in v0.7.x — Phase 1-3) -
RBAC: Konnektoren-Zugriffskontrolle pro Benutzer/Rolle(ausgeliefert in v0.7.x — Org-System + dreistufige Sichtbarkeit) - Konnektoren-Anmeldedaten-Verschlüsselung + Außerkraftsetzung pro Benutzer:
connector_credentials-Tabelle, Fernet-Verschlüsselung überCREDENTIAL_ENCRYPTION_KEY,allow_fallback-Flag,GET/PUT/DELETE /my-credentials-Endpunkte, Auflösung von Anmeldedaten pro Benutzer beim Laden von Chat-Werkzeugen - Veröffentlichungs-Review-UI: Org-weites Veröffentlichungs-Review-System — Review-Toggle pro Org, ReviewsSheet mit Genehmigung/Ablehnung-Workflow, Status-Badges auf Ressourcen-Karten, Review-Hinweis im Veröffentlichungsdialog, erneute Einreichung für abgelehnte Ressourcen
- Konnektoren Progressive Offenlegung (Phase 1-2): einzelnes
ConnectorMetaToolersetzt pro-Aktion-Werkzeuge; System-Prompt erhält nur leichte Stubs (Name + 1-zeilige Beschreibung, ~30 Token/Konnektor vs. ~250 Token/Aktion); Agent ruftdiscover(connector)auf, um vollständiges Action-Schema bei Bedarf zu laden — Schema wird nur geladen, wenn das Modell einen Konnektor auswählt, wodurch das Prompt-Präfix für Caching stabil bleibt. Spiegelt Claude Code’sdefer_loading: trueinternes Muster.execute-Unterbefehl; Feature-Flag für Rückwärtskompatibilität. - Agent-Fähigkeits-System + Kompakte Anweisungen: On-Demand-Laden von Agent-Anweisungen —
Skill-Modell (Name, Inhalt/SOP, optionale Skripte) an Agenten angehängt; im System-Prompt nur nach Name referenziert (~10 Token/Fähigkeit); Agent ruftread_skill(name)auf, um vollständigen Inhalt bei Bedarf zu laden. Reduziert Pro-Konversations-Anweisungs-Token-Kosten um ~80%, während umfangreichere SOP-Bibliotheken ermöglicht werden. Gegenstück zur Progressive Offenlegung von ConnectorMetaTool auf Anweisungsebene angewendet. Ermöglicht die Differenzierungsgeschichte „Anweisungen + Werkzeuge + Fähigkeiten”. Fügt auchcompact_instructions-Feld zum Agent-Modell hinzu — Pro-Agent-Kompressionspriorität-Liste inContextGuardbeim Komprimieren eingefügt (z. B. „Bestellungs-IDs und Beträge beibehalten, rohe API-Antworten verwerfen”), ersetzt die aktuelle statische generische Eingabeaufforderung. Inspiriert von Claude Code’s Compact Instructions-Muster. - YAML/JSON-Konnektoren-Konfiguration: Plattform generiert automatisch MCP-Server
- Konnektoren-Import/Export: Konnektoren-Vorlagen teilen
- Konnektoren-Fork: Klonen + Anpassung bestehender Konnektoren
- Datenbank-Konnektoren Phase 4: Enterprise-Treiber — Oracle (
oracledb), SQL Server (aioodbc), 达梦 DM8 (aioodbc+ DM ODBC), 南大通用 GBase (aioodbc+ GBase ODBC) - Nachrichtenversand: Lark, WeCom, Slack, E-Mail-Benachrichtigungsaktionen
- Workflow-Blueprint-System: Visueller Workflow-Editor zum Entwerfen und Ausführen mehrstufiger Automatisierungs-Blueprints —
Workflow/WorkflowRunORM-Modelle, vollständige CRUD + SSE-Ausführungs-API, Import/Export,WorkflowEnginemit topologischer Ausführung und 12 Knotentypen (Start, End, LLM, ConditionBranch, QuestionClassifier, Agent, KnowledgeRetrieval, Connector, HTTPRequest, VariableAssign, TemplateTransform, CodeExecution), React Flow v12 visueller Editor mit Drag-and-Drop-Palette und Knotenkonfigurationspanel, Subprocess-basierte Code-Ausführungssicherheit - Operationsaudit: detaillierte Protokollierung wer was getan hat — Admin-Review-Log-Audit-Tab hinzugefügt (Veröffentlichungs-Review-Trail pro Org/Ressource)
- Semantische Schema-Annotationen: Erweitern von Konnektoren-Schema-Feldern mit
semantic_tag,descriptionundpii-Flags; Annotationen in LLM-Werkzeugbeschreibungen angezeigt, damit der Agent die Feldabsicht versteht, ohne von Spaltennamen zu raten
v0.9 — Observability + Production Hardening
Ziel: Produktionsreife Operationen, Debugging und Monitoring. Führt das Hook-System ein — eine deterministische Durchsetzungsebene, die unterhalb von Agent-Anweisungen liegt und vom LLM nicht überschrieben werden kann.- Connector Progressive Disclosure (Phase 3-4): einheitliche
ConnectorExecutor-Schnittstelle (API/DB/MCP hinter einer Abstraktion); Validierung von Aktionsparametern mitjsonschema; protokollagnostisches Discover/Execute - Agent Trace Layer (Observability++): Anwendungsebenen-Run/Trace/Thread-Hierarchie für Agent-Debugging — jede Konversation →
Trace, jeder LLM-Aufruf / Tool-Aufruf / DAG-Schritt →Spanmit Input/Output/Tokens/Timing. Frontend-Trace-Viewer mit Timeline und erweiterbaren LLM-Call-Payloads. Dies geht über OTel (Infrastrukturebene) hinaus, um umsetzbares Agent-Loop-Debugging für Entwickler und Enterprise-Kunden bereitzustellen. OpenTelemetry-Export als optionale Datensenke. Modelliert nach LangSmiths Run/Trace/Thread-Konzepten — das branchenbewährte Muster für Agent-Observability. - Metrics-Dashboard: Latenz, Erfolgsquote, Token-Nutzung, Connector-Call-Analytik — pro Agent, pro Benutzer, pro Organisation
- Circuit Breaker: exponentielles Backoff, Fehlererkennung
- Agent Hook System: Eine deterministische Durchsetzungsebene, die außerhalb der LLM-Schleife läuft — Hooks werden automatisch bei Tool-Events ausgeführt und können durch Agent-Anweisungen nicht umgangen werden. Drei Hook-Punkte:
PreToolUse(validieren / blockieren vor Ausführung),PostToolUse(Nebenwirkungen nach Ausführung),SessionStart(dynamischen Kontext injizieren). Integrierte Hooks: automatisches Schreiben vonConnectorCallLogbei jedem Connector-Aufruf (derzeit manuell); Blockieren von Schreiboperationen, wenn die Organisation im Read-Only-Modus ist; automatisches Kürzen übergroßer DB-Abfrageergebnisse, bevor sie den Agent erreichen; Rate-Limiting pro Connector-Call-Häufigkeit. Benutzerdefinierte Hooks: pro-Agent YAML-Konfiguration (hooks:-Feld) mit Shell-Befehlen oder Python-Callables, die bei übereinstimmenden Tool-Events ausgelöst werden — gleiches Muster wie Claudes Code-Hooks. Wichtiges Designprinzip: Hooks sind für „muss immer passieren”-Logik, die niemals davon abhängen sollte, dass das LLM sich daran erinnert. Anweisungen sagen „alle Aufrufe aufzeichnen”; Hooks zeichnen sie tatsächlich auf. Anweisungen sagen „nicht im Read-Only-Modus schreiben”; Hooks blockieren es tatsächlich. - Agent Workspace (Tool Output Offloading + Handoff): Wenn MCP / Connector / DB Tool-Antworten einen Schwellenwert überschreiten (Standard: 8K Zeichen), speichern Sie die vollständige Ausgabe automatisch in einer pro-Konversations-Workspace-Datei (
workspace://tool_result_xxx.txt) und geben Sie eine gekürzte Vorschau + Datei-URI an den Agent zurück. Drei neue integrierte Tools:read_workspace_file(path, start_line, end_line)für selektiven Zugriff,list_workspace_files()für Entdeckung undwrite_handoff(summary)für Kontextwechsel — Agent schreibt eine strukturierte HANDOFF-Notiz (Fortschritt, was funktioniert hat, was fehlgeschlagen ist, nächster Schritt), bevor Kontextkompression oder Sitzungswechsel stattfindet; die nächste Agent-Instanz liest sie, anstatt sich auf die Zusammenfassungsqualität des Kompressionsalgorithmus zu verlassen. Spiegelt Claudes Code-Workspace- und Handoff-Muster. Verhindert Aufmerksamkeitsverlust bei großen Ergebnismengen und eliminiert stille Datenverluste durch Kürzung. Minimale Änderung:truncate_tool_output()inMCPToolAdapterundConnectorToolAdaptererweitern, um in Workspace-Speicher zu schreiben. - Sandbox Hardening: v2-Verbesserungen der Code-Ausführungsisolation
- Performance Testing: Concurrent-Load-Benchmarks
- MCP Connection Pooling: Pro-Request STDIO-Subprocess-Spawning skaliert nicht — 100 gleichzeitige Benutzer = 100 Subprozesse pro MCP-Server. Pool STDIO-Verbindungen mit pro-Benutzer-Env-Isolation (gekennzeichnet durch
(server_id, env_hash)); SSE/HTTP-Transporte teilenhttpx.AsyncClient-Sitzungen. Ziel: Sub-100ms Warm-Start für gepoolte STDIO, O(1) HTTP-Verbindungen pro MCP-Server unabhängig von der Benutzeranzahl - Geplante Jobs + Event-getriggerte Agenten (Loop): Cron-ähnliche Background-Task-Trigger;
scheduled_jobs+job_runsDB-Tabellen; APScheduler-Integration; Job CRUD API + Job-Verlauf UI; Ergebnisbenachrichtigung über Message-Push-Connectoren. Der Umfang umfasst sowohl zeitgesteuerte (Cron) als auch ereignisgesteuerte (Webhook-Eingang) Muster — ein Agent, der asynchron im Hintergrund läuft, IST der Async-Sub-Agent-Anwendungsfall für Hub-Modus. - DB Schema Advanced Builder: KI-gesteuerte Schema-Management-Agent für großskalige Datenbanken — strategische Tabellenannotation (musterbasiert, SQL-Ausführungs-informiert), Bulk-Sichtbarkeitsverwaltung nach Domain-Präfix, iterative Multi-Round-Annotation für 1K–7K+ Tabellenbereitstellungen; ergänzt bestehenden Batch-Annotation-Job mit Selektivität und Business-Context-Reasoning
v1.0 — Hot-Plug + Embeddable
Ziel: Connector-Addition ohne Neustart und eingebettete Bereitstellung.- Connector Progressive Disclosure (Phase 5): Semantic-Guided Tool Selection (Entity-Extraktion aus Abfrage → Ontology Registry-Lookup → Connector-Set-Reduktion; 90%+ Token-Reduktion für 50+ Connector-Bereitstellungen); Scale-Modus für Batch-/ETL-Connectoren; CLI-ähnliche universelle
connector <name> <action> <params>Schnittstelle - Cross-Connector Entity Alignment (Ontology Registry): Definieren Sie gemeinsame Entity-Typen (Customer, Order, Asset) mit Feld-Mappings über Connectoren hinweg; DAGPlanner löst Cross-System JOIN-Schlüssel automatisch auf; ermöglicht Cross-Connector-Abfragen (z. B. „Kunden in Salesforce, die in Shopify bestellt haben”) ohne hartcodierte Feldnamen
- Hot-plug Connectoren: OpenAPI-Spec hochladen, KI generiert Konfiguration, live in 5 Minuten (kein Neustart)
- Connector-Marketplace: Von der Community geteilte Vorlagen
- Eingebettetes Widget:
<script src="fim-one.js">in Host-Seite injiziert - Page Context Injection: Widget liest Host-Seiten-Kontext (aktuelle ID, URL, DOM-Selektoren)
- Erweiterte Trigger: Webhook-Inbound-Events; Verbesserungen bei geplanten Jobs (Multi-Timezone, Kalender-bewusst)
- Batch-Ausführung: Verarbeitung von 1000+ Elementen über DAG
- Enterprise-Sicherheit: IP-Whitelisting, Verschlüsselung im Ruhezustand, SSO
- KB Advanced Editor: Builder-Mode-Agent für Power-User, die große Knowledge Bases verwalten — Massen-URL-Aufnahme, Duplikat-Erkennung, Gap-Analyse, Document-Lifecycle-Management; erweitert vorhandenen KB-KI-Chat mit ReAct-Tool-Loop
Gefrorene Funktionen (Ausgeliefert, nur Wartung)
Gemäß der Orthogonalitätsstrategie sind diese Funktionen ausgeliefert und funktionsfähig, erhalten aber keine neuen Funktionen (nur Fehlerbehebungen):| Funktion | Version | Grund für Einfrieren |
|---|---|---|
| ReAct-Agent | v0.1 | Modelle haben jetzt natives Tool-Calling |
| DAG-Planung / Neuplanung | v0.1, v0.5, v0.7.5 | Modell-Reasoning-Fähigkeiten verbessern sich; Zerlegung wird Single-Shot. Schritt-für-Schritt-Verifizierung in v0.7.5 ausgeliefert (DAG_STEP_VERIFICATION) — keine weiteren Planungs-Primitive geplant |
| Speicher (Fenster, Zusammenfassung, Kompakt) | v0.2, v0.5 | Kontextfenster wachsen (200K+); weniger Bedarf für externe Speicherverwaltung |
| RAG-Pipeline | v0.5 | Anbieter bauen Retrieval nativ ein (OpenAI file_search, Gemini Search Grounding) |
| Grounded Generation | v0.5 | Modelle verbessern sich bei Zitaten; 5-stufige Pipeline hat abnehmenden Nutzen |
| ContextGuard / Angeheftete Nachrichten | v0.5 | Wird wie vorhanden ausgeliefert; keine neuen Funktionen |
Überlegungen (Auf unbestimmte Zeit verschoben)
Gemäß der Orthogonalitätsstrategie würden diese einen hohen Aufwand erfordern und Absorptionsrisiken bergen:| Feature | Grund für Verschiebung |
|---|---|
| Multi-Agent-Orchestrierung (tiefe Hierarchien) | Anbieter bauen nativ (OpenAI Swarm, Claude Code Teams, Google A2A). FIM One’s CallAgentTool deckt den Fall der einstufigen Delegation ab; ereignisgesteuerte Hintergrund-Agenten werden durch Scheduled Jobs in v0.9 abgedeckt |
| Agent-Selbstmodifizierende Skills (Procedural Memory) | Agenten aktualisieren ihre eigene skill.md während der Ausführung — hohe Komplexität, Sicherheits-/Audit-Oberfläche. Abhängig davon, dass das Agent Skill System (v0.8) zuerst ausgeliefert wird. Neu bewerten, wenn Unternehmenskunden selbstverbessernde Agenten explizit anfordern |
| Befördert zu v0.9. Der Wert liegt beim selektiven Lesen, nicht bei der Kontextkapazität — Claude Code-Validierung bestätigt. Ursprüngliche Verschiebungsbegründung („200K+ Fenster reduzieren Dringlichkeit”) war falsch. | |
| Sitzungsübergreifendes Langzeitgedächtnis | Kontextfenster wachsen schnell (200K–2M); Anbieter fügen integriertes Gedächtnis hinzu (OpenAI memory, Gemini context caching); hohe Implementierungskosten vs. sinkender Differenzierungswert. Neu bewerten, wenn Unternehmenskunden es explizit anfordern |
| Memory Lifecycle (TTL, Kontingente) | Abhängig von sitzungsübergreifendem Gedächtnis; zusammen verschoben |
| Active Context Compression Tool (agent-ausgelöst) | Explizit eingefroren mit ContextGuard (v0.5). Kontextfenster bei 200K+ reduzieren den Wert. Wird nicht erneut überprüft, es sei denn, Kontextkosten werden zu einer großen Unternehmensbeschwerde |
Wie Versionen mit Modi übereinstimmen
| Version | Standalone | Copilot | Hub | Notizen |
|---|---|---|---|---|
| v0.1–v0.3 | Funktioniert | Noch nicht | Noch nicht | Nur Portal, einzelner Benutzer |
| v0.4 | Funktioniert | Noch nicht | Noch nicht | Multi-Konversation, Agent-Verwaltung |
| v0.5 | Funktioniert | Noch nicht | Noch nicht | Wissensdatenbank + RAG |
| v0.6 | Funktioniert | Möglich | Möglich | Konnektoren verfügbar; Copilot/Hub möglich mit manueller Verdrahtung |
| v0.7 | Funktioniert | Bereit | Bereit | Admin-Plattform; Multi-Tenant-Authentifizierung; produktionsreif |
| v0.8 | Funktioniert | Bereit | Optimiert | RBAC + Audit-Log pro System; einfacheres Onboarding |
| v0.9 | Funktioniert | Bereit | Produktion | Observability, Performance, Härtung |
| v1.0 | Funktioniert | Optimiert | Enterprise | Hot-Plug, Marketplace, geplante Jobs, Webhooks, Batch |
Ressourcenallokation (v0.8–v1.0)
Die Orthogonalitätsstrategie bestimmt, wohin die Anstrengungen fließen:| Kategorie | Allokation | Versionen | Grund |
|---|---|---|---|
| Connector-Plattform (v0.6+) | 50% | Laufend | Kernunterscheidungsmerkmal; kein Absorptionsrisiko |
| Enterprise-Funktionen (RBAC, Audit, Sicherheit, Observability) | 30% | v0.8–v1.0 | Langweilig, aber dauerhaft; Produktionsanforderung. Agent Trace Layer ist kommerzieller Anker |
| Agent-Intelligenz (Skill-System, geplante Agenten) | 15% | v0.8–v0.9 | 指令+工具+技能 Differenzierungsgeschichte; niedriges Absorptionsrisiko — Frameworks validieren Muster, aber Enterprise-SOPs sind kundenspezifisch |
| v0.1–v0.5 Wartung | 5% | Laufend | Nur Fehlerbehebungen; keine neuen Funktionen |
Metrik-gesteuerte Meilensteine
Der Erfolg wird gemessen durch:| Metrik | v0.7 Ziel | v0.8 Ziel | v1.0 Ziel |
|---|---|---|---|
| Bereitgestellte Konnektoren | 5 | 20+ | 100+ |
| Enterprise-Kunden | 1–2 | 5–10 | 20+ |
| Durchschnittliche Konnektor-Einrichtungszeit | 2 Wochen | 2 Tage | 5 Minuten (Hot-Plug) |
| Token-Effizienz (DAG vs ReAct-only) | 30% Reduktion | 40% Reduktion | 50% Reduktion |
| Uptime SLA | 99,5% | 99,9% | 99,95% |
| Support-Ticket-Themen | Integration, Einrichtung | Benutzerdefinierte Konnektor-Logik | Hot-Plug, Skalierung |
Offene Fragen / TBD
- Marketplace-Moderation: Wie können Community-Konnektoren validiert werden? (v1.0)
- Token-Ökonomie: Wie können Multi-User-, Multi-Agent-Szenarien bepreist werden? (v1.0)
- Telemetrie-Opt-out: Wie können Datenschutzpräferenzen berücksichtigt werden? (v0.8)
- Konnektor-Versionierung: Wie können Breaking Changes in Konnektor-APIs verwaltet werden? (v0.8)
- Rate Limiting: Pro Konnektor, pro Benutzer oder global? (v0.8)