Zum Hauptinhalt springen

Allgemein

FIM One funktioniert mit jedem OpenAI-kompatiblen LLM-Anbieter. Dies umfasst:
  • Kommerzielle APIs — OpenAI, DeepSeek, Anthropic (Claude), Alibaba Qwen, Google Gemini und alle Anbieter, die einen /v1/chat/completions-Endpunkt bereitstellen.
  • Lokal/selbstgehostet — Ollama, vLLM, LocalAI, LM Studio und jede andere Laufzeit, die das OpenAI-kompatible API-Format bereitstellt.
Sie konfigurieren Ihren Anbieter über drei Umgebungsvariablen in .env:
LLM_API_KEY=sk-your-key
LLM_BASE_URL=https://api.openai.com/v1   # change for other providers
LLM_MODEL=gpt-4o                         # change for other models
Siehe das Quick Start-Handbuch für anbieterspezifische Beispiele.
Ja. FIM One verbindet sich mit jedem Endpunkt, der das OpenAI-kompatible API-Format implementiert. Beliebte selbstgehostete Optionen sind:
LaufzeitBasis-URLBeispielmodell
Ollamahttp://localhost:11434/v1qwen2.5:14b
vLLMhttp://localhost:8000/v1Qwen/Qwen2.5-72B-Instruct
LocalAIhttp://localhost:8080/v1llama3
LM Studiohttp://localhost:1234/v1(whatever you load)
Setzen Sie LLM_API_KEY auf eine beliebige nicht-leere Zeichenkette (z. B. ollama), wenn der Anbieter keine Authentifizierung erfordert. Alle Agenten-Features — ReAct-Reasoning, DAG-Planung, Tool-Aufrufe — funktionieren identisch, unabhängig davon, ob das Modell lokal oder in der Cloud gehostet ist.
FIM One wird unter einer Source Available License veröffentlicht. Dies ist keine OSI-genehmigte Open-Source-Lizenz, bietet aber umfangreiche Freiheiten für die meisten Anwendungsfälle:Erlaubt:
  • Interne Nutzung innerhalb Ihrer Organisation
  • Änderung und benutzerdefinierte Entwicklung
  • Verteilung mit intakter Lizenz
  • Einbettung in Ihre eigenen (nicht konkurrierenden) Anwendungen
Eingeschränkt:
  • Multi-Tenant-SaaS-Angebote
  • Konkurrierende Agenten-Plattformen
  • White-Labeling oder Entfernung von Branding
Für kommerzielle Lizenzanfragen öffnen Sie bitte ein Issue auf GitHub. Siehe die vollständige LICENSE für vollständige Bedingungen.
Öffnen Sie KEIN öffentliches GitHub-Issue für sensible Sicherheitslücken.
  • Sensible Berichte (Anmeldedaten-Exposure, Auth-Bypass, Injection usw.) — verwenden Sie GitHub Security Advisories oder senden Sie eine E-Mail an security@fim.ai.
  • Probleme mit niedriger Schweregrad (fehlende Header, Informationsoffenlegung) — öffnen Sie ein reguläres GitHub-Issue mit dem Label security.
Alle Berichte werden innerhalb von 48 Stunden (Geschäftstage) bestätigt. Kritische Probleme werden so schnell wie möglich behoben; andere werden mit der nächsten Version ausgeliefert.Siehe die vollständige Security Policy für Umfang, Reaktionszeitpläne und Best Practices für selbstgehostete Systeme.

Bereitstellung

Mindestanforderungen:
RessourceAnforderung
Python3.11+
RAMMindestens 2 GB
Festplatte1 GB frei (plus Speicherplatz für hochgeladene Dokumente und Vektorspeicher)
Node.js18+ (für lokale Entwicklung)
Empfohlen für Produktion:
RessourceEmpfehlung
RAM4 GB+ (besonders wenn Embedding-Modelle lokal ausgeführt werden)
CPU2+ Kerne
DatenbankPostgreSQL für Multi-Worker-Bereitstellungen
Docker-Alternative: Docker 20+ und Docker Compose v2. Kein lokales Python oder Node.js erforderlich – alles wird im Container erstellt.
Ja. Sowohl Docker als auch die lokale Entwicklung funktionieren auf ARM-Architekturen, einschließlich Apple Silicon (M1/M2/M3/M4) Macs. Das Docker-Image wird nativ für linux/arm64 erstellt, und alle Python- und Node.js-Abhängigkeiten haben ARM-kompatible Wheels oder Fallbacks.
FIM One nutzt Datenbanken auf zwei unterschiedliche Arten:1. Interne Datenbank (FIM Ones eigene Daten):
  • SQLite – konfigurationsfreier Standard, ideal für Entwicklung und Single-Worker-Bereitstellungen.
  • PostgreSQL – empfohlen für Produktion, erforderlich für Multi-Worker-Setups (WORKERS > 1).
2. Connector-Ziele (Systeme, mit denen Sie sich verbinden):FIM One kann sich über Datenbank-Konnektoren mit externen Datenbanken als Datenquellen verbinden:
DatenbankStatus
PostgreSQLUnterstützt
MySQLUnterstützt
OracleUnterstützt
SQL ServerUnterstützt
DM (Dameng)Unterstützt
KingbaseESUnterstützt
GBaseUnterstützt
HighgoUnterstützt
Jeder Datenbank-Konnektor generiert automatisch drei Tools: list_tables, describe_table und query. Schema-Introspection, KI-gestützte Annotation und schreibgeschützte Abfrageausführung sind standardmäßig enthalten.
Ja. FIM One ist von Grund auf für Multi-Tenant-Bereitstellungen konzipiert:
  • JWT-Authentifizierung – tokenbasierte Authentifizierung mit Sitzungsisolation pro Benutzer.
  • Organisationsisolation – Ressourcen (Agenten, Konnektoren, Wissensdatenbanken) sind auf Organisationen beschränkt.
  • Rollenbasierter Zugriff – Admin- und Benutzerrollen mit angemessenen Berechtigungsgrenzen.
  • Ressourceneigentum – Konversationen und Konfigurationen sind pro Benutzer isoliert.
Verwenden Sie für Multi-User-Produktionsbereitstellungen PostgreSQL als interne Datenbank und setzen Sie WORKERS auf Ihre erwartete Parallelität.

Funktionen

FIM One bietet zwei Ausführungs-Engines, die jeweils für verschiedene Aufgabentypen geeignet sind:
ReAct (Standard)DAG (Planner)
FunktionsweiseEinzelne Reasoning-Schleife: Reason, Act, Observe, wiederholenLLM zerlegt das Ziel in einen Abhängigkeitsgraph; unabhängige Schritte laufen parallel
Am besten geeignet fürFokussierte Abfragen, Lookups in einzelnen Systemen, KonversationsaufgabenMulti-Step-Aufgaben, systemübergreifende Orchestrierung, parallele Datenerfassung
ParallelitätSequenziell (ein Tool nach dem anderen)Gleichzeitig (unabhängige Schritte laufen gleichzeitig via asyncio)
NeuplanungN/ABis zu 3 Runden automatischer Neuplanung, wenn Ziele nicht erreicht werden
Auto-Modus (Standard) verwendet einen schnellen LLM-Klassifizierer, um jede eingehende Abfrage zu analysieren und leitet sie automatisch an die optimale Engine weiter. Sie können den Modus auch manuell über den Drei-Wege-Schalter in der Chat-UI auswählen (Auto / Standard / Planner).Für einen tieferen Einblick siehe Execution Modes.
FIM One bietet drei Möglichkeiten zum Erstellen von Connectoren — ohne Python-Code erforderlich:1. OpenAPI-Spezifikation importieren — Laden Sie eine YAML-, JSON- oder URL-Datei hoch, die auf eine OpenAPI-Spezifikation verweist. FIM One analysiert die Spezifikation und generiert automatisch Connectoren mit allen Aktionen.2. AI Chat Builder — Beschreiben Sie die API, die Sie verbinden möchten, in natürlicher Sprache. Die KI generiert und iteriert die Connector-Konfiguration im Gespräch mit 10 spezialisierten Builder-Tools für Einstellungen, Aktionen, Tests und Agent-Verdrahtung.3. MCP-Protokoll — Verbinden Sie jeden MCP (Model Context Protocol) Server direkt. Das MCP-Ökosystem von Drittanbietern funktioniert sofort.Für Datenbank-Connectoren konfigurieren Sie die Verbindungsdetails (Host, Port, Anmeldedaten) und FIM One generiert automatisch Schema-Introspection und Query-Tools.Siehe die AI Builder Dokumentation und das Extension Guide für Schritt-für-Schritt-Anweisungen.
Ja. Der Copilot-Modus von FIM One ist speziell für die Einbettung in Host-Systeme konzipiert. Sie können ihn über folgende Methoden integrieren:
  • iframe — Betten Sie die FIM One Chat-Oberfläche direkt in jede Webseite ein.
  • Widget — Ein leichtes Chat-Widget, das sich über Ihre bestehende UI legt.
  • API — Verwenden Sie das FastAPI-Backend direkt für vollständig benutzerdefinierte Integrationen.
Im Copilot-Modus arbeitet die KI neben Benutzern in ihrer vertrauten Oberfläche — fragt Daten ab, generiert Berichte und orchestriert Aktionen, ohne Benutzer zum Wechsel von Anwendungen zu zwingen.Siehe Execution Modes für Konfigurationsdetails zu den Liefermodi Standalone, Copilot und Hub.
FIM One unterstützt 6 Sprachen (Englisch, Chinesisch, Japanisch, Koreanisch, Deutsch, Französisch) mit einer vollständig automatisierten Übersetzungs-Pipeline:
  1. Bearbeiten Sie nur englische Quelldateien — UI-Strings in frontend/messages/en/*.json, Dokumentation in docs/*.mdx (Root-Ebene) und README.md.
  2. Auto-Übersetzung beim Commit — Ein Pre-Commit-Hook erkennt Änderungen an englischen Dateien und übersetzt sie über das Fast LLM des Projekts. Übersetzungen sind inkrementell: nur neue, geänderte oder gelöschte Inhalte werden verarbeitet.
  3. Bearbeiten Sie übersetzte Dateien niemals manuell — Dateien in messages/zh/, messages/ja/, docs/zh/, docs/ja/ usw. werden alle automatisch generiert und überschrieben.
Um den Übersetzungs-Hook nach dem Klonen einzurichten:
bash scripts/setup-hooks.sh
Um eine vollständige Neuübersetzung zu erzwingen:
uv run scripts/translate.py --all

Beitragen

FIM One freut sich über Beiträge aller Art — Code, Dokumentation, Übersetzungen, Fehlerberichte und Funktionsideen.Erste Schritte:
  1. Lesen Sie das Contributing Guide für Setupanweisungen, Codierungskonventionen und den PR-Prozess.
  2. Durchsuchen Sie Good First Issues nach kuratierten Aufgaben, die für Anfänger geeignet sind.
  3. Überprüfen Sie Open Issues auf Fehler und Funktionsanfragen.
Pioneer Program: Die ersten 100 Mitwirkenden, deren PR zusammengeführt wird, werden als Founding Contributors mit permanenten Credits, einem Profilabzeichen und prioritärer Issue-Unterstützung anerkannt.
SchichtTechnologie
BackendPython 3.11+, FastAPI, SQLAlchemy, Alembic, asyncio
FrontendNext.js, React, TypeScript, Tailwind CSS, shadcn/ui
LLM-IntegrationOpenAI-kompatible API (anbieterunabhängig)
VektorsucheLanceDB + Jina embeddings
DatenbankSQLite (Entwicklung) / PostgreSQL (Produktion)
Paketmanageruv (Python), pnpm (Node.js)
BereitstellungDocker Compose, Single-Process-Skript
Die Codebasis folgt einer asynchronen, protokollgesteuerten Architektur ohne Vendor Lock-in.
  • Dokumentation — Sie sind hier. Durchsuchen Sie die Abschnitte Guides, Concepts und Configuration.
  • Discord — Treten Sie dem FIM One Discord bei, um Echtzeitunterstützung und Community-Diskussionen zu erhalten.
  • GitHub Issues — Melden Sie Fehler und Funktionsanfragen auf GitHub.
  • Twitter/X — Folgen Sie @FIM_One für Updates und Ankündigungen.