Allgemein
Welche LLM-Anbieter werden unterstützt?
Welche LLM-Anbieter werden unterstützt?
FIM One funktioniert mit jedem OpenAI-kompatiblen LLM-Anbieter. Dies umfasst:Siehe das Quick Start-Handbuch für anbieterspezifische Beispiele.
- Kommerzielle APIs — OpenAI, DeepSeek, Anthropic (Claude), Alibaba Qwen, Google Gemini und alle Anbieter, die einen
/v1/chat/completions-Endpunkt bereitstellen. - Lokal/selbstgehostet — Ollama, vLLM, LocalAI, LM Studio und jede andere Laufzeit, die das OpenAI-kompatible API-Format bereitstellt.
.env:Kann ich lokale oder selbstgehostete Modelle verwenden?
Kann ich lokale oder selbstgehostete Modelle verwenden?
Ja. FIM One verbindet sich mit jedem Endpunkt, der das OpenAI-kompatible API-Format implementiert. Beliebte selbstgehostete Optionen sind:
Setzen Sie
| Laufzeit | Basis-URL | Beispielmodell |
|---|---|---|
| Ollama | http://localhost:11434/v1 | qwen2.5:14b |
| vLLM | http://localhost:8000/v1 | Qwen/Qwen2.5-72B-Instruct |
| LocalAI | http://localhost:8080/v1 | llama3 |
| LM Studio | http://localhost:1234/v1 | (whatever you load) |
LLM_API_KEY auf eine beliebige nicht-leere Zeichenkette (z. B. ollama), wenn der Anbieter keine Authentifizierung erfordert. Alle Agenten-Features — ReAct-Reasoning, DAG-Planung, Tool-Aufrufe — funktionieren identisch, unabhängig davon, ob das Modell lokal oder in der Cloud gehostet ist.Ist FIM One Open Source?
Ist FIM One Open Source?
FIM One wird unter einer Source Available License veröffentlicht. Dies ist keine OSI-genehmigte Open-Source-Lizenz, bietet aber umfangreiche Freiheiten für die meisten Anwendungsfälle:Erlaubt:
- Interne Nutzung innerhalb Ihrer Organisation
- Änderung und benutzerdefinierte Entwicklung
- Verteilung mit intakter Lizenz
- Einbettung in Ihre eigenen (nicht konkurrierenden) Anwendungen
- Multi-Tenant-SaaS-Angebote
- Konkurrierende Agenten-Plattformen
- White-Labeling oder Entfernung von Branding
Wie melde ich Sicherheitslücken?
Wie melde ich Sicherheitslücken?
Öffnen Sie KEIN öffentliches GitHub-Issue für sensible Sicherheitslücken.
- Sensible Berichte (Anmeldedaten-Exposure, Auth-Bypass, Injection usw.) — verwenden Sie GitHub Security Advisories oder senden Sie eine E-Mail an security@fim.ai.
- Probleme mit niedriger Schweregrad (fehlende Header, Informationsoffenlegung) — öffnen Sie ein reguläres GitHub-Issue mit dem Label
security.
Bereitstellung
Welche Systemanforderungen gibt es?
Welche Systemanforderungen gibt es?
Mindestanforderungen:
Empfohlen für Produktion:
Docker-Alternative: Docker 20+ und Docker Compose v2. Kein lokales Python oder Node.js erforderlich – alles wird im Container erstellt.
| Ressource | Anforderung |
|---|---|
| Python | 3.11+ |
| RAM | Mindestens 2 GB |
| Festplatte | 1 GB frei (plus Speicherplatz für hochgeladene Dokumente und Vektorspeicher) |
| Node.js | 18+ (für lokale Entwicklung) |
| Ressource | Empfehlung |
|---|---|
| RAM | 4 GB+ (besonders wenn Embedding-Modelle lokal ausgeführt werden) |
| CPU | 2+ Kerne |
| Datenbank | PostgreSQL für Multi-Worker-Bereitstellungen |
Funktioniert FIM One auf ARM / Apple Silicon?
Funktioniert FIM One auf ARM / Apple Silicon?
Ja. Sowohl Docker als auch die lokale Entwicklung funktionieren auf ARM-Architekturen, einschließlich Apple Silicon (M1/M2/M3/M4) Macs. Das Docker-Image wird nativ für
linux/arm64 erstellt, und alle Python- und Node.js-Abhängigkeiten haben ARM-kompatible Wheels oder Fallbacks.Welche Datenbanken werden unterstützt?
Welche Datenbanken werden unterstützt?
FIM One nutzt Datenbanken auf zwei unterschiedliche Arten:1. Interne Datenbank (FIM Ones eigene Daten):
Jeder Datenbank-Konnektor generiert automatisch drei Tools:
- SQLite – konfigurationsfreier Standard, ideal für Entwicklung und Single-Worker-Bereitstellungen.
- PostgreSQL – empfohlen für Produktion, erforderlich für Multi-Worker-Setups (
WORKERS > 1).
| Datenbank | Status |
|---|---|
| PostgreSQL | Unterstützt |
| MySQL | Unterstützt |
| Oracle | Unterstützt |
| SQL Server | Unterstützt |
| DM (Dameng) | Unterstützt |
| KingbaseES | Unterstützt |
| GBase | Unterstützt |
| Highgo | Unterstützt |
list_tables, describe_table und query. Schema-Introspection, KI-gestützte Annotation und schreibgeschützte Abfrageausführung sind standardmäßig enthalten.Können mehrere Benutzer dieselbe Instanz gemeinsam nutzen?
Können mehrere Benutzer dieselbe Instanz gemeinsam nutzen?
Ja. FIM One ist von Grund auf für Multi-Tenant-Bereitstellungen konzipiert:
- JWT-Authentifizierung – tokenbasierte Authentifizierung mit Sitzungsisolation pro Benutzer.
- Organisationsisolation – Ressourcen (Agenten, Konnektoren, Wissensdatenbanken) sind auf Organisationen beschränkt.
- Rollenbasierter Zugriff – Admin- und Benutzerrollen mit angemessenen Berechtigungsgrenzen.
- Ressourceneigentum – Konversationen und Konfigurationen sind pro Benutzer isoliert.
WORKERS auf Ihre erwartete Parallelität.Funktionen
Was ist der Unterschied zwischen ReAct und DAG-Modus?
Was ist der Unterschied zwischen ReAct und DAG-Modus?
FIM One bietet zwei Ausführungs-Engines, die jeweils für verschiedene Aufgabentypen geeignet sind:
Auto-Modus (Standard) verwendet einen schnellen LLM-Klassifizierer, um jede eingehende Abfrage zu analysieren und leitet sie automatisch an die optimale Engine weiter. Sie können den Modus auch manuell über den Drei-Wege-Schalter in der Chat-UI auswählen (Auto / Standard / Planner).Für einen tieferen Einblick siehe Execution Modes.
| ReAct (Standard) | DAG (Planner) | |
|---|---|---|
| Funktionsweise | Einzelne Reasoning-Schleife: Reason, Act, Observe, wiederholen | LLM zerlegt das Ziel in einen Abhängigkeitsgraph; unabhängige Schritte laufen parallel |
| Am besten geeignet für | Fokussierte Abfragen, Lookups in einzelnen Systemen, Konversationsaufgaben | Multi-Step-Aufgaben, systemübergreifende Orchestrierung, parallele Datenerfassung |
| Parallelität | Sequenziell (ein Tool nach dem anderen) | Gleichzeitig (unabhängige Schritte laufen gleichzeitig via asyncio) |
| Neuplanung | N/A | Bis zu 3 Runden automatischer Neuplanung, wenn Ziele nicht erreicht werden |
Wie füge ich einen neuen Connector hinzu?
Wie füge ich einen neuen Connector hinzu?
FIM One bietet drei Möglichkeiten zum Erstellen von Connectoren — ohne Python-Code erforderlich:1. OpenAPI-Spezifikation importieren — Laden Sie eine YAML-, JSON- oder URL-Datei hoch, die auf eine OpenAPI-Spezifikation verweist. FIM One analysiert die Spezifikation und generiert automatisch Connectoren mit allen Aktionen.2. AI Chat Builder — Beschreiben Sie die API, die Sie verbinden möchten, in natürlicher Sprache. Die KI generiert und iteriert die Connector-Konfiguration im Gespräch mit 10 spezialisierten Builder-Tools für Einstellungen, Aktionen, Tests und Agent-Verdrahtung.3. MCP-Protokoll — Verbinden Sie jeden MCP (Model Context Protocol) Server direkt. Das MCP-Ökosystem von Drittanbietern funktioniert sofort.Für Datenbank-Connectoren konfigurieren Sie die Verbindungsdetails (Host, Port, Anmeldedaten) und FIM One generiert automatisch Schema-Introspection und Query-Tools.Siehe die AI Builder Dokumentation und das Extension Guide für Schritt-für-Schritt-Anweisungen.
Kann ich FIM One in mein bestehendes System einbetten?
Kann ich FIM One in mein bestehendes System einbetten?
Ja. Der Copilot-Modus von FIM One ist speziell für die Einbettung in Host-Systeme konzipiert. Sie können ihn über folgende Methoden integrieren:
- iframe — Betten Sie die FIM One Chat-Oberfläche direkt in jede Webseite ein.
- Widget — Ein leichtes Chat-Widget, das sich über Ihre bestehende UI legt.
- API — Verwenden Sie das FastAPI-Backend direkt für vollständig benutzerdefinierte Integrationen.
Wie funktioniert das Übersetzungssystem?
Wie funktioniert das Übersetzungssystem?
FIM One unterstützt 6 Sprachen (Englisch, Chinesisch, Japanisch, Koreanisch, Deutsch, Französisch) mit einer vollständig automatisierten Übersetzungs-Pipeline:Um eine vollständige Neuübersetzung zu erzwingen:
- Bearbeiten Sie nur englische Quelldateien — UI-Strings in
frontend/messages/en/*.json, Dokumentation indocs/*.mdx(Root-Ebene) undREADME.md. - Auto-Übersetzung beim Commit — Ein Pre-Commit-Hook erkennt Änderungen an englischen Dateien und übersetzt sie über das Fast LLM des Projekts. Übersetzungen sind inkrementell: nur neue, geänderte oder gelöschte Inhalte werden verarbeitet.
- Bearbeiten Sie übersetzte Dateien niemals manuell — Dateien in
messages/zh/,messages/ja/,docs/zh/,docs/ja/usw. werden alle automatisch generiert und überschrieben.
Beitragen
Wie kann ich zu FIM One beitragen?
Wie kann ich zu FIM One beitragen?
FIM One freut sich über Beiträge aller Art — Code, Dokumentation, Übersetzungen, Fehlerberichte und Funktionsideen.Erste Schritte:
- Lesen Sie das Contributing Guide für Setupanweisungen, Codierungskonventionen und den PR-Prozess.
- Durchsuchen Sie Good First Issues nach kuratierten Aufgaben, die für Anfänger geeignet sind.
- Überprüfen Sie Open Issues auf Fehler und Funktionsanfragen.
Was ist der Tech Stack?
Was ist der Tech Stack?
| Schicht | Technologie |
|---|---|
| Backend | Python 3.11+, FastAPI, SQLAlchemy, Alembic, asyncio |
| Frontend | Next.js, React, TypeScript, Tailwind CSS, shadcn/ui |
| LLM-Integration | OpenAI-kompatible API (anbieterunabhängig) |
| Vektorsuche | LanceDB + Jina embeddings |
| Datenbank | SQLite (Entwicklung) / PostgreSQL (Produktion) |
| Paketmanager | uv (Python), pnpm (Node.js) |
| Bereitstellung | Docker Compose, Single-Process-Skript |
Wo kann ich Hilfe bekommen?
Wo kann ich Hilfe bekommen?
- Dokumentation — Sie sind hier. Durchsuchen Sie die Abschnitte Guides, Concepts und Configuration.
- Discord — Treten Sie dem FIM One Discord bei, um Echtzeitunterstützung und Community-Diskussionen zu erhalten.
- GitHub Issues — Melden Sie Fehler und Funktionsanfragen auf GitHub.
- Twitter/X — Folgen Sie @FIM_One für Updates und Ankündigungen.