Documentation Index
Fetch the complete documentation index at: https://docs.fim.ai/llms.txt
Use this file to discover all available pages before exploring further.
Allgemein
Welche LLM-Anbieter werden unterstützt?
Welche LLM-Anbieter werden unterstützt?
- Kommerzielle APIs — OpenAI, DeepSeek, Anthropic (Claude), Alibaba Qwen, Google Gemini und alle Anbieter, die einen
/v1/chat/completions-Endpunkt bereitstellen. - Lokal/selbstgehostet — Ollama, vLLM, LocalAI, LM Studio und jede andere Laufzeit, die das OpenAI-kompatible API-Format bereitstellt.
.env:Kann ich lokale oder selbstgehostete Modelle verwenden?
Kann ich lokale oder selbstgehostete Modelle verwenden?
| Laufzeit | Basis-URL | Beispielmodell |
|---|---|---|
| Ollama | http://localhost:11434/v1 | qwen2.5:14b |
| vLLM | http://localhost:8000/v1 | Qwen/Qwen2.5-72B-Instruct |
| LocalAI | http://localhost:8080/v1 | llama3 |
| LM Studio | http://localhost:1234/v1 | (whatever you load) |
LLM_API_KEY auf eine beliebige nicht-leere Zeichenkette (z. B. ollama), wenn der Anbieter keine Authentifizierung erfordert. Alle Agenten-Features — ReAct-Reasoning, DAG-Planung, Tool-Aufrufe — funktionieren identisch, unabhängig davon, ob das Modell lokal oder in der Cloud gehostet ist.Ist FIM One Open Source?
Ist FIM One Open Source?
- Interne Nutzung innerhalb Ihrer Organisation
- Änderung und benutzerdefinierte Entwicklung
- Verteilung mit intakter Lizenz
- Einbettung in Ihre eigenen (nicht konkurrierenden) Anwendungen
- Multi-Tenant-SaaS-Angebote
- Konkurrierende Agenten-Plattformen
- White-Labeling oder Entfernung von Branding
Wie melde ich Sicherheitslücken?
Wie melde ich Sicherheitslücken?
- Sensible Berichte (Anmeldedaten-Exposure, Auth-Bypass, Injection usw.) — verwenden Sie GitHub Security Advisories oder senden Sie eine E-Mail an security@fim.ai.
- Probleme mit niedriger Schweregrad (fehlende Header, Informationsoffenlegung) — öffnen Sie ein reguläres GitHub-Issue mit dem Label
security.
Bereitstellung
Welche Systemanforderungen gibt es?
Welche Systemanforderungen gibt es?
| Ressource | Anforderung |
|---|---|
| Python | 3.11+ |
| RAM | Mindestens 2 GB |
| Festplatte | 1 GB frei (plus Speicherplatz für hochgeladene Dokumente und Vektorspeicher) |
| Node.js | 18+ (für lokale Entwicklung) |
| Ressource | Empfehlung |
|---|---|
| RAM | 4 GB+ (besonders wenn Embedding-Modelle lokal ausgeführt werden) |
| CPU | 2+ Kerne |
| Datenbank | PostgreSQL für Multi-Worker-Bereitstellungen |
Funktioniert FIM One auf ARM / Apple Silicon?
Funktioniert FIM One auf ARM / Apple Silicon?
linux/arm64 erstellt, und alle Python- und Node.js-Abhängigkeiten haben ARM-kompatible Wheels oder Fallbacks.Welche Datenbanken werden unterstützt?
Welche Datenbanken werden unterstützt?
- SQLite – konfigurationsfreier Standard, ideal für Entwicklung und Single-Worker-Bereitstellungen.
- PostgreSQL – empfohlen für Produktion, erforderlich für Multi-Worker-Setups (
WORKERS > 1).
| Datenbank | Status |
|---|---|
| PostgreSQL | Unterstützt |
| MySQL | Unterstützt |
| Oracle | Unterstützt |
| SQL Server | Unterstützt |
| DM (Dameng) | Unterstützt |
| KingbaseES | Unterstützt |
| GBase | Unterstützt |
| Highgo | Unterstützt |
list_tables, describe_table und query. Schema-Introspection, KI-gestützte Annotation und schreibgeschützte Abfrageausführung sind standardmäßig enthalten.Können mehrere Benutzer dieselbe Instanz gemeinsam nutzen?
Können mehrere Benutzer dieselbe Instanz gemeinsam nutzen?
- JWT-Authentifizierung – tokenbasierte Authentifizierung mit Sitzungsisolation pro Benutzer.
- Organisationsisolation – Ressourcen (Agenten, Konnektoren, Wissensdatenbanken) sind auf Organisationen beschränkt.
- Rollenbasierter Zugriff – Admin- und Benutzerrollen mit angemessenen Berechtigungsgrenzen.
- Ressourceneigentum – Konversationen und Konfigurationen sind pro Benutzer isoliert.
WORKERS auf Ihre erwartete Parallelität.Funktionen
Was ist der Unterschied zwischen ReAct und DAG-Modus?
Was ist der Unterschied zwischen ReAct und DAG-Modus?
| ReAct (Standard) | DAG (Planner) | |
|---|---|---|
| Funktionsweise | Einzelne Reasoning-Schleife: Reason, Act, Observe, wiederholen | LLM zerlegt das Ziel in einen Abhängigkeitsgraph; unabhängige Schritte laufen parallel |
| Am besten geeignet für | Fokussierte Abfragen, Lookups in einzelnen Systemen, Konversationsaufgaben | Multi-Step-Aufgaben, systemübergreifende Orchestrierung, parallele Datenerfassung |
| Parallelität | Sequenziell (ein Tool nach dem anderen) | Gleichzeitig (unabhängige Schritte laufen gleichzeitig via asyncio) |
| Neuplanung | N/A | Bis zu 3 Runden automatischer Neuplanung, wenn Ziele nicht erreicht werden |
Wie füge ich einen neuen Connector hinzu?
Wie füge ich einen neuen Connector hinzu?
Kann ich FIM One in mein bestehendes System einbetten?
Kann ich FIM One in mein bestehendes System einbetten?
- iframe — Betten Sie die FIM One Chat-Oberfläche direkt in jede Webseite ein.
- Widget — Ein leichtes Chat-Widget, das sich über Ihre bestehende UI legt.
- API — Verwenden Sie das FastAPI-Backend direkt für vollständig benutzerdefinierte Integrationen.
Wie funktioniert das Übersetzungssystem?
Wie funktioniert das Übersetzungssystem?
- Bearbeiten Sie nur englische Quelldateien — UI-Strings in
frontend/messages/en/*.json, Dokumentation indocs/*.mdx(Root-Ebene) undREADME.md. - Auto-Übersetzung beim Commit — Ein Pre-Commit-Hook erkennt Änderungen an englischen Dateien und übersetzt sie über das Fast LLM des Projekts. Übersetzungen sind inkrementell: nur neue, geänderte oder gelöschte Inhalte werden verarbeitet.
- Bearbeiten Sie übersetzte Dateien niemals manuell — Dateien in
messages/zh/,messages/ja/,docs/zh/,docs/ja/usw. werden alle automatisch generiert und überschrieben.
Beitragen
Wie kann ich zu FIM One beitragen?
Wie kann ich zu FIM One beitragen?
- Lesen Sie das Contributing Guide für Setupanweisungen, Codierungskonventionen und den PR-Prozess.
- Durchsuchen Sie Good First Issues nach kuratierten Aufgaben, die für Anfänger geeignet sind.
- Überprüfen Sie Open Issues auf Fehler und Funktionsanfragen.
Was ist der Tech Stack?
Was ist der Tech Stack?
| Schicht | Technologie |
|---|---|
| Backend | Python 3.11+, FastAPI, SQLAlchemy, Alembic, asyncio |
| Frontend | Next.js, React, TypeScript, Tailwind CSS, shadcn/ui |
| LLM-Integration | OpenAI-kompatible API (anbieterunabhängig) |
| Vektorsuche | LanceDB + Jina embeddings |
| Datenbank | SQLite (Entwicklung) / PostgreSQL (Produktion) |
| Paketmanager | uv (Python), pnpm (Node.js) |
| Bereitstellung | Docker Compose, Single-Process-Skript |
Wo kann ich Hilfe bekommen?
Wo kann ich Hilfe bekommen?
- Dokumentation — Sie sind hier. Durchsuchen Sie die Abschnitte Guides, Concepts und Configuration.
- Discord — Treten Sie dem FIM One Discord bei, um Echtzeitunterstützung und Community-Diskussionen zu erhalten.
- GitHub Issues — Melden Sie Fehler und Funktionsanfragen auf GitHub.
- Twitter/X — Folgen Sie @FIM_One für Updates und Ankündigungen.