Architektur: Provider, Modell, Gruppe
FIM One organisiert die LLM-Konfiguration in drei Ebenen:| Ebene | Was es darstellt | Beispiel |
|---|---|---|
| Provider | Ein Satz gemeinsamer Anmeldedaten (API-Schlüssel + Basis-URL). Ein Provider kann viele Modelle hosten. | ”Mein OpenAI-Konto”, “Company Bedrock Relay” |
| Modell | Ein einzelnes Modell unter einem Provider. Hat seinen eigenen Anzeigenamen, API-Modellbezeichner und erweiterte Einstellungen. | ”GPT-4o”, “Claude Sonnet 4.6” |
| Modellgruppe | Eine benannte Voreinstellung, die Modelle Rollen zuweist (Allgemein / Schnell / Reasoning). Das Aktivieren einer Gruppe wechselt alle Rollen auf einmal. | ”Production (OpenAI)”, “Budget (DeepSeek)“ |
Anbieter hinzufügen
Öffnen Sie die Seite Modelle
Navigieren Sie zu Admin (Seitenleiste) und wählen Sie die Registerkarte Modelle aus.
Klicken Sie auf Anbieter hinzufügen
Klicken Sie auf die Schaltfläche Anbieter hinzufügen im oberen rechten Bereich des Abschnitts ‘Anbieter”.
Wählen Sie eine Voreinstellung oder verwenden Sie einen benutzerdefinierten Endpunkt
Das Dialogfeld zeigt Voreinstellungsschaltflächen für gängige Anbieter: OpenAI, Anthropic (Claude), Google Gemini, DeepSeek, Mistral AI und OpenAI Compatible (benutzerdefinierter Endpunkt). Durch Klicken auf eine Voreinstellung werden der Anbieter-Name und die Basis-URL automatisch ausgefüllt.Wählen Sie OpenAI Compatible, wenn Ihr Anbieter nicht aufgelistet ist (z. B. ein Drittanbieter-Relay, Ollama oder ein anderer OpenAI-kompatibler Endpunkt).
Geben Sie Anmeldedaten ein
Füllen Sie die erforderlichen Felder aus:
- Anbieter-Name – Eine benutzerfreundliche Bezeichnung (z. B. ‘Mein OpenAI-Konto”). Dies dient nur als Referenz für Sie.
- Basis-URL – Der API-Endpunkt. Voreinstellungen füllen dies automatisch aus. Geben Sie für benutzerdefinierte Endpunkte die vollständige URL ein (z. B.
http://localhost:11434/v1für Ollama). - API-Schlüssel – Der API-Schlüssel Ihres Anbieters. Geben Sie für lokale Modelle (Ollama) eine beliebige nicht-leere Zeichenkette ein (z. B.
ollama).
Ein Modell hinzufügen
Einen Anbieter erweitern
Klicken Sie auf der Seite ‘Modelle” auf das Chevron neben einem vorhandenen Anbieter, um ihn zu erweitern und seine Modelle anzuzeigen.
Klicken Sie auf Modell hinzufügen
Klicken Sie auf die Schaltfläche Modell hinzufügen, die unter dem erweiterten Anbieter angezeigt wird.
Modelldetails eingeben
Füllen Sie die zwei erforderlichen Felder aus:
- Anzeigename — Ein benutzerfreundlicher Name, der in der Benutzeroberfläche angezeigt wird (z. B. ‘GPT-4o”, ‘Claude Sonnet”). Kann beliebig sein.
- Modellname (API) — Der genaue Modellbezeichner, der an die API gesendet wird (z. B.
gpt-4o,claude-sonnet-4-6,deepseek-chat). Dies muss dem entsprechen, was Ihr Anbieter erwartet.
Erweiterte Einstellungen konfigurieren (optional)
Klicken Sie auf den Schalter Erweitert, um zusätzliche Einstellungen anzuzeigen: Max. Ausgabe-Token, Kontextgröße, Temperatur, Native Funktionsaufrufe und JSON-Modus. Weitere Informationen zu den einzelnen Einstellungen finden Sie im Abschnitt Erweiterte Einstellungen unten.
Erweiterte Einstellungen
Jedes Modell verfügt über erweiterte Einstellungen, die steuern, wie FIM One mit der API des Anbieters für die Extraktion strukturierter Ausgaben interagiert. Diese Einstellungen finden Sie unter dem Umschalter Erweitert im Dialog zum Erstellen/Bearbeiten von Modellen.Native Funktionsaufrufe
Einstellungsname: Native Function Calling (gespeichert alstool_choice_enabled)
Standard: AN
Steuert, ob FIM One erzwungenes tool_choice für die Extraktion strukturierter Ausgaben verwendet. Dies ist Stufe 1 in der Degradationskette für strukturierte Ausgaben — die zuverlässigste Methode, wenn das Modell sie unterstützt.
Wann deaktivieren:
- Ihr Modell gibt Fehler wie
"tool_choice 'specified' is incompatible with thinking enabled"zurück — häufig bei Modellen mit immer aktiviertem Denken (DeepSeek R1, Kimi K2.5) - Anfragen für strukturierte Ausgaben sind konsistent langsam mit einer ~10-Sekunden-Strafe pro Aufruf, gefolgt von einem Fallback zu JSON Mode
tool_choice="auto", das mit allen Modellen unabhängig von dieser Einstellung funktioniert.
Diese Einstellung betrifft nur erzwungene Werkzeugauswahl, die für die Extraktion strukturierter Ausgaben verwendet wird (DAG-Planung, Schema-Annotation). Sie betrifft nicht den ReAct-Agenten, der frei entscheidet, wann Werkzeuge mit
tool_choice="auto" aufgerufen werden.JSON Mode
Einstellungsname: JSON Mode (gespeichert alsjson_mode_enabled)
Standard: AN
Steuert, ob FIM One response_format=json_object für strukturierte Ausgaben verwendet. Dies ist Level 2 in der Degradationskette.
Wann deaktivieren:
- Ihr Provider lehnt Assistant Message Prefill ab — hauptsächlich AWS Bedrock Relays, die
"This model does not support assistant message prefill"werfen
Temperatur
Standard: 0.7 (geerbt von der globalen Einstellung, wenn nicht festgelegt) Steuert die Zufälligkeit der Modellausgabe. Bereich: 0 (deterministisch) bis 2 (hochkreativ).Wenn Reasoning/Extended Thinking für Anthropic-Modelle aktiviert ist, wird die Temperatur vom System automatisch auf 1.0 erzwungen. Sie müssen dies nicht manuell festlegen.
Max Output Tokens
Die maximale Anzahl von Tokens, die das Modell in einer einzelnen Antwort generieren kann. Lassen Sie dieses Feld leer, um den Systemstandard (64.000) zu verwenden. Für lokale Modelle mit begrenztem VRAM sollten Sie diesen Wert explizit auf einen niedrigeren Wert setzen (z. B. 8192).Kontextfenstergröße
Die Größe des Kontextfensters des Modells in Token. Lassen Sie dieses Feld leer, um den Systemstandard (128.000) zu verwenden. Stellen Sie diesen Wert so ein, dass er der tatsächlichen Kapazität Ihres Modells entspricht – bei lokalen Modellen liegt dieser Wert je nach Modell und verfügbarem Speicher oft zwischen 4K und 32K.Empfohlene Konfiguration
Die meisten Modelle funktionieren mit den Standardeinstellungen korrekt (beide Schalter AN). Passen Sie die Einstellungen nur an, wenn Sie auf Fehler oder unnötige Latenz stoßen. Die folgende Tabelle behandelt häufige Anbieter und Modelle. Daten stammen aus UniAPI-Funktionsetiketten und wurden gegen das Laufzeitverhalten vom 2026-03-22 verifiziert. Modellfunktionen ändern sich häufig – wenn Sie auf Fehler stoßen, überprüfen Sie die neueste Dokumentation Ihres Anbieters.Schnellregeln
- Native FC AN für Modelle mit Funktionsaufrufen-Unterstützung (die meisten modernen Modelle)
- Native FC AUS für Modelle mit ständiger Denkfunktion, die erzwungene
tool_choiceablehnen - JSON Mode AN für die meisten Modelle (sichere Standardeinstellung)
- JSON Mode AUS nur für AWS Bedrock-Relays (Prefill-Ablehnung)
Pro-Anbieter-Konfigurationsmatrix
OpenAI| Modell | Rolle | Kontext | Max. Ausgabe | Native FC | JSON-Modus | Hinweise |
|---|---|---|---|---|---|---|
gpt-5.4 | Allgemein | 1.050K | 128K | AN | AN | Funktionsaufrufe + strukturierte Ausgabe + Reasoning |
gpt-5.4-mini | Schnell | 400K | 128K | AN | AN | Funktionsaufrufe + strukturierte Ausgabe + Reasoning |
o3-pro | Reasoning | 200K | 100K | AN | AN | Reasoning-Modell; FC funktioniert mit automatisch deaktiviertem Denken |
| Modell | Rolle | Kontext | Max. Ausgabe | Native FC | JSON-Modus | Hinweise |
|---|---|---|---|---|---|---|
claude-sonnet-4-6 | Allgemein | 1.000K | 64K | AN | AN | Funktionsaufrufe + Reasoning; Denken automatisch deaktiviert für FC |
claude-haiku-4-5 | Schnell | 200K | 64K | AN | AN | Funktionsaufrufe unterstützt |
claude-opus-4-6 | Reasoning | 1.000K | 128K | AN | AN | Funktionsaufrufe + Reasoning; Denken automatisch deaktiviert für FC |
| Modell | Rolle | Kontext | Max. Ausgabe | Native FC | JSON-Modus | Hinweise |
|---|---|---|---|---|---|---|
gemini-3.1-pro-preview | Allgemein | 1.048K | 65K | AN | AN | Neueste Vorschau; Nachfolger des veralteten gemini-3-pro-preview |
gemini-2.5-pro | Schnell | 1.048K | 65K | AN | AN | Stabiles GA; produktionsreif |
gemini-3.1-pro-preview | Reasoning | 1.048K | 65K | AN | AN | Thinking-Unterstützung mit konfigurierbarem thinking_level |
| Modell | Rolle | Kontext | Max. Ausgabe | Native FC | JSON-Modus | Hinweise |
|---|---|---|---|---|---|---|
deepseek-chat | Allgemein | 128K | 8K | AN | AN | V3.2 Non-Thinking-Modus; FC + JSON-Modus unterstützt |
deepseek-chat | Schnell | 128K | 8K | AN | AN | Gleiches Modell wie Allgemein; nur zwei offizielle API-Modell-IDs vorhanden |
deepseek-reasoner | Reasoning | 128K | 64K | AUS | AN | Thinking immer aktiviert; erzwungene tool_choice abgelehnt; 64K einschließlich CoT |
| Modell | Rolle | Kontext | Max. Ausgabe | Native FC | JSON-Modus | Hinweise |
|---|---|---|---|---|---|---|
grok-4-1-fast-non-reasoning | Allgemein | 2.000K | 30K | AN | AN | Funktionsaufrufe + strukturierte Ausgabe |
grok-3-mini-fast | Schnell | 131K | 131K | AN | AN | Funktionsaufrufe + strukturierte Ausgabe + Reasoning; 131K ist gemeinsames Kontextbudget |
grok-4-1-fast-reasoning | Reasoning | 2.000K | 30K | AN | AN | Funktionsaufrufe + strukturierte Ausgabe + Reasoning |
| Modell | Rolle | Kontext | Max. Ausgabe | Native FC | JSON-Modus | Hinweise |
|---|---|---|---|---|---|---|
qwen3.5-plus | Allgemein | 1.000K | 64K | AN | AN | Funktionsaufrufe + strukturierte Ausgabe |
qwen-turbo-latest | Schnell | 1.000K | 16K | AN | AN | FC wahrscheinlich unterstützt (UniAPI-Tags unvollständig) |
qwq-plus | Reasoning | 131K | 16K | AN | AN | Reasoning + Funktionsaufrufe; Denken umschaltbar via enable_thinking |
| Modell | Rolle | Kontext | Max. Ausgabe | Native FC | JSON-Modus | Hinweise |
|---|---|---|---|---|---|---|
glm-4.7 | Allgemein | 200K | 128K | AN | AN | Funktionsaufrufe + strukturierte Ausgabe + Reasoning |
glm-4.7-flashx | Schnell | 200K | 128K | AN | AN | Funktionsaufrufe + strukturierte Ausgabe + Reasoning |
glm-5 | Reasoning | 200K | 128K | AN | AN | Funktionsaufrufe + strukturierte Ausgabe + Reasoning |
| Modell | Rolle | Kontext | Max. Ausgabe | Native FC | JSON-Modus | Hinweise |
|---|---|---|---|---|---|---|
kimi-k2.5 | Allgemein | 262K | 65K | AUS | AN | FC funktioniert, aber erzwungene tool_choice wird abgelehnt, wenn Denken aktiviert ist (Standard) |
kimi-k2 | Schnell | 131K | 32K | AN | AN | Non-Thinking; natives FC funktioniert (in Produktion verifiziert) |
kimi-k2-thinking | Reasoning | 131K | — | AUS | AN | Denken immer aktiviert; erzwungene tool_choice abgelehnt |
| Modell | Rolle | Kontext | Max. Ausgabe | Native FC | JSON-Modus | Hinweise |
|---|---|---|---|---|---|---|
MiniMax-M2.5 | Allgemein | 205K | 65K | AN | AN | Funktionsaufrufe + strukturierte Ausgabe (in Produktion verifiziert) |
MiniMax-M2.5-highspeed | Schnell | 205K | 65K | AN | AN | Funktionsaufrufe + strukturierte Ausgabe (in Produktion verifiziert) |
MiniMax-M1 | Reasoning | 1.000K | 80K | AN | AN | Funktionsaufrufe + strukturierte Ausgabe; 456B Parameter Hybrid-MoE |
| Modell | Rolle | Kontext | Max. Ausgabe | Native FC | JSON-Modus | Hinweise |
|---|---|---|---|---|---|---|
doubao-seed-2-0-pro | Allgemein | 256K | 128K | AN | AN | Funktionsaufrufe + strukturierte Ausgabe + Reasoning |
doubao-seed-1-6 | Schnell | 256K | 16K | AN | AN | Funktionsaufrufe + strukturierte Ausgabe + Reasoning |
doubao-seed-1-6 | Reasoning | 256K | 16K | AN | AN | Unterstützt reasoning_effort (minimal/low/medium/high) |
| Modell | Rolle | Kontext | Max. Ausgabe | Native FC | JSON-Modus | Hinweise |
|---|---|---|---|---|---|---|
llama-3.3-70b | Allgemein | 131K | 16K | AN | AN | FC + JSON-Modus hängen vom Hosting-Anbieter ab; max. Ausgabe variiert (2K–16K) |
”—” in Max. Ausgabe bedeutet, dass der Anbieter kein Limit angegeben hat. In der Praxis unterstützen diese Modelle typischerweise 4K-16K Ausgabe-Token. Legen Sie Max. Ausgabe-Token explizit in den erweiterten Einstellungen des Modells fest, wenn Sie einen bestimmten Wert benötigen.
Modellgruppen
Mit Modellgruppen können Sie Modelle bestimmten Rollen zuweisen und mit einem einzigen Klick zwischen Konfigurationen wechseln.Rollen
FIM One verwendet drei Modellrollen. Jede Rolle erfüllt einen anderen Zweck in der Ausführungs-Pipeline:| Rolle | Verwendet für | Empfehlung |
|---|---|---|
| General | Planung, Analyse, ReAct-Agent, komplexe Argumentation | Ihr leistungsfähigstes Modell (z. B. gpt-4o, claude-sonnet-4-6) |
| Fast | DAG-Schrittausführung, Kontextkomprimierung | Optimiert für Geschwindigkeit und Kosten (z. B. gpt-5-nano, deepseek-chat). Fällt auf General zurück, falls nicht zugewiesen. |
| Reasoning | Aufgaben, die tiefe Analyse erfordern – komplexe Planung, mathematische Beweise, mehrstufige Logik | Ein starkes Reasoning-Modell (z. B. o3, deepseek-reasoner). Fällt auf General zurück, falls nicht zugewiesen. |
Erstellen einer Modellgruppe
Öffnen Sie den Bereich Gruppen
Scrollen Sie auf der Seite Admin > Modelle zum Bereich Modellgruppen.
Benennen Sie die Gruppe
Geben Sie einen aussagekräftigen Namen ein (z. B. ‘Production (OpenAI)”, ‘Budget (DeepSeek)”, ‘Local Dev”).
Weisen Sie Modelle Rollen zu
Wählen Sie für jede Rolle (General, Fast, Reasoning) ein Modell aus dem Dropdown-Menü aus. Das Dropdown-Menü zeigt alle aktiven Modelle von aktiven Anbietern, gruppiert nach Anbieter-Name. Sie können eine Rolle nicht zugewiesen lassen – sie wird dann auf das Modell ‘General” zurückgreifen (oder auf ENV-konfigurierte Modelle, wenn ‘General” ebenfalls nicht zugewiesen ist).
Eine Gruppe aktivieren
Um eine Modellgruppe zu aktivieren, verwenden Sie das Dropdown-Menü oder die Aktivierungskontrolle auf der Seite ‘Modelle”. Es kann jeweils nur eine Gruppe aktiv sein. Das Aktivieren einer Gruppe wendet ihre Modellzuweisungen sofort auf alle neuen Gespräche an. Um die aktuelle Gruppe zu deaktivieren (Rückgriff auf ENV-konfigurierte Modelle), wählen Sie die Deaktivierungsoption.ENV-Fallback
Wenn keine vom Administrator konfigurierte Modellgruppe aktiv ist, greift FIM One auf ENV-basierte Konfiguration zurück:| Rolle | ENV-Variable |
|---|---|
| Allgemein | LLM_MODEL |
| Schnell | FAST_LLM_MODEL (greift auf LLM_MODEL zurück) |
| Reasoning | REASONING_LLM_MODEL (greift auf LLM_MODEL zurück) |
Export und Import
Die Seite ‘Models” unterstützt den Export Ihrer gesamten Anbieter- und Modellkonfiguration (Anbieter, Modelle und Gruppen) als JSON-Datei und deren Import auf einer anderen Instanz. Dies ist nützlich für:- Migration der Konfiguration zwischen Entwicklungs-, Staging- und Produktionsumgebungen
- Austausch einer bekanntermaßen funktionierenden Modellkonfiguration mit Teammitgliedern
- Sicherung Ihrer Konfiguration vor Änderungen