Architecture: Fournisseur, Modèle, Groupe
FIM One organise la configuration des LLM en trois niveaux :| Niveau | Ce qu’il représente | Exemple |
|---|---|---|
| Fournisseur | Un ensemble d’identifiants partagés (clé API + URL de base). Un fournisseur peut héberger de nombreux modèles. | ”Mon compte OpenAI”, “Relais Bedrock d’entreprise” |
| Modèle | Un modèle individuel sous un fournisseur. Possède son propre nom d’affichage, identifiant de modèle API et paramètres avancés. | ”GPT-4o”, “Claude Sonnet 4.6” |
| Groupe de modèles | Un préréglage nommé qui assigne des modèles à des rôles (Général / Rapide / Raisonnement). L’activation d’un groupe bascule tous les rôles à la fois. | ”Production (OpenAI)”, “Budget (DeepSeek)“ |
Ajouter un fournisseur
Cliquer sur Ajouter un fournisseur
Cliquez sur le bouton Ajouter un fournisseur dans la zone supérieure droite de la section Fournisseurs.
Sélectionner un préréglage ou utiliser un point de terminaison personnalisé
La boîte de dialogue affiche des boutons de préréglage pour les fournisseurs courants : OpenAI, Anthropic (Claude), Google Gemini, DeepSeek, Mistral AI et OpenAI Compatible (point de terminaison personnalisé). Cliquer sur un préréglage remplit automatiquement le nom du fournisseur et l’URL de base.Choisissez OpenAI Compatible si votre fournisseur n’est pas répertorié (par exemple, un relais tiers, Ollama ou tout autre point de terminaison compatible OpenAI).
Entrer les identifiants
Remplissez les champs obligatoires :
- Nom du fournisseur — Un libellé convivial (par exemple, « Mon compte OpenAI »). Ceci est uniquement pour votre référence.
- URL de base — Le point de terminaison API. Les préréglages remplissent cela automatiquement. Pour les points de terminaison personnalisés, entrez l’URL complète (par exemple,
http://localhost:11434/v1pour Ollama). - Clé API — La clé API de votre fournisseur. Pour les modèles locaux (Ollama), entrez une chaîne non vide (par exemple,
ollama).
Ajouter un modèle
Développer un fournisseur
Sur la page Modèles, cliquez sur le chevron à côté d’un fournisseur existant pour le développer et voir ses modèles.
Cliquer sur Ajouter un modèle
Cliquez sur le bouton Ajouter un modèle qui apparaît sous le fournisseur développé.
Entrer les détails du modèle
Remplissez les deux champs obligatoires :
- Nom d’affichage — Un nom lisible affiché dans l’interface utilisateur (par exemple, « GPT-4o », « Claude Sonnet »). Peut être n’importe quoi.
- Nom du modèle (API) — L’identifiant exact du modèle envoyé à l’API (par exemple,
gpt-4o,claude-sonnet-4-6,deepseek-chat). Doit correspondre à ce que votre fournisseur attend.
Configurer les paramètres avancés (facultatif)
Cliquez sur le bouton bascule Avancé pour révéler les paramètres supplémentaires : Jetons de sortie maximaux, Taille du contexte, Température, Appel de fonction natif et Mode JSON. Consultez la section Paramètres avancés ci-dessous pour plus de détails sur chacun.
Paramètres avancés
Chaque modèle dispose de paramètres avancés qui contrôlent la façon dont FIM One interagit avec l’API du fournisseur pour l’extraction de sortie structurée. Ces paramètres se trouvent sous le bouton bascule Avancé dans la boîte de dialogue de création/édition du modèle.Appel de fonction natif
Nom du paramètre : Native Function Calling (stocké soustool_choice_enabled)
Par défaut : ACTIVÉ
Contrôle si FIM One utilise tool_choice forcé pour l’extraction de sortie structurée. C’est le niveau 1 dans la chaîne de dégradation de sortie structurée — la méthode la plus fiable lorsque le modèle la supporte.
Quand désactiver :
- Votre modèle retourne des erreurs comme
"tool_choice 'specified' is incompatible with thinking enabled"— courant avec les modèles à réflexion toujours active (DeepSeek R1, Kimi K2.5) - Les demandes de sortie structurée sont régulièrement lentes avec une pénalité d’environ 10 secondes par appel, suivie d’une réversion à JSON Mode de toute façon
tool_choice="auto", qui fonctionne avec tous les modèles indépendamment de ce paramètre.
Ce paramètre affecte uniquement la sélection d’outil forcée utilisée pour l’extraction de sortie structurée (planification DAG, annotation de schéma). Il n’affecte pas l’agent ReAct, qui décide librement quand appeler des outils en utilisant
tool_choice="auto".Mode JSON
Nom du paramètre : JSON Mode (stocké sousjson_mode_enabled)
Valeur par défaut : ACTIVÉ
Contrôle si FIM One utilise response_format=json_object pour la sortie structurée. Ceci est le Niveau 2 dans la chaîne de dégradation.
Quand désactiver :
- Votre fournisseur rejette le préfixage des messages d’assistant — principalement les relais AWS Bedrock, qui lèvent
"This model does not support assistant message prefill"
Température
Par défaut : 0.7 (hérité du paramètre global s’il n’est pas défini) Contrôle le caractère aléatoire de la sortie du modèle. Plage : 0 (déterministe) à 2 (très créatif).Lorsque le raisonnement/la réflexion étendue est activé pour les modèles Anthropic, la température est automatiquement forcée à 1.0 par le système. Vous n’avez pas besoin de la définir manuellement.
Tokens de sortie maximaux
Le nombre maximum de jetons que le modèle peut générer dans une seule réponse. Laissez vide pour utiliser la valeur par défaut du système (64 000). Pour les modèles locaux avec une VRAM limitée, définissez explicitement cette valeur sur un nombre inférieur (par exemple, 8192).Taille du contexte
La taille de la fenêtre de contexte du modèle en tokens. Laissez vide pour utiliser la valeur par défaut du système (128 000). Définissez cette valeur pour correspondre à la capacité réelle de votre modèle — pour les modèles locaux, cela est souvent 4K-32K selon le modèle et la mémoire disponible.Configuration recommandée
La plupart des modèles fonctionnent correctement avec les paramètres par défaut (les deux bascules activées). Ajustez uniquement en cas d’erreurs ou de latence inutile. Le tableau ci-dessous couvre les fournisseurs et modèles courants. Les données proviennent des balises de capacité UniAPI et ont été vérifiées par rapport au comportement à l’exécution au 2026-03-22. Les capacités des modèles changent fréquemment — si vous rencontrez des erreurs, consultez la dernière documentation de votre fournisseur.Règles rapides
- FC natif ACTIVÉ pour les modèles avec support d’appel de fonction (la plupart des modèles modernes)
- FC natif DÉSACTIVÉ pour les modèles avec réflexion toujours active qui rejettent
tool_choiceforcé - Mode JSON ACTIVÉ pour la plupart des modèles (paramètre par défaut sûr)
- Mode JSON DÉSACTIVÉ uniquement pour les relais AWS Bedrock (rejet de préfixe)
Matrice de Configuration par Fournisseur
OpenAI| Modèle | Rôle | Contexte | Sortie Max | FC Natif | Mode JSON | Notes |
|---|---|---|---|---|---|---|
gpt-5.4 | Général | 1,050K | 128K | ON | ON | Appels de fonction + sortie structurée + raisonnement |
gpt-5.4-mini | Rapide | 400K | 128K | ON | ON | Appels de fonction + sortie structurée + raisonnement |
o3-pro | Raisonnement | 200K | 100K | ON | ON | Modèle de raisonnement ; FC fonctionne avec pensée auto-désactivée |
| Modèle | Rôle | Contexte | Sortie Max | FC Natif | Mode JSON | Notes |
|---|---|---|---|---|---|---|
claude-sonnet-4-6 | Général | 1,000K | 64K | ON | ON | Appels de fonction + raisonnement ; pensée auto-désactivée pour FC |
claude-haiku-4-5 | Rapide | 200K | 64K | ON | ON | Appels de fonction supportés |
claude-opus-4-6 | Raisonnement | 1,000K | 128K | ON | ON | Appels de fonction + raisonnement ; pensée auto-désactivée pour FC |
| Modèle | Rôle | Contexte | Sortie Max | FC Natif | Mode JSON | Notes |
|---|---|---|---|---|---|---|
gemini-3-pro-preview | Général | 1,048K | 65K | ON | ON | Support complet (tags UniAPI incomplets — Gemini supporte nativement FC) |
gemini-2.5-pro | Rapide | 1,048K | 65K | ON | ON | Support complet |
gemini-3.1-pro-preview | Raisonnement | 1,048K | 65K | ON | ON | Support complet |
| Modèle | Rôle | Contexte | Sortie Max | FC Natif | Mode JSON | Notes |
|---|---|---|---|---|---|---|
deepseek-v3.2 | Général | 164K | 64K | ON | ON | FC supporté (tags UniAPI incomplets) |
deepseek-chat | Rapide | 64K | 8K | ON | ON | Modèle de chat basique ; FC supporté |
deepseek-reasoner | Raisonnement | 164K | 164K | OFF | ON | Pensée toujours activée ; tool_choice forcé peut être rejeté |
| Modèle | Rôle | Contexte | Sortie Max | FC Natif | Mode JSON | Notes |
|---|---|---|---|---|---|---|
grok-4-1-fast-non-reasoning | Général | 2,000K | 2,000K | ON | ON | Appels de fonction + sortie structurée |
grok-3-mini-fast | Rapide | 131K | 131K | ON | ON | Appels de fonction + sortie structurée + raisonnement |
grok-4-1-fast-reasoning | Raisonnement | 2,000K | 2,000K | ON | ON | Appels de fonction + sortie structurée + raisonnement |
| Modèle | Rôle | Contexte | Sortie Max | FC Natif | Mode JSON | Notes |
|---|---|---|---|---|---|---|
qwen3.5-plus | Général | 1,000K | 64K | ON | ON | Appels de fonction + sortie structurée |
qwen-turbo-latest | Rapide | 1,000K | 16K | ON | ON | FC probablement supporté (tags UniAPI incomplets) |
qwq-plus | Raisonnement | 128K | 8K | ON | ON | Raisonnement + appels de fonction (pensée peut être basculable) |
| Modèle | Rôle | Contexte | Sortie Max | FC Natif | Mode JSON | Notes |
|---|---|---|---|---|---|---|
glm-4.7 | Général | 200K | — | ON | ON | Appels de fonction + sortie structurée + raisonnement |
glm-4.7-flashx | Rapide | 200K | — | ON | ON | Appels de fonction + sortie structurée + raisonnement |
glm-5 | Raisonnement | 200K | — | ON | ON | Appels de fonction + sortie structurée + raisonnement |
| Modèle | Rôle | Contexte | Sortie Max | FC Natif | Mode JSON | Notes |
|---|---|---|---|---|---|---|
kimi-k2.5 | Général | 262K | — | OFF | ON | Pensée toujours activée ; tool_choice forcé rejeté (erreur 400) |
kimi-k2 | Rapide | 131K | — | ON | ON | Sans pensée ; FC natif fonctionne (vérifié en production) |
kimi-k2-thinking | Raisonnement | 63K | — | OFF | ON | Pensée toujours activée ; tool_choice forcé rejeté |
| Modèle | Rôle | Contexte | Sortie Max | FC Natif | Mode JSON | Notes |
|---|---|---|---|---|---|---|
MiniMax-M2.5 | Général | 205K | — | ON | ON | Appels de fonction + sortie structurée (vérifié en production) |
MiniMax-M2.5-highspeed | Rapide | 205K | — | ON | ON | Appels de fonction + sortie structurée (vérifié en production) |
MiniMax-M1 | Raisonnement | — | — | ON | ON | Appels de fonction + sortie structurée |
| Modèle | Rôle | Contexte | Sortie Max | FC Natif | Mode JSON | Notes |
|---|---|---|---|---|---|---|
doubao-seed-2-0-pro | Général | 256K | 128K | ON | ON | Appels de fonction + sortie structurée + raisonnement |
doubao-seed-1-6 | Rapide | 256K | 32K | ON | ON | Appels de fonction + sortie structurée + raisonnement |
doubao-seed-1-6 | Raisonnement | 256K | 32K | ON | ON | Supporte reasoning_effort (minimal/low/medium/high) |
| Modèle | Rôle | Contexte | Sortie Max | FC Natif | Mode JSON | Notes |
|---|---|---|---|---|---|---|
llama-3.3-70b | Général | 131K | 131K | ON | ON | FC dépend du fournisseur d’hébergement ; essayez d’abord les paramètres par défaut |
”—” en Sortie Max signifie que le fournisseur n’a pas signalé de limite. En pratique, ces modèles supportent généralement 4K-16K jetons de sortie. Définissez Max Output Tokens explicitement dans les paramètres Avancés du modèle si vous avez besoin d’une valeur spécifique.
Groupes de modèles
Les groupes de modèles vous permettent d’assigner des modèles à des rôles spécifiques et de basculer entre les configurations en un seul clic.Rôles
FIM One utilise trois rôles de modèle. Chaque rôle remplit un objectif différent dans le pipeline d’exécution :| Rôle | Utilisé pour | Recommandation |
|---|---|---|
| General | Planification, analyse, agent ReAct, raisonnement complexe | Votre modèle le plus capable (par ex., gpt-4o, claude-sonnet-4-6) |
| Fast | Exécution des étapes DAG, compaction de contexte | Optimisé pour la vitesse et le coût (par ex., gpt-5-nano, deepseek-chat). Bascule vers General s’il n’est pas assigné. |
| Reasoning | Tâches nécessitant une analyse approfondie — planification complexe, preuves mathématiques, logique multi-étapes | Un modèle de raisonnement puissant (par ex., o3, deepseek-reasoner). Bascule vers General s’il n’est pas assigné. |
Création d’un groupe de modèles
Ouvrir la section Groupes
Sur la page Admin > Modèles, faites défiler jusqu’à la section Groupes de modèles.
Nommer le groupe
Entrez un nom descriptif (par exemple, « Production (OpenAI) », « Budget (DeepSeek) », « Local Dev »).
Assigner des modèles aux rôles
Pour chaque rôle (Général, Rapide, Raisonnement), sélectionnez un modèle dans la liste déroulante. La liste déroulante affiche tous les modèles actifs des fournisseurs actifs, groupés par nom de fournisseur. Vous pouvez laisser un rôle non assigné — il reviendra au modèle Général (ou aux modèles configurés par ENV si Général n’est pas assigné non plus).
Activation d’un groupe
Pour activer un groupe de modèles, utilisez la liste déroulante ou le contrôle d’activation sur la page Modèles. Un seul groupe peut être actif à la fois. L’activation d’un groupe applique immédiatement ses attributions de modèles à toutes les nouvelles conversations. Pour désactiver le groupe actuel (revenir aux modèles configurés par ENV), sélectionnez l’option de désactivation.Secours ENV
Lorsqu’aucun groupe de modèles configuré par l’administrateur n’est actif, FIM One revient à une configuration basée sur ENV :| Rôle | Variable ENV |
|---|---|
| Général | LLM_MODEL |
| Rapide | FAST_LLM_MODEL (revient à LLM_MODEL) |
| Raisonnement | REASONING_LLM_MODEL (revient à LLM_MODEL) |
Exportation et importation
La page Modèles prend en charge l’exportation de l’intégralité de votre configuration de fournisseur et de modèle (fournisseurs, modèles et groupes) sous forme de fichier JSON, et son importation sur une autre instance. Ceci est utile pour :- Migrer la configuration entre les environnements de développement, de staging et de production
- Partager une configuration de modèle éprouvée avec les membres de l’équipe
- Sauvegarder votre configuration avant d’apporter des modifications