Général
Quels fournisseurs LLM sont pris en charge ?
Quels fournisseurs LLM sont pris en charge ?
- APIs commerciales — OpenAI, DeepSeek, Anthropic (Claude), Alibaba Qwen, Google Gemini, et tout fournisseur qui expose un point de terminaison
/v1/chat/completions. - Local/auto-hébergé — Ollama, vLLM, LocalAI, LM Studio, et tout autre runtime qui sert le format API compatible OpenAI.
.env :Puis-je utiliser des modèles locaux ou auto-hébergés ?
Puis-je utiliser des modèles locaux ou auto-hébergés ?
| Runtime | URL de base | Modèle exemple |
|---|---|---|
| Ollama | http://localhost:11434/v1 | qwen2.5:14b |
| vLLM | http://localhost:8000/v1 | Qwen/Qwen2.5-72B-Instruct |
| LocalAI | http://localhost:8080/v1 | llama3 |
| LM Studio | http://localhost:1234/v1 | (ce que vous chargez) |
LLM_API_KEY sur n’importe quelle chaîne non vide (par exemple, ollama) lorsque le fournisseur ne nécessite pas d’authentification. Toutes les fonctionnalités d’agent — raisonnement ReAct, planification DAG, appel d’outils — fonctionnent de manière identique, que le modèle soit local ou hébergé dans le cloud.FIM One est-il open source ?
FIM One est-il open source ?
- Utilisation interne au sein de votre organisation
- Modification et développement personnalisé
- Distribution avec la licence intacte
- Intégration dans vos propres applications (non concurrentes)
- Offres SaaS multi-locataires
- Plateformes d’agents concurrentes
- White-labeling ou suppression de la marque
Comment signaler les vulnérabilités de sécurité ?
Comment signaler les vulnérabilités de sécurité ?
Déploiement
Quelles sont les exigences système ?
Quelles sont les exigences système ?
| Ressource | Exigence |
|---|---|
| Python | 3.11+ |
| RAM | 2 GB minimum |
| Disque | 1 GB libre (plus d’espace pour les documents téléchargés et le magasin vectoriel) |
| Node.js | 18+ (pour le développement local) |
| Ressource | Recommandation |
|---|---|
| RAM | 4 GB+ (surtout si vous exécutez des modèles d’embedding localement) |
| CPU | 2+ cœurs |
| Base de données | PostgreSQL pour les déploiements multi-workers |
FIM One fonctionne-t-il sur ARM / Apple Silicon ?
FIM One fonctionne-t-il sur ARM / Apple Silicon ?
linux/arm64, et toutes les dépendances Python et Node.js disposent de wheels compatibles ARM ou de solutions de secours.Quelles bases de données sont supportées ?
Quelles bases de données sont supportées ?
- SQLite — zéro configuration par défaut, idéal pour le développement et les déploiements single-worker.
- PostgreSQL — recommandé pour la production, requis pour les configurations multi-workers (
WORKERS > 1).
| Base de données | Statut |
|---|---|
| PostgreSQL | Supportée |
| MySQL | Supportée |
| Oracle | Supportée |
| SQL Server | Supportée |
| DM (Dameng) | Supportée |
| KingbaseES | Supportée |
| GBase | Supportée |
| Highgo | Supportée |
list_tables, describe_table et query. L’introspection de schéma, l’annotation alimentée par l’IA et l’exécution de requêtes en lecture seule sont incluses par défaut.Plusieurs utilisateurs peuvent-ils partager la même instance ?
Plusieurs utilisateurs peuvent-ils partager la même instance ?
- Authentification JWT — authentification basée sur les jetons avec isolation de session par utilisateur.
- Isolation organisationnelle — les ressources (agents, connecteurs, bases de connaissances) sont limitées aux organisations.
- Accès basé sur les rôles — rôles administrateur et utilisateur avec des limites de permissions appropriées.
- Propriété des ressources — les conversations et configurations sont isolées par utilisateur.
WORKERS pour correspondre à votre concurrence attendue.Fonctionnalités
Quelle est la différence entre le mode ReAct et le mode DAG ?
Quelle est la différence entre le mode ReAct et le mode DAG ?
| ReAct (Standard) | DAG (Planner) | |
|---|---|---|
| Fonctionnement | Boucle de raisonnement unique : Raisonner, Agir, Observer, répéter | L’LLM décompose l’objectif en un graphe de dépendances ; les étapes indépendantes s’exécutent en parallèle |
| Idéal pour | Requêtes ciblées, recherches sur un seul système, tâches conversationnelles | Tâches multi-étapes, orchestration inter-systèmes, collecte de données en parallèle |
| Concurrence | Séquentielle (un outil à la fois) | Concurrente (les étapes indépendantes s’exécutent simultanément via asyncio) |
| Re-planification | N/A | Jusqu’à 3 cycles de re-planification automatique si les objectifs ne sont pas atteints |
Comment ajouter un nouveau connecteur ?
Comment ajouter un nouveau connecteur ?
Puis-je intégrer FIM One dans mon système existant ?
Puis-je intégrer FIM One dans mon système existant ?
- iframe — Intégrez l’interface de chat FIM One directement dans n’importe quelle page web.
- Widget — Un widget de chat léger qui se superpose à votre interface existante.
- API — Utilisez directement le backend FastAPI pour des intégrations entièrement personnalisées.
Comment fonctionne le système de traduction ?
Comment fonctionne le système de traduction ?
- Modifiez uniquement les fichiers sources en anglais — Les chaînes d’interface utilisateur dans
frontend/messages/en/*.json, la documentation dansdocs/*.mdx(au niveau racine) etREADME.md. - Traduction automatique lors de la validation — Un hook de pré-validation détecte les modifications apportées aux fichiers anglais et les traduit via l’LLM rapide du projet. Les traductions sont incrémentielles : seul le contenu nouveau, modifié ou supprimé est traité.
- Ne modifiez jamais manuellement les fichiers traduits — Les fichiers dans
messages/zh/,messages/ja/,docs/zh/,docs/ja/, etc. sont tous générés automatiquement et seront écrasés.
Contribution
Comment puis-je contribuer à FIM One ?
Comment puis-je contribuer à FIM One ?
- Lisez le Guide de contribution pour les instructions de configuration, les conventions de codage et le processus de PR.
- Parcourez les Bons premiers problèmes pour trouver des tâches adaptées aux nouveaux contributeurs.
- Consultez les Problèmes ouverts pour les bugs et les demandes de fonctionnalités.
Quelle est la pile technologique ?
Quelle est la pile technologique ?
| Couche | Technologie |
|---|---|
| Backend | Python 3.11+, FastAPI, SQLAlchemy, Alembic, asyncio |
| Frontend | Next.js, React, TypeScript, Tailwind CSS, shadcn/ui |
| Intégration LLM | API compatible OpenAI (agnostique du fournisseur) |
| Recherche vectorielle | LanceDB + embeddings Jina |
| Base de données | SQLite (dev) / PostgreSQL (production) |
| Gestionnaires de paquets | uv (Python), pnpm (Node.js) |
| Déploiement | Docker Compose, script mono-processus |
Où puis-je obtenir de l'aide ?
Où puis-je obtenir de l'aide ?
- Documentation — Vous êtes ici. Parcourez les sections Guides, Concepts et Configuration.
- Discord — Rejoignez le Discord FIM One pour obtenir de l’aide en temps réel et des discussions communautaires.
- Problèmes GitHub — Signalez les bugs et demandes de fonctionnalités sur GitHub.
- Twitter/X — Suivez @FIM_One pour les mises à jour et annonces.
- Rapports sensibles (exposition de credentials, contournement d’authentification, injection, etc.) — utilisez GitHub Security Advisories ou envoyez un email à security@fim.ai.
- Problèmes de faible gravité (en-têtes manquants, divulgations informationnelles) — ouvrez un problème GitHub régulier avec l’étiquette
Tous les rapports sont reconnus dans les 48 heures (jours ouvrables). Les problèmes critiques sont corrigés dès que possible ; les autres sont livrés avec la prochaine version.Consultez la Politique de sécurité complète pour la portée, les délais de réponse et les meilleures pratiques d’auto-hébergement.security.