跳转到主要内容

常见问题

FIM One 可与任何兼容 OpenAI 的 LLM 提供商配合使用。这包括:
  • 商业 API — OpenAI、DeepSeek、Anthropic (Claude)、阿里巴巴通义千问、Google Gemini,以及任何暴露 /v1/chat/completions 端点的提供商。
  • 本地/自托管 — Ollama、vLLM、LocalAI、LM Studio,以及任何其他提供 OpenAI 兼容 API 格式的运行时。
你可以通过 .env 中的三个环境变量配置你的提供商:
LLM_API_KEY=sk-your-key
LLM_BASE_URL=https://api.openai.com/v1   # change for other providers
LLM_MODEL=gpt-4o                         # change for other models
有关提供商特定的示例,请参阅快速开始指南。
可以。FIM One 连接到任何实现 OpenAI 兼容 API 格式的端点。常见的自托管选项包括:
运行时基础 URL示例模型
Ollamahttp://localhost:11434/v1qwen2.5:14b
vLLMhttp://localhost:8000/v1Qwen/Qwen2.5-72B-Instruct
LocalAIhttp://localhost:8080/v1llama3
LM Studiohttp://localhost:1234/v1(你加载的任何模型)
当提供商不需要身份验证时,将 LLM_API_KEY 设置为任何非空字符串(例如 ollama)。所有智能体功能 — ReAct 推理、DAG 规划、工具调用 — 无论模型是本地还是云托管,都能以相同的方式工作。
FIM One 在源代码可用许可证下发布。这不是 OSI 批准的开源许可证,但为大多数用例提供了广泛的自由:允许的用途:
  • 在你的组织内部使用
  • 修改和自定义开发
  • 保持许可证完整的分发
  • 嵌入到你自己的(非竞争性)应用程序中
受限的用途:
  • 多租户 SaaS 产品
  • 竞争性智能体平台
  • 白标或移除品牌
如有商业许可查询,请在 GitHub 上开启一个 issue。有关完整条款,请参阅许可证
不要为敏感漏洞开启公开的 GitHub issue。
  • 敏感报告(凭证泄露、身份验证绕过、注入等)— 使用 GitHub 安全公告或发送邮件至 security@fim.ai
  • 低严重性问题(缺失头部、信息披露)— 使用 security 标签开启常规 GitHub issue。
所有报告在 48 小时内(工作日)得到确认。关键问题会尽快修补;其他问题随下一个版本发布。有关范围、响应时间表和自托管最佳实践,请参阅完整的安全政策

部署

最低要求:
资源要求
Python3.11+
RAM最少 2 GB
磁盘1 GB 可用空间(加上上传文档和向量存储的空间)
Node.js18+(用于本地开发)
生产环境推荐配置:
资源推荐
RAM4 GB+(特别是在本地运行嵌入模型时)
CPU2+ 核心
数据库PostgreSQL(用于多工作进程部署)
Docker 替代方案: Docker 20+ 和 Docker Compose v2。无需本地 Python 或 Node.js — 所有内容都在容器内构建。
支持。Docker 和本地开发都支持 ARM 架构,包括 Apple Silicon(M1/M2/M3/M4)Mac。Docker 镜像原生构建 linux/arm64,所有 Python 和 Node.js 依赖都有 ARM 兼容的 wheels 或备选方案。
FIM One 以两种不同的方式使用数据库:1. 内部数据库(FIM One 自身数据):
  • SQLite — 零配置默认选项,适合开发和单工作进程部署。
  • PostgreSQL — 生产环境推荐,多工作进程设置必需(WORKERS > 1)。
2. 连接器目标(您连接的系统):FIM One 可以通过数据库连接器连接到外部数据库作为数据源:
数据库状态
PostgreSQL支持
MySQL支持
Oracle支持
SQL Server支持
DM (Dameng)支持
KingbaseES支持
GBase支持
Highgo支持
每个数据库连接器自动生成三个工具:list_tablesdescribe_tablequery。默认包含架构内省、AI 驱动的注释和只读查询执行。
可以。FIM One 从一开始就为多租户部署而构建:
  • JWT 身份验证 — 基于令牌的身份验证,具有按用户会话隔离。
  • 组织隔离 — 资源(智能体、连接器、知识库)按组织范围划分。
  • 基于角色的访问 — 管理员和用户角色,具有适当的权限边界。
  • 资源所有权 — 对话和配置按用户隔离。
对于多用户生产部署,使用 PostgreSQL 作为内部数据库,并将 WORKERS 设置为与预期并发相匹配。

功能

FIM One 提供两个执行引擎,各自适合不同的任务类型:
ReAct(标准)DAG(规划器)
工作原理单一推理循环:推理、行动、观察、重复LLM 将目标分解为依赖图;独立步骤并行运行
最适合聚焦查询、单系统查询、对话任务多步骤任务、跨系统编排、并行数据收集
并发性顺序执行(一次一个工具)并发执行(独立步骤通过 asyncio 同时运行)
重新规划不适用如果目标未达成,最多 3 轮自动重新规划
自动模式(默认模式)使用快速 LLM 分类器分析每个传入查询,并自动将其路由到最优引擎。您也可以通过聊天 UI 中的三向切换开关手动选择模式(自动/标准/规划器)。如需深入了解,请参阅执行模式
FIM One 提供三种创建连接器的方式——无需 Python 代码:1. 导入 OpenAPI 规范 — 上传 YAML、JSON 或指向 OpenAPI 规范的 URL。FIM One 解析规范并自动生成包含所有操作的连接器。2. AI 聊天构建器 — 用自然语言描述您想要连接的 API。AI 在对话中生成并迭代连接器配置,使用 10 个专门的构建器工具进行设置、操作、测试和智能体接线。3. MCP 协议 — 直接连接任何 MCP(模型上下文协议)服务器。第三方 MCP 生态系统开箱即用。对于数据库连接器,配置连接详情(主机、端口、凭证),FIM One 会自动生成模式内省和查询工具。请参阅 AI 构建器文档和扩展指南获取分步说明。
可以。FIM One 的副驾驶模式专门为嵌入主机系统而设计。您可以通过以下方式集成:
  • iframe — 将 FIM One 聊天界面直接嵌入任何网页。
  • 小部件 — 轻量级聊天小部件,覆盖在现有 UI 上。
  • API — 直接使用 FastAPI 后端进行完全自定义集成。
在副驾驶模式下,AI 在用户熟悉的界面中与用户协作——查询数据、生成报告和编排操作,无需强制用户切换应用程序。请参阅执行模式了解独立、副驾驶和中心交付模式的配置详情。
FIM One 支持 6 种语言(英语、中文、日语、韩语、德语、法语),采用完全自动化的翻译管道:
  1. 仅编辑英文源文件frontend/messages/en/*.json 中的 UI 字符串、docs/*.mdx(根级别)中的文档和 README.md
  2. 提交时自动翻译 — 预提交钩子检测对英文文件的更改,并通过项目的快速 LLM 进行翻译。翻译是增量的:仅处理新增、修改或删除的内容。
  3. 切勿手动编辑翻译文件messages/zh/messages/ja/docs/zh/docs/ja/ 等中的文件都是自动生成的,将被覆盖。
克隆后设置翻译钩子:
bash scripts/setup-hooks.sh
强制完全重新翻译:
uv run scripts/translate.py --all

贡献

FIM One 欢迎各种形式的贡献 — 代码、文档、翻译、错误报告和功能建议。快速开始:
  1. 阅读贡献指南了解设置说明、编码规范和 PR 流程。
  2. 浏览好的第一个问题查找适合新手的精选任务。
  3. 查看开放问题了解错误和功能请求。
先驱计划: 前 100 位获得 PR 合并的贡献者将被认可为创始贡献者,获得永久署名、个人资料徽章和优先问题支持。
层级技术
后端Python 3.11+、FastAPI、SQLAlchemy、Alembic、asyncio
前端Next.js、React、TypeScript、Tailwind CSS、shadcn/ui
LLM 集成OpenAI 兼容 API(提供商无关)
向量搜索LanceDB + Jina embeddings
数据库SQLite(开发)/ PostgreSQL(生产)
包管理器uv(Python)、pnpm(Node.js)
部署Docker Compose、单进程脚本
代码库遵循异步优先、协议优先的架构,零供应商锁定。
  • 文档 — 您正在这里。浏览指南概念配置部分。
  • Discord — 加入 FIM One Discord 获取实时帮助和社区讨论。
  • GitHub Issues — 在 GitHub 上提交错误报告和功能请求。
  • Twitter/X — 关注 @FIM_One 获取更新和公告。