常见问题
支持哪些 LLM 提供商?
支持哪些 LLM 提供商?
FIM One 可与任何兼容 OpenAI 的 LLM 提供商配合使用。这包括:有关提供商特定的示例,请参阅快速开始指南。
- 商业 API — OpenAI、DeepSeek、Anthropic (Claude)、阿里巴巴通义千问、Google Gemini,以及任何暴露
/v1/chat/completions端点的提供商。 - 本地/自托管 — Ollama、vLLM、LocalAI、LM Studio,以及任何其他提供 OpenAI 兼容 API 格式的运行时。
.env 中的三个环境变量配置你的提供商:我可以使用本地或自托管模型吗?
我可以使用本地或自托管模型吗?
可以。FIM One 连接到任何实现 OpenAI 兼容 API 格式的端点。常见的自托管选项包括:
当提供商不需要身份验证时,将
| 运行时 | 基础 URL | 示例模型 |
|---|---|---|
| Ollama | http://localhost:11434/v1 | qwen2.5:14b |
| vLLM | http://localhost:8000/v1 | Qwen/Qwen2.5-72B-Instruct |
| LocalAI | http://localhost:8080/v1 | llama3 |
| LM Studio | http://localhost:1234/v1 | (你加载的任何模型) |
LLM_API_KEY 设置为任何非空字符串(例如 ollama)。所有智能体功能 — ReAct 推理、DAG 规划、工具调用 — 无论模型是本地还是云托管,都能以相同的方式工作。FIM One 是开源的吗?
FIM One 是开源的吗?
我如何报告安全漏洞?
我如何报告安全漏洞?
不要为敏感漏洞开启公开的 GitHub issue。
- 敏感报告(凭证泄露、身份验证绕过、注入等)— 使用 GitHub 安全公告或发送邮件至 security@fim.ai。
- 低严重性问题(缺失头部、信息披露)— 使用
security标签开启常规 GitHub issue。
部署
系统要求是什么?
系统要求是什么?
最低要求:
生产环境推荐配置:
Docker 替代方案: Docker 20+ 和 Docker Compose v2。无需本地 Python 或 Node.js — 所有内容都在容器内构建。
| 资源 | 要求 |
|---|---|
| Python | 3.11+ |
| RAM | 最少 2 GB |
| 磁盘 | 1 GB 可用空间(加上上传文档和向量存储的空间) |
| Node.js | 18+(用于本地开发) |
| 资源 | 推荐 |
|---|---|
| RAM | 4 GB+(特别是在本地运行嵌入模型时) |
| CPU | 2+ 核心 |
| 数据库 | PostgreSQL(用于多工作进程部署) |
FIM One 支持 ARM / Apple Silicon 吗?
FIM One 支持 ARM / Apple Silicon 吗?
支持。Docker 和本地开发都支持 ARM 架构,包括 Apple Silicon(M1/M2/M3/M4)Mac。Docker 镜像原生构建
linux/arm64,所有 Python 和 Node.js 依赖都有 ARM 兼容的 wheels 或备选方案。支持哪些数据库?
支持哪些数据库?
FIM One 以两种不同的方式使用数据库:1. 内部数据库(FIM One 自身数据):
每个数据库连接器自动生成三个工具:
- SQLite — 零配置默认选项,适合开发和单工作进程部署。
- PostgreSQL — 生产环境推荐,多工作进程设置必需(
WORKERS > 1)。
| 数据库 | 状态 |
|---|---|
| PostgreSQL | 支持 |
| MySQL | 支持 |
| Oracle | 支持 |
| SQL Server | 支持 |
| DM (Dameng) | 支持 |
| KingbaseES | 支持 |
| GBase | 支持 |
| Highgo | 支持 |
list_tables、describe_table 和 query。默认包含架构内省、AI 驱动的注释和只读查询执行。多个用户可以共享同一个实例吗?
多个用户可以共享同一个实例吗?
可以。FIM One 从一开始就为多租户部署而构建:
- JWT 身份验证 — 基于令牌的身份验证,具有按用户会话隔离。
- 组织隔离 — 资源(智能体、连接器、知识库)按组织范围划分。
- 基于角色的访问 — 管理员和用户角色,具有适当的权限边界。
- 资源所有权 — 对话和配置按用户隔离。
WORKERS 设置为与预期并发相匹配。功能
ReAct 和 DAG 模式有什么区别?
ReAct 和 DAG 模式有什么区别?
FIM One 提供两个执行引擎,各自适合不同的任务类型:
自动模式(默认模式)使用快速 LLM 分类器分析每个传入查询,并自动将其路由到最优引擎。您也可以通过聊天 UI 中的三向切换开关手动选择模式(自动/标准/规划器)。如需深入了解,请参阅执行模式。
| ReAct(标准) | DAG(规划器) | |
|---|---|---|
| 工作原理 | 单一推理循环:推理、行动、观察、重复 | LLM 将目标分解为依赖图;独立步骤并行运行 |
| 最适合 | 聚焦查询、单系统查询、对话任务 | 多步骤任务、跨系统编排、并行数据收集 |
| 并发性 | 顺序执行(一次一个工具) | 并发执行(独立步骤通过 asyncio 同时运行) |
| 重新规划 | 不适用 | 如果目标未达成,最多 3 轮自动重新规划 |
如何添加新的连接器?
如何添加新的连接器?
FIM One 提供三种创建连接器的方式——无需 Python 代码:1. 导入 OpenAPI 规范 — 上传 YAML、JSON 或指向 OpenAPI 规范的 URL。FIM One 解析规范并自动生成包含所有操作的连接器。2. AI 聊天构建器 — 用自然语言描述您想要连接的 API。AI 在对话中生成并迭代连接器配置,使用 10 个专门的构建器工具进行设置、操作、测试和智能体接线。3. MCP 协议 — 直接连接任何 MCP(模型上下文协议)服务器。第三方 MCP 生态系统开箱即用。对于数据库连接器,配置连接详情(主机、端口、凭证),FIM One 会自动生成模式内省和查询工具。请参阅 AI 构建器文档和扩展指南获取分步说明。
我可以将 FIM One 嵌入到现有系统中吗?
我可以将 FIM One 嵌入到现有系统中吗?
可以。FIM One 的副驾驶模式专门为嵌入主机系统而设计。您可以通过以下方式集成:
- iframe — 将 FIM One 聊天界面直接嵌入任何网页。
- 小部件 — 轻量级聊天小部件,覆盖在现有 UI 上。
- API — 直接使用 FastAPI 后端进行完全自定义集成。
翻译系统如何工作?
翻译系统如何工作?
FIM One 支持 6 种语言(英语、中文、日语、韩语、德语、法语),采用完全自动化的翻译管道:强制完全重新翻译:
- 仅编辑英文源文件 —
frontend/messages/en/*.json中的 UI 字符串、docs/*.mdx(根级别)中的文档和README.md。 - 提交时自动翻译 — 预提交钩子检测对英文文件的更改,并通过项目的快速 LLM 进行翻译。翻译是增量的:仅处理新增、修改或删除的内容。
- 切勿手动编辑翻译文件 —
messages/zh/、messages/ja/、docs/zh/、docs/ja/等中的文件都是自动生成的,将被覆盖。
贡献
我如何为 FIM One 做出贡献?
我如何为 FIM One 做出贡献?
技术栈是什么?
技术栈是什么?
| 层级 | 技术 |
|---|---|
| 后端 | Python 3.11+、FastAPI、SQLAlchemy、Alembic、asyncio |
| 前端 | Next.js、React、TypeScript、Tailwind CSS、shadcn/ui |
| LLM 集成 | OpenAI 兼容 API(提供商无关) |
| 向量搜索 | LanceDB + Jina embeddings |
| 数据库 | SQLite(开发)/ PostgreSQL(生产) |
| 包管理器 | uv(Python)、pnpm(Node.js) |
| 部署 | Docker Compose、单进程脚本 |