일반
어떤 LLM 제공자가 지원되나요?
어떤 LLM 제공자가 지원되나요?
FIM One은 모든 OpenAI 호환 LLM 제공자와 함께 작동합니다. 여기에는 다음이 포함됩니다:제공자별 예제는 빠른 시작 가이드를 참조하세요.
- 상용 API — OpenAI, DeepSeek, Anthropic (Claude), Alibaba Qwen, Google Gemini 및
/v1/chat/completions엔드포인트를 노출하는 모든 제공자. - 로컬/자체 호스팅 — Ollama, vLLM, LocalAI, LM Studio 및 OpenAI 호환 API 형식을 제공하는 기타 런타임.
.env의 세 가지 환경 변수를 통해 제공자를 구성합니다:로컬 또는 자체 호스팅 모델을 사용할 수 있나요?
로컬 또는 자체 호스팅 모델을 사용할 수 있나요?
네. FIM One은 OpenAI 호환 API 형식을 구현하는 모든 엔드포인트에 연결됩니다. 인기 있는 자체 호스팅 옵션은 다음과 같습니다:
제공자가 인증을 요구하지 않을 때
| 런타임 | 기본 URL | 예제 모델 |
|---|---|---|
| Ollama | http://localhost:11434/v1 | qwen2.5:14b |
| vLLM | http://localhost:8000/v1 | Qwen/Qwen2.5-72B-Instruct |
| LocalAI | http://localhost:8080/v1 | llama3 |
| LM Studio | http://localhost:1234/v1 | (whatever you load) |
LLM_API_KEY를 비어있지 않은 문자열(예: ollama)로 설정합니다. 모든 에이전트 기능 — ReAct 추론, DAG 계획, 도구 호출 — 은 모델이 로컬인지 클라우드 호스팅인지에 관계없이 동일하게 작동합니다.FIM One은 오픈 소스인가요?
FIM One은 오픈 소스인가요?
보안 취약점을 어떻게 보고하나요?
보안 취약점을 어떻게 보고하나요?
민감한 취약점에 대해 공개 GitHub 이슈를 열지 마세요.
- 민감한 보고 (자격증명 노출, 인증 우회, 주입 등) — GitHub Security Advisories를 사용하거나 security@fim.ai로 이메일을 보내세요.
- 낮은 심각도 문제 (누락된 헤더, 정보 공개) —
security라벨과 함께 일반 GitHub 이슈를 열어주세요.
배포
시스템 요구사항은 무엇입니까?
시스템 요구사항은 무엇입니까?
최소 요구사항:
프로덕션 권장사항:
Docker 대안: Docker 20+ 및 Docker Compose v2. 로컬 Python 또는 Node.js가 필요하지 않음 — 모든 것이 컨테이너 내에서 빌드됩니다.
| 리소스 | 요구사항 |
|---|---|
| Python | 3.11+ |
| RAM | 최소 2 GB |
| 디스크 | 1 GB 여유 공간 (업로드된 문서 및 벡터 저장소용 공간 제외) |
| Node.js | 18+ (로컬 개발용) |
| 리소스 | 권장사항 |
|---|---|
| RAM | 4 GB 이상 (특히 로컬에서 임베딩 모델을 실행하는 경우) |
| CPU | 2개 이상의 코어 |
| 데이터베이스 | 다중 워커 배포를 위한 PostgreSQL |
FIM One은 ARM / Apple Silicon에서 작동합니까?
FIM One은 ARM / Apple Silicon에서 작동합니까?
예. Docker와 로컬 개발 모두 Apple Silicon(M1/M2/M3/M4) Mac을 포함한 ARM 아키텍처에서 작동합니다. Docker 이미지는
linux/arm64용으로 기본적으로 빌드되며, 모든 Python 및 Node.js 종속성에는 ARM 호환 휠 또는 폴백이 있습니다.어떤 데이터베이스가 지원됩니까?
어떤 데이터베이스가 지원됩니까?
FIM One은 두 가지 서로 다른 방식으로 데이터베이스를 사용합니다:1. 내부 데이터베이스 (FIM One의 자체 데이터):
각 데이터베이스 커넥터는 세 가지 도구를 자동으로 생성합니다:
- SQLite — 설정 불필요한 기본값, 개발 및 단일 워커 배포에 적합합니다.
- PostgreSQL — 프로덕션에 권장, 다중 워커 설정에 필수 (
WORKERS > 1).
| 데이터베이스 | 상태 |
|---|---|
| PostgreSQL | 지원됨 |
| MySQL | 지원됨 |
| Oracle | 지원됨 |
| SQL Server | 지원됨 |
| DM (Dameng) | 지원됨 |
| KingbaseES | 지원됨 |
| GBase | 지원됨 |
| Highgo | 지원됨 |
list_tables, describe_table, query. 스키마 내부 검사, AI 기반 주석, 읽기 전용 쿼리 실행이 기본적으로 포함됩니다.여러 사용자가 동일한 인스턴스를 공유할 수 있습니까?
여러 사용자가 동일한 인스턴스를 공유할 수 있습니까?
예. FIM One은 처음부터 다중 테넌트 배포를 위해 구축되었습니다:
- JWT 인증 — 사용자별 세션 격리를 포함한 토큰 기반 인증.
- 조직 격리 — 리소스 (에이전트, 커넥터, 지식 베이스)는 조직으로 범위가 지정됩니다.
- 역할 기반 액세스 — 적절한 권한 경계를 가진 관리자 및 사용자 역할.
- 리소스 소유권 — 대화 및 구성은 사용자별로 격리됩니다.
WORKERS를 예상 동시성과 일치하도록 설정합니다.기능
ReAct와 DAG 모드의 차이점은 무엇인가요?
ReAct와 DAG 모드의 차이점은 무엇인가요?
FIM One은 두 가지 실행 엔진을 제공하며, 각각 다른 작업 유형에 적합합니다:
자동 모드(기본값)는 빠른 LLM 분류기를 사용하여 들어오는 각 쿼리를 분석하고 최적의 엔진으로 자동 라우팅합니다. 채팅 UI의 3방향 토글(자동 / 표준 / 플래너)을 통해 수동으로 모드를 선택할 수도 있습니다.자세한 내용은 실행 모드를 참조하세요.
| ReAct (표준) | DAG (플래너) | |
|---|---|---|
| 작동 방식 | 단일 추론 루프: 추론, 행동, 관찰, 반복 | LLM이 목표를 종속성 그래프로 분해하고, 독립적인 단계는 병렬로 실행됨 |
| 최적 사용 사례 | 집중된 쿼리, 단일 시스템 조회, 대화형 작업 | 다단계 작업, 크로스 시스템 오케스트레이션, 병렬 데이터 수집 |
| 동시성 | 순차적 (한 번에 하나의 도구) | 동시적 (독립적인 단계가 asyncio를 통해 동시에 실행됨) |
| 재계획 | 해당 없음 | 목표가 달성되지 않으면 최대 3회의 자동 재계획 |
새로운 커넥터를 추가하려면 어떻게 해야 하나요?
새로운 커넥터를 추가하려면 어떻게 해야 하나요?
FIM One은 Python 코드 없이 커넥터를 만드는 세 가지 방법을 제공합니다:1. OpenAPI 사양 가져오기 — OpenAPI 사양을 가리키는 YAML, JSON 또는 URL을 업로드합니다. FIM One은 사양을 파싱하고 모든 작업이 자동으로 생성된 커넥터를 생성합니다.2. AI 채팅 빌더 — 연결하려는 API를 자연어로 설명합니다. AI는 설정, 작업, 테스트 및 에이전트 연결을 위한 10개의 전문 빌더 도구를 사용하여 대화에서 커넥터 구성을 생성하고 반복합니다.3. MCP 프로토콜 — 모든 MCP(Model Context Protocol) 서버를 직접 연결합니다. 타사 MCP 생태계는 기본적으로 작동합니다.데이터베이스 커넥터의 경우 연결 세부 정보(호스트, 포트, 자격 증명)를 구성하면 FIM One이 스키마 내부 검사 및 쿼리 도구를 자동으로 생성합니다.AI 빌더 문서 및 확장 가이드에서 단계별 지침을 참조하세요.
FIM One을 기존 시스템에 임베드할 수 있나요?
FIM One을 기존 시스템에 임베드할 수 있나요?
예. FIM One의 코파일럿 모드는 호스트 시스템에 임베드하도록 특별히 설계되었습니다. 다음을 통해 통합할 수 있습니다:
- iframe — FIM One 채팅 인터페이스를 모든 웹 페이지에 직접 임베드합니다.
- 위젯 — 기존 UI에 오버레이되는 경량 채팅 위젯입니다.
- API — 완전히 사용자 정의된 통합을 위해 FastAPI 백엔드를 직접 사용합니다.
번역 시스템은 어떻게 작동하나요?
번역 시스템은 어떻게 작동하나요?
FIM One은 완전히 자동화된 번역 파이프라인으로 6가지 언어(영어, 중국어, 일본어, 한국어, 독일어, 프랑스어)를 지원합니다:전체 재번역을 강제하려면:
- 영어 소스 파일만 편집 —
frontend/messages/en/*.json의 UI 문자열,docs/*.mdx(루트 수준)의 문서 및README.md. - 커밋 시 자동 번역 — 사전 커밋 훅이 영어 파일의 변경 사항을 감지하고 프로젝트의 빠른 LLM을 통해 번역합니다. 번역은 증분식입니다: 새로운, 수정된 또는 삭제된 콘텐츠만 처리됩니다.
- 번역된 파일을 수동으로 편집하지 마세요 —
messages/zh/,messages/ja/,docs/zh/,docs/ja/등의 파일은 모두 자동 생성되며 덮어쓰기됩니다.
기여하기
FIM One에 어떻게 기여할 수 있나요?
FIM One에 어떻게 기여할 수 있나요?
FIM One은 코드, 문서, 번역, 버그 보고, 기능 아이디어 등 모든 종류의 기여를 환영합니다.시작하기:
- 기여 가이드를 읽고 설정 지침, 코딩 규칙, PR 프로세스를 확인하세요.
- Good First Issues를 탐색하여 초보자에게 적합한 선별된 작업을 찾으세요.
- Open Issues에서 버그 및 기능 요청을 확인하세요.
기술 스택은 무엇인가요?
기술 스택은 무엇인가요?
| 계층 | 기술 |
|---|---|
| 백엔드 | Python 3.11+, FastAPI, SQLAlchemy, Alembic, asyncio |
| 프론트엔드 | Next.js, React, TypeScript, Tailwind CSS, shadcn/ui |
| LLM 통합 | OpenAI-compatible API (provider-agnostic) |
| 벡터 검색 | LanceDB + Jina embeddings |
| 데이터베이스 | SQLite (dev) / PostgreSQL (production) |
| 패키지 관리자 | uv (Python), pnpm (Node.js) |
| 배포 | Docker Compose, single-process script |