历史版本9 :FineChatBI 服务架构概述 返回文档
编辑时间:
内容长度:图片数:目录数:
修改原因:
1. 概述编辑
FineChatBI 整体服务架构可参考下图:

FineChatBI:以 FineBI 为底座,叠加 AI 组件构建而成,部署操作可参见:运维平台为FineBI部署AI服务 。
连接大模型:此处的大模型均为基础模型,核心作用是在问数场景下辅助 FineChatBI 处理模糊语义的转写,用户可以依据自身情况从下表选择。
注:未来若要使用数据解读等智能分析功能,客户需要自行准备推理模型(例如 DeepSeek RI)。
| 路径 | 适合用户 |
|---|---|
| 云服务-连接云上大模型 | 适合具备 OpenAI 、deepseek 的调用接口 key,或者拥有 Azure 部署的大模型资源的用户 |
| 本地服务-连接本地大模型 | 适合在本地部署了大模型的客户 |
2. FineChatBI 服务器配置概述编辑
2.1 FineBI 服务器配置
FineChatBI 以 FineBI 为底座,需要部署 FineBI V6.1 及以上版本。
参考 确认FineBI项目服务器配置 完成服务器选型。
计算规则:将 FineChatBI 的用户加入 FineBI 的日活用户数计算服务器所需资源,并额外预留 10% 的服务器资源用于 FineChatBI 的使用。
2.2 AI 组件服务器配置
由于AI组件所需资源较多,建议为AI组件单独准备一台服务器。
服务器要求如下:
推荐配置:CPU16核、可用内存32G、可用磁盘100G,AI组件独占服务器
最低配置:CPU12核、可用内存24G、可用磁盘50G,AI组件与项目共享服务器
详情请参见:准备AI组件服务器。

