历史版本9 :FineChatBI 服务架构概述 返回文档
编辑时间: 内容长度:图片数:目录数: 修改原因:

目录:

1. 概述编辑

FineChatBI 整体服务架构可参考下图:

  • FineChatBI:以 FineBI 为底座,叠加 AI 组件构建而成,部署操作可参见:运维平台为FineBI部署AI服务 。

  • 连接大模型:此处的大模型均为基础模型,核心作用是在问数场景下辅助 FineChatBI 处理模糊语义的转写,用户可以依据自身情况从下表选择。

注:未来若要使用数据解读等智能分析功能,客户需要自行准备推理模型(例如 DeepSeek RI)。

路径适合用户
云服务-连接云上大模型适合具备 OpenAI 、deepseek 的调用接口 key,或者拥有 Azure 部署的大模型资源的用户
本地服务-连接本地大模型适合在本地部署了大模型的客户

2. FineChatBI 服务器配置概述编辑

2.1 FineBI 服务器配置

FineChatBI 以 FineBI 为底座,需要部署 FineBI V6.1 及以上版本。

参考 确认FineBI项目服务器配置 完成服务器选型。

计算规则:将 FineChatBI 的用户加入 FineBI 的日活用户数计算服务器所需资源,并额外预留 10% 的服务器资源用于 FineChatBI 的使用。

2.2 AI 组件服务器配置

由于AI组件所需资源较多,建议为AI组件单独准备一台服务器。

服务器要求如下:

  • 推荐配置:CPU16核、可用内存32G、可用磁盘100G,AI组件独占服务器

  • 最低配置:CPU12核、可用内存24G、可用磁盘50G,AI组件与项目共享服务器

详情请参见:准备AI组件服务器