1. 概述
通用大模型用于支撑 FineChatBI 的以下功能:数据解读、归因分析。
若资源有限,可以直接使用通用大模型,但效果打折。
2. 选用满足要求的推理大模型
推荐选用的推理模型:
类型 | 推荐模型 | 显卡要求&费用评估 |
---|---|---|
本地大模型 | DeepSeek-R1 满血版 | 建议咨询大模型厂商 |
DeepSeek-R1-0528 | ||
通义千问 3-235B-A22B-Thinking-2507(下载链接) | ||
云上大模型 | DeepSeek-R1/DeepSeek-R1-0528 | token 费用 = (N x X + M x Y) x U x V |
通义千问3-235B-A22B-Thinking-2507(128K) | token 费用 = (N x X + M x Y) x U x V |
2.1 大模型能力检查
FineChatBI 要求大模型必须严格按照指定格式输出结果,否则无法正常使用。
用户在连接本地大模型前,需要提前验证模型是否满足 FineChatBI 的要求,详情请参见:判断大模型是否满足 FineChatBI 能力要求。
2.2 大模型接口兼容性检查
本地大模型需检查接口兼容,云上大模型可跳过此步骤。
用户需要确认自己的本地大模型是否兼容 OpenAI 接口:
情况一:兼容 OpenAI 接口
大模型兼容 OpenAI 接口,则无需任何改造,大模型可以直接连接 FineAI 服务。
情况二:不兼容 OpenAI 接口
大模型若不兼容 OpenAI 接口,推荐使用 vLLM 框架将本地大模型重新部署为兼容 OpenAI 接口的服务,详情请参考 vLLM 官方文档。
情况三:不兼容 OpenAI 接口且无法重新部署大模型
接口改造。常驻一个接口转发服务,作为 FineAI 服务和大模型服务之间沟通的桥梁。
接口转发服务需要将 FineAI 的请求体转换成大模型服务支持的格式,发给大模型;并解析大模型的返回,转换成 FineAI 的返回体格式。
FineAI 的请求体和返回体都符合 OpenAI Chat 接口规范,详情见:
点击展开更多 | ||||||||||||
请求体需要包含以下参数:
请求体示例:
当 FineAI 请求体中 stream 为 true 时,返回流式返回体。 ![]() 流式返回体必须遵循 SSE 标准。 流式返回体JSON部分示例:
|
3. FineChatBI 配置推理大模型
3.1 连接本地大模型
进入「智能问答配置>其他配置」,打开大模型,如下图所示:
配置本地推理模型信息,再点击保存。如下图所示:
填写项 | 描述 |
---|---|
ApiKey | 用于身份验证的唯一字符串,通常由服务提供商生成 (若接口不需要鉴权,可不填写) |
endPoint | 大模型的具体的服务地址,可以通过该地址与模型进行交 填入基础URL,即不包含 /chat/completions 后缀 |
部署模型名称 | 填入要接入模型的模型名(model name) |
3.2 连接云上大模型
1)开放 FineAI 和 FineBI 服务器对外访问权限,将大模型服务的地址 添加到FineBI 和 FineAI 服务器的白名单中。
2)进入「智能问答配置>其他配置」,打开大模型。输入云上推理大模型服务的相关信息。如下图所示:
配置项 | 描述 |
---|---|
服务商名称 | 从 Azure、OpenAI、deepseek 这三个已支持的大模型服务商中,选择一个要连接的大模型 |
ApiKey | 用于身份验证的唯一字符串,通常由服务提供商生成 (若接口不需要鉴权,可不填写) |
endpoint | 大模型的具体的服务地址,可以通过该地址与模型进行交互 |
部署模型名称 | 填入要接入模型的模型名(model name) |