1. 概述
1.1 应用场景
通用大模型用于支撑 FineChatBI 的以下功能:问数(智能模式下语义理解与转写)、问思路、一键配置同义词。
1.2 功能简介
支持选用本地大模型或云上大模型。
2. 选用满足要求的通用大模型
推荐选用的通用模型:
类型 | 推荐模型 | 显卡要求&费用评估 |
---|---|---|
本地大模型 | 通义千问2.5-72B-Instruct(下载链接) | 4*H100 |
通义千问2.5-72B-Instruct-GPTQ-Int4量化(下载链接) | 1*H100(效果比非量化有所下降) | |
DeepSeek-V3 满血版 | 16*H100 起 | |
云上大模型 | 通义千问-Max(32K) | token 费用 = (N x X + M x Y) x U x V
|
DeepSeek-V3/DeepSeek-V3-0324 | ||
GPT-4o |
2.1 大模型能力检查
FineChatBI 要求大模型必须严格按照指定格式输出结果,否则无法正常使用。
用户在连接本地大模型前,需要提前验证模型是否满足 FineChatBI 的要求,详情请参见:判断大模型是否满足 FineChatBI 能力要求。
2.2 大模型接口兼容性检查
本地大模型需检查接口兼容,云上大模型可跳过此步骤。
用户需要确认自己的本地大模型是否兼容 OpenAI 接口:
情况一:兼容 OpenAI 接口
大模型兼容 OpenAI 接口,则无需任何改造,大模型可以直接连接 FineAI 服务。
情况二:不兼容 OpenAI 接口
大模型若不兼容 OpenAI 接口,推荐使用 vLLM 框架将本地大模型重新部署为兼容 OpenAI 接口的服务,详情请参考 vLLM 官方文档。
情况三:不兼容 OpenAI 接口且无法重新部署大模型
接口改造。常驻一个接口转发服务,作为 FineAI 服务和大模型服务之间沟通的桥梁。
接口转发服务需要将 FineAI 的请求体转换成大模型服务支持的格式,发给大模型;并解析大模型的返回,转换成 FineAI 的返回体格式。
FineAI 的请求体和返回体都符合 OpenAI Chat 接口规范,详情见:
点击展开更多 | ||||||||||||
请求体需要包含以下参数:
请求体示例:
当 FineAI 请求体中 stream 为 false 时,返回非流式返回体。 非流式返回体示例:
当 FineAI 请求体中 stream 为 true 时,返回流式返回体。 ![]() 流式返回体必须遵循 SSE 标准。 流式返回体JSON部分示例:
|
3. FineChatBI 配置大模型
3.1 连接本地大模型
进入「智能问答配置>其他配置>大模型配置」,配置本地服务信息,再点击保存。如下图所示:
填写项 | 描述 |
---|---|
ApiKey | 用于身份验证的唯一字符串,通常由服务提供商生成 (若接口不需要鉴权,可不填写) |
endPoint | 大模型的具体的服务地址,可以通过该地址与模型进行交 填入基础URL,即不包含 /chat/completions 后缀 |
部署模型名称 | 填入要接入模型的模型名(model name) |
3.2 连接云上大模型
1)开放 FineAI 和 FineBI 服务器对外访问权限,将大模型服务的地址 添加到FineBI 和 FineAI 服务器的白名单中。
2)进入「智能问答配置>其他配置>大模型」,输入大模型服务的相关信息。
配置项 | 描述 |
---|---|
服务商名称 | 从 Azure、OpenAI、deepseek 这三个已支持的大模型服务商中,选择一个要连接的大模型 |
ApiKey | 用于身份验证的唯一字符串,通常由服务提供商生成 (若接口不需要鉴权,可不填写) |
endpoint | 大模型的具体的服务地址,可以通过该地址与模型进行交互 |
部署模型名称 | 填入要接入模型的模型名(model name) |
以 DeepSeek 为例,当用户希望连接 DeepSeek 的官方 API 时,需填写以下内容:
1)选择服务商名称为 deepseek;
2)输入自己的 ApiKey
3)endPoint 填写 https://api.deepseek.com
4)部署模型名称填写 deepseek-chat(推荐)或 deepseek-reasoner