反馈已提交

网络繁忙

您正在浏览的是 FineBI7.X 帮助文档,点击跳转至: FineBI6.X帮助文档

通用大模型

  • 文档创建者:Lily.Wang
  • 历史版本:6
  • 最近更新:Lily.Wang 于 2025-09-08
  • 1. 概述

    1.1 应用场景

    通用大模型用于支撑 FineChatBI 的以下功能:问数(智能模式下语义理解与转写)、问思路、一键配置同义词。

    1.2 功能简介

    支持选用本地大模型或云上大模型。

    2. 选用满足要求的通用大模型

    推荐选用的通用模型:

    类型推荐模型
    显卡要求&费用评估
    本地大模型
    通义千问2.5-72B-Instruct(下载链接4*H100
    通义千问2.5-72B-Instruct-GPTQ-Int4量化(下载链接1*H100(效果比非量化有所下降)
    DeepSeek-V3 满血版
    16*H100 起
    云上大模型通义千问-Max(32K)token 费用 = (N x X + M x Y) x U x V
    • N:用户每次查询平均消耗 input token 数,经验值 20000

    • M:用户每次查询平均消耗 output token 数,经验值 1000

    • X:大模型云服务 input token 收费标准,以实际为准

    • Y:大模型云服务 output token 收费标准,以实际为准

    • U:月活用户数

    • V:单用户平均月普通查询次数,经验值 20

    DeepSeek-V3/DeepSeek-V3-0324
    GPT-4o

    2.1 大模型能力检查

    FineChatBI 要求大模型必须严格按照指定格式输出结果,否则无法正常使用。

    用户在连接本地大模型前,需要提前验证模型是否满足 FineChatBI 的要求,详情请参见:判断大模型是否满足 FineChatBI 能力要求

    2.2 大模型接口兼容性检查

    本地大模型需检查接口兼容,云上大模型可跳过此步骤。

    用户需要确认自己的本地大模型是否兼容 OpenAI 接口:

    情况一:兼容 OpenAI 接口

    大模型兼容 OpenAI 接口,则无需任何改造,大模型可以直接连接 FineAI 服务。

    情况二:不兼容 OpenAI 接口

    大模型若不兼容 OpenAI 接口,推荐使用 vLLM 框架将本地大模型重新部署为兼容 OpenAI 接口的服务,详情请参考 vLLM 官方文档

    情况三:不兼容 OpenAI 接口且无法重新部署大模型

    接口改造。常驻一个接口转发服务,作为 FineAI 服务和大模型服务之间沟通的桥梁。

    接口转发服务需要将 FineAI 的请求体转换成大模型服务支持的格式,发给大模型;并解析大模型的返回,转换成 FineAI 的返回体格式。

    FineAI 的请求体和返回体都符合 OpenAI Chat 接口规范,详情见:

    点击展开更多
    • 请求 URL 规范

    大模型的请求 URL 需要以 /chat/completions 结尾。
    • 请求体规范

    请求体需要包含以下参数:

    参数说明
    model即问答 BI 配置界面的部署名
    messages

    对话历史记录,包括角色和历史。类型为 List[dict(str,str)]

    temperature调节模型输出结果的随机性,值越大随机性越强
    max_tokens控制生成输出 token 的数量
    stream

    是否流式输出,bool 类型。

    必须将 FineAI 发送的 stream 传递给大模型;

    必须根据 stream 的值判断返回体格式是否为流式格式。

    请求体示例:

    {
        "model": "gpt-3.5-turbo",
        "messages": [
            {
                "role": "system",
                "content": "你是算术专家"
            },
            {
                "role": "user",
                "content": "圆周率怎么计算"
            }
        ],
        "temperature": 0.95,
        "max_tokens": 8192,
        "stream": false
    }
    • 返回体规范

    当 FineAI 请求体中 stream 为 false 时,返回非流式返回体。

    非流式返回体示例:

    {
      "choices": [
        {
          "message": {
            "role": "assistant",
            "content": "圆周率的计算方式有以下几种……"
          },
          "finish_reason": "stop"
        }
      ]
    }

    当 FineAI 请求体中 stream 为 true 时,返回流式返回体。

    icon提示:

    流式返回体必须遵循 SSE 标准。
    除JSON结构符合下述要求之外,每个返回体必须以「data:」开头,以两个回车符结尾,返回体 header 设置「Content-Type: text/event-stream」。详情见 SSE 标准。

    流式返回体JSON部分示例:

    • 生成过程中:每个 token 通过 content 返回,且 finish_reason 为 null

    • 流式返回结束:返回了最后一个 token 后,须要有一个额外的返回体,其中 content 为 null,而 finish_reason 为 "stop"

    {
        "choices": [
            {
                "finish_reason": null,
                "delta": {
                    "content": "好的"
                }
            }
        ]
    }

    3. FineChatBI 配置大模型

    3.1 连接本地大模型

    进入「智能问答配置>其他配置>大模型配置」,配置本地服务信息,再点击保存。如下图所示:

    填写项描述
    ApiKey用于身份验证的唯一字符串,通常由服务提供商生

    (若接口不需要鉴权,可不填写)

    endPoint

    大模型的具体的服务地址,可以通过该地址与模型进行交

    填入基础URL,即不包含 /chat/completions 后缀

    部署模型名称

    填入要接入模型的模型名(model name)

    3.2 连接云上大模型

    1)开放 FineAI 和 FineBI 服务器对外访问权限,将大模型服务的地址 添加到FineBI 和 FineAI 服务器的白名单中。

    2)进入「智能问答配置>其他配置>大模型」,输入大模型服务的相关信息。

    配置项
    描述
    服务商名称从 Azure、OpenAI、deepseek 这三个已支持的大模型服务商中,选择一个要连接的大模型
    ApiKey

    用于身份验证的唯一字符串,通常由服务提供商生

    (若接口不需要鉴权,可不填写)

    endpoint大模型的具体的服务地址,可以通过该地址与模型进行交互
    部署模型名称填入要接入模型的模型名(model name)

    以 DeepSeek 为例,当用户希望连接 DeepSeek 的官方 API 时,需填写以下内容:

    1)选择服务商名称为 deepseek;

    2)输入自己的 ApiKey

    3)endPoint 填写 https://api.deepseek.com

    4)部署模型名称填写 deepseek-chat(推荐)或 deepseek-reasoner



    附件列表


    主题: FineChatBI智能问答
    • 有帮助
    • 没帮助
    • 只是浏览
    中文(简体)

    鼠标选中内容,快速反馈问题

    鼠标选中存在疑惑的内容,即可快速反馈问题,我们将会跟进处理。

    不再提示

    10s后关闭



    AI

    联系我们
    在线支持
    获取专业技术支持,快速帮助您解决问题
    工作日9:00-12:00,13:30-17:30在线
    页面反馈
    针对当前网页的建议、问题反馈
    售前咨询
    采购需求/获取报价/预约演示
    或拨打: 400-811-8890 转1
    qr
    热线电话
    咨询/故障救援热线:400-811-8890转2
    总裁办24H投诉:17312781526
    提交页面反馈
    仅适用于当前网页的意见收集,帆软产品问题请在 问答板块提问前往服务平台 获取技术支持