您正在浏览的是 FineBI6.1 帮助文档,点击跳转至: FineBI5.1帮助文档

本地服务-连接其他大模型

  • 产品级协助
  • 文档创建者:TW
  • 历史版本:24
  • 最近更新:BeauXu-徐备 于 2025-04-27
  • icon点击返回主目录:【目录】FineChatBI

    1. 概述

    本文将介绍 FineChatBI 如何连接其他大模型(图中蓝色连线部分),连接其他本地大模型需要进行接口改造,连接步骤大致如下:

    1)部署 FineAI 服务,目的是转发代理大模型。

    2)在 FineChatBI 中配置大模型信息,完成连接。 

    2. 检查大模型是否满足 FineChatBI 要求 

    FineChatBI 要求大模型必须严格按照指定格式输出结果,否则无法正常使用。

    用户在连接本地大模型前,需要提前验证本地模型是否满足 FineChatBI 的要求,详情请参见:判断大模型是否满足 FineChatBI 能力要求

    3. 检查大模型接口是否兼容 OpenAI

    FineAI 是 OpenAI Chat 接口,用户需要确认自己的本地大模型是否兼容 OpenAI 接口:

    情况一:兼容 OpenAI 接口

    大模型兼容 OpenAI 接口,则无需任何改造,大模型可以直接连接 FineAI 服务。

    情况二:不兼容 OpenAI 接口

    大模型若不兼容 OpenAI 接口,推荐使用 vLLM 框架将本地大模型重新部署为兼容 OpenAI 接口的服务,详情请参考 vLLM 官方文档

    情况三:不兼容 OpenAI 接口且无法重新部署大模型

    接口改造。常驻一个接口转发服务,作为 FineAI 服务和大模型服务之间沟通的桥梁。

    接口转发服务需要将 FineAI 的请求体转换成大模型服务支持的格式,发给大模型;并解析大模型的返回,转换成 FineAI 的返回体格式。

    FineAI 的请求体和返回体都符合 OpenAI Chat 接口规范,详情见:

    点击展开更多
    • 请求 URL 规范

    大模型的请求 URL 需要以 /chat/completions 结尾。
    • 请求体规范

    请求体需要包含以下参数:

    参数说明
    model即问答 BI 配置界面的部署名
    messages

    对话历史记录,包括角色和历史。类型为 List[dict(str,str)]

    temperature调节模型输出结果的随机性,值越大随机性越强
    max_tokens控制生成输出 token 的数量
    stream

    是否流式输出,bool 类型。

    必须将 FineAI 发送的 stream 传递给大模型;

    必须根据 stream 的值判断返回体格式是否为流式格式。

    请求体示例:

    {
        "model""gpt-3.5-turbo",
        "messages": [
            {
                "role""system",
                "content""你是算术专家"
            },
            {
                "role""user",
                "content""圆周率怎么计算"
            }
        ],
        "temperature"0.95,
        "max_tokens"8192,
        "stream"false
    }
    显示代码
    • 返回体规范

    当 FineAI 请求体中 stream 为 false 时,返回非流式返回体。

    非流式返回体示例:

    {
      "choices": [
        {
          "index"0,
          "message": {
            "role""assistant",
            "content""圆周率的计算方式有以下几种……"
          },
          "finish_reason""stop"
        }
      ]
    }

    当 FineAI 请求体中 stream 为 true 时,返回流式返回体。

    流式返回体示例:

    • 生成过程中:每个 token 通过 content 返回,且 finish_reason 为 null

    • 流式返回结束:返回了最后一个 token 后,须要有一个额外的返回体,其中 content 为 null,而 finish_reason 为 "stop"


    {
        "choices": [
            {
                "finish_reason""stop",
                "delta": {
                    "content""好的"
                },
                "index"0
            }
        ]
    }


    4. FineChatBI 配置大模型

    进入「智能问答配置>其他配置>大模型配置」,配置本地服务信息,再点击保存。如下图所示:

    填写项描述
    ApiKey用于身份验证的唯一字符串,通常由服务提供商生

    (若接口不需要鉴权,可不填写)

    endPoint

    大模型的具体的服务地址,可以通过该地址与模型进行交

    填入基础URL,即不包含 /chat/completions 后缀

    部署模型名称

    填入要接入模型的模型名(model name)

    5. 测试是否配置成功

    测试需要大模型支撑的功能,比如:问答增强、分析思路、归因分析,同义词一键配置等,确保大模型服务在问答BI中可正常使用。


    附件列表


    主题: 非容器化FineBI6.0部署方案
    已经是第一篇
    已经是最后一篇
    • 有帮助
    • 没帮助
    • 只是浏览
    中文(简体)

    鼠标选中内容,快速反馈问题

    鼠标选中存在疑惑的内容,即可快速反馈问题,我们将会跟进处理。

    不再提示

    10s后关闭



    AI

    联系我们
    在线支持
    获取专业技术支持,快速帮助您解决问题
    工作日9:00-12:00,13:30-17:30在线
    页面反馈
    针对当前网页的建议、问题反馈
    售前咨询
    采购需求/获取报价/预约演示
    或拨打: 400-811-8890 转1
    qr
    热线电话
    咨询/故障救援热线:400-811-8890转2
    总裁办24H投诉:17312781526
    提交页面反馈
    仅适用于当前网页的意见收集,帆软产品问题请在 问答板块提问前往服务平台 获取技术支持

    反馈已提交

    网络繁忙