
1. 概述
本文将介绍 FineChatBI 如何连接其他大模型(图中蓝色连线部分),连接其他本地大模型需要进行接口改造,连接步骤大致如下:
1)部署 FineAI 服务,目的是转发代理大模型。
2)在 FineChatBI 中配置大模型信息,完成连接。
2. 环境准备
FineAI 的服务器配置要求相对较低,若想节省服务器优化资源使用,可以将 FineAI 服务以及语义模型部署在同一台服务器上。FineAI 部署环境要求如下表所示:
配置项 | 最低配置 |
---|---|
Linux 内核版本 | 3.10以上 |
位数 | 64位 |
核数 | 4核 |
内存 | 8G |
硬盘 | 80G |
显卡 | 可选 |
Docker | 20.0.0 |
3. 部署 FineAI 服务
在为 FineAI 准备的服务器环境中执行本节操作。
3.1 安装 Docker
检查服务器是否已安装 Docker,以满足 FineAI 部署的先决条件,检查 Docker 命令:docker --version
若没有安装则会显示 command not found,如下图所示,此时则需要在服务器上安装 Docker,安装步骤可参考:Linux系统在线安装Docker
若已安装则会显示 Docker 的版本信息,如下图所示:
3.2 上传并运行 Docker 镜像文件
FineAI docker镜像文件下载:FineAI 镜像文件
1)将 Docker 镜像文件(图中为 fine_ai.tar)传输至服务器的指定目录,示例路径:/home/fineai
如果收到后镜像文件以 .gz 结尾,则需要将其解压,解压后如下图所示:
命令示例:gunzip fine-ai-base_v0_1.tar.gz
2)执行 docker load 命令以导入 Docker 镜像文件。
命令示例:docker load -i fine-ai-base_v0_1.tar
4)执行 docker images 命令以确认镜像是否已成功导入。
命令示例:docker images
5)依据已经导入的镜像,使用 docker run 命令创建并启动一个新的容器 。
命令示例:docker run -e TZ=Asia/Shanghai --name fine_ai -p 7666:7666 -it -d fine-ai-base:v0.1-git-ssh /bin/bash
3.3 安装代码
FineAI 代码文件下载:FineAI 代码文件
1)将代码文件 encrypt_fine_ai_xxxxx.tar 传输至服务器的指定目录,示例路径:/home/fineai
2)使用 tar -xvf 命令解压代码文件。
命令示例:tar -xvf encrypt_fine_ai_xxxxx.tar
3)执行 docker cp 命令,将解压后的代码文件复制到容器路径 fine_ai:/root/ 中。
命令示例:docker cp encrypt_fine_ai_xxxxx fine_ai:/root/
4)进入到容器中,并切换到容器内的代码路径中运行代码脚本。
进入容器 fine_ai:docker exec -it fine_ai /bin/bash
切换当前工作目录到代码路径中:cd /root/encrypt_fine_ai_xxx/pipeline
运行脚本:python app.py
5)依次按下 Ctrl+P 和 Ctrl+Q 退出 Docker 容器。
4. 检查接口是否兼容
FineAI 是 OpenAI Chat 接口,用户需要确认自己的本地大模型是否兼容 OpenAI 接口:
情况一:兼容 OpenAI 接口
大模型兼容 OpenAI 接口,则无需任何改造,大模型可以直接连接 FineAI 服务。
情况二:不兼容 OpenAI 接口
大模型若不兼容 OpenAI 接口,推荐使用 vLLM 框架将本地大模型重新部署为兼容 OpenAI 接口的服务,详情请参考 vLLM 官方文档。
情况三:不确定是否兼容 OpenAI 接口
若用户不确认本地大模型是否兼容 OpenAI 接口,可以展开更多查看当前接口是否符合接口规范。
点击展开更多 | ||||||||||||
请求体需要包含以下参数:
请求体示例:
非流式返回体示例:
流式返回体示例:
|
5. FineChatBI 配置大模型
进入「智能问答配置>其他配置>大模型配置」,配置本地服务信息,再点击保存。如下图所示:
填写项 | 描述 |
---|---|
FineAI服务主机 | FineAI 所在服务器 |
FineAI端口 | FineAI 端口号(默认 7666) |
ApiKey | 用于身份验证的唯一字符串,通常由服务提供商生成 (若接口不需要鉴权,可不填写) |
endPoint | 大模型的具体的服务地址,可以通过该地址与模型进行交 填入基础URL,即不包含 /chat/completions 后缀 |
部署模型名称 | 填入要接入模型的模型名(model name) |
6. 测试是否配置成功
测试需要大模型支撑的功能,比如:问答增强、分析思路、归因分析,同义词一键配置等,确保大模型服务在问答BI中可正常使用。