1. 概述
1.1 版本
运维平台版本 | FineBI版本 | 功能变更 |
---|---|---|
V2.20.0 | 6.1.6 | - |
V2.23.0 | 6.1.6 | AI服务所需资源合理调整 |
V2.25.0 | 7.1.3 | - |
1.2 应用场景
本文面向:使用运维平台部署 FineBI6.1 和 AI 组件的用户,详细介绍相关部署操作。
请先全文阅读,了解整体操作步骤后,再着手进行。
1.3 步骤简介
步骤 | 说明 | |
---|---|---|
1 | 部署运维平台 | 本文所部署的 FineBI 和 AI 组件,均依赖运维平台部署 因此用户需要提前部署好运维平台 |
2 | 运维平台部署 FineBI | 本文所部署的 AI 组件,需要在运维平台部署的 FineBI 项目中添加 因此用户需要提前使用运维平台部署 FineBI |
3 | 准备 AI 服务器 | AI 组件需要足够的服务器资源维持运行 因此用户需要准备好 AI 组件部署到的服务器 |
4 | 准备 AI 镜像 | 运维平台依赖镜像部署 AI 因此用户需要准备好 AI 组件相关的镜像包 |
5 | 部署 AI 组件 | 以上步骤全部准备完毕后 用户即可通过运维平台,为 FineBI 项目添加 AI 组件 |
6 | 智能问答配置 | FineBI 项目成功添加 AI 组件后,还需要手动为 FineBI 安装 FineChatBI 插件,方可成功启用智能问答 |
2. 部署前准备
2.1 运维平台部署FineBI
FineBI 与 AI 组件需要按顺序部署,因此用户需要先使用运维平台部署好 FineBI 。
步骤 | 说明 | |
---|---|---|
1 | 部署运维平台 | 部署运维平台 帆软应用依赖运维平台进行部署 因此用户需要提前部署好FineOps运维平台 请确保运维平台版本在V2.20.0及以上 |
2 | 准备FineBI服务器 | 准备FineBI部署环境 |
3 | 确认镜像仓库 | 部署新项目中的各个组件,是需要通过镜像进行部署的。要么镜像仓库已有镜像,要么支持从云端拉取镜像 |
4 | 部署FineBI | 请确保FineBI版本在6.1.6及以上 |
2.2 准备AI组件服务器
由于 AI 模型所需资源较多,以及后期增加大模型等考虑,建议为AI组件单独准备一台服务器。
该服务用于部署的 AI 组件,包括:
FineAI(fine-ai):算法工具、大模型转发
FineChatBl 语义解析小模型(fine-chat-bi-parser):问答BI,将用户提问的自然语句转化为可执行的数据查询语句
FineAI Redis(fine-ai-redis):绑定问答BI一起部署
服务器要求如下:
推荐配置(预加载主题数<20):CPU16核、可用内存64G、可用磁盘100G,AI组件独占服务器
最低配置(预加载主题数<10):CPU8核、可用内存16G、可用磁盘80G,AI组件与FineBI项目共用服务器(该配置为 AI 组件可用配置,请在部署完 BI 后确认服务器是否有相关空闲可用配置,再着手部署 AI )
分类 | 推荐配置 | 最低配置 | |
---|---|---|---|
适配场景 | FineBI项目服务器配置 方案二、方案四 预加载主题数<20 | FineBI项目服务器配置 方案一、方案三 预加载主题数<10 | |
服务器基础要求 | 时间一致 | AI组件服务器与项目其他服务器时间一致,相差不能超过5秒 服务器时间不一致,可能会导致定时任务执行错误、日志记录混乱、数据不一致等多种问题 | |
时区一致 | AI组件服务器与项目其他服务器时区完全一致 服务器时区不一致,可能会导致定时任务执行错误、日志记录混乱、数据不一致等多种问题 | ||
内网互通 | AI组件服务器与项目其他服务器内网互通,或可以开放端口访问 下文将具体讲述对应端口开放要求 | ||
不建议虚拟机 | 由于虚拟机自身的特性,会存在资源竞争等情况,可能导致出现预期外的系统故障,因此不建议在虚拟机中部署帆软应用 | ||
操作系统 | 操作系统类型 | Linux | |
操作系统架构 | X86_64 | ||
操作系统内核 | 3.10版本及以上 | ||
操作系统软件 | 推荐:Ubuntu 22 版本 支持:
注:CentOS操作系统目前已停止服务,因此帆软优先推荐使用Ubuntu操作系统 使用Ubuntu操作系统时,请注意检查用户权限(默认root用户不是超管)和磁盘类型(是否为XFS),下文已详细备注 | ||
CPU | CPU核数 | 16核 | 8核 |
CPU主频 | 2.5GHz及以上 | ||
内存 | 剩余空闲 物理内存 | 64G | 16G |
磁盘 | 剩余空闲 磁盘大小 | 服务器中存在一个分区剩余可用空间大于100G 注1:必须要有任一分区满足条件,不可将分区容量加和 | 服务器中存在一个分区剩余可用空间大于 80G 注:必须要有任一分区满足条件,不可将分区容量加和 |
磁盘性能 | 最低性能要求为固态硬盘(SSD) | ||
外挂目录 | 准备外挂目录 | 准备FineBI项目挂载目录 注:禁止直接使用/、/usr、/root、/usr/local四个目录作为挂载目录,可在对应位置新建文件夹使用 | |
文件系统自动挂载 | 外挂目录对应的文件系统需要配置重启自动挂载 如果没有配置重启自动挂载,那么容器可能无法访问这些挂载目录,导致数据丢失或应用程序无法正常启动 | ||
非共享路径 | 外挂目录不能是一个共享路径 共享文件系统可能导致性能下降、文件权限问题和数据一致性挑战,这些问题会影响容器应用程序的可靠性和速度 | ||
显卡 | 是否使用 | FineAI 采用轻量模型计算,显卡可大幅加速处理,带来更佳体验 无显卡时系统仍可运行,但响应较慢 建议使用显卡,4080/4090/a100均可 | 无显卡 |
显卡内存 | 24GB及以上 | ||
权限与命令 | tar命令 | 确保服务器已安装tar命令 tar命令是一个用于打包和压缩文件的常用命令行工具 运维平台需要使用该命令进行文件解压 | |
sed命令 | 确保服务器已安装sed命令 sed命令是一个用于处理文本的工具 运维平台需要使用该命令进行文本处理 | ||
ssh | 确保用户可以通过ssh连接服务器 确保用户的ssh连接密码无英文单引号字符,否则部署时权限检查无法通过 | ||
sudo权限 | 用于部署项目的服务器用户,必须具备相关sudo权限 1)优先推荐使用root超管用户进行项目部署和运行 2)如需使用非超管root用户进行项目的部署和运行 请参考文档:Linux用户权限说明 注:Ubuntu操作系统,默认的root用户并非超管用户,请务必再次确认所准备的用户是否满足上方超链的linux用户权限 | ||
端口网络 | 内网时延 | <1ms | |
组件占用端口 | 请确保默认的映射端口是否已被使用,如已被使用,请安排好其他空闲端口 端口占用检查和防火墙放行方法请参考:端口占用检查与防火墙配置
| ||
组件端口互通 | 服务器需要对外开放一些端口,以确保组件间正常工作 端口占用检查和防火墙放行方法请参考:端口占用检查与防火墙配置 1)FineAI(fine-ai)
2)FineChatBl 语义解析小模型(fine-chat-bi-parser)
3)FineAI Redis(fine-ai-redis)
|
2.3 准备AI镜像
FineAI 和 FineChatBl 语义解析小模型组件,默认无法从云端镜像仓库或全量finekey安装包获取。
用户需参考本节单独推送这两个组件的镜像包。
1)获取镜像包
FineBI版本 | 镜像下载 |
---|---|
FineBI6.1 | FineAI组件镜像:FineAI组件镜像 FineChatBl 语义解析小模型组件镜像:FineChatBl 语义解析小模型组件镜像 |
FineBI7.0 | FineAI组件镜像:FineAI组件镜像 FineChatBl 语义解析小模型组件镜像:FineChatBl 语义解析小模型组件镜像 |
2)上传镜像包
管理员登录运维平台,点击「运维平台管理>运维组件」。
点击「导出部署信息」,导出成功后会提示导出的文件地址。
前往运维平台所在服务器,在导出文件所在的logs目录,同级目录下,有一个resources文件夹,即为镜像上传位置。
例如本示例,导出文件所在文件夹为/home/ops/fanruan_5d15bea4/ops/logs,那么镜像上传位置为/home/ops/fanruan_5d15bea4/ops/resources
请将上一步下载的两个镜像.tar.gz文件,上传到resources文件夹中
3)推送入库
管理员登录运维平台,点击「维护中心>镜像管理」,点击「加载镜像」。
即可选择resources下的两个 AI 镜像文件进行加载,加载完成后resources下的镜像文件会被删除。
4)确认并修改部署版本
推送成功后,管理员登录运维平台,点击「维护中心>镜像管理」,查看推送到仓库的新镜像。
找到刚刚推送的fine-ai和fine-chat-bi-parser镜像,记下版本号。
管理员登录运维平台,点击「运维平台管理>更新升级>部署版本列表」。
手动修改AI相关的两个组件的镜像版本号,确保与镜像管理中的镜像版本号完全一致,此时运维平台才会读取到有待更新的镜像版本。
2.4 确认存在redis镜像
FineAI Redis组件,即镜像仓库中的redis组件。
管理员登录运维平台,点击「维护中心>镜像管理」,即可查看当前镜像仓库中是否存在redis镜像。
请确保存在v20.3.0-6.2.17及以上版本的redis镜像。如不存在符合版本要求的redis镜像,请确认镜像仓库支持连接帆软云端仓库
3. 部署AI组件
1)进入添加组件界面
管理员登录运维平台,选择对应FineBI项目,点击「维护>组件管理」按钮。
点击「添加组件」,选择添加组件类型「业务服务>AI」
2)新增节点(选做)
如为AI组件准备了全新服务器,需要先将该服务器添加到项目节点中。
点击「新增节点」按钮,输入服务器信息,点击「新增节点」,等待添加完成即可。
具体节点设置如下表所示:
节点设置 | 说明 |
---|---|
节点类型 | 请选择「组件」 该组件服务器上不建议部署其他工程或内容 |
主机 | 请输入节点主机IP(内网IP) 注:同一项目中,主机不支持重复添加多次 |
端口 | 请输入节点端口号,默认为22 |
用户名 | 请输入有sudo权限的服务器用户名 |
验证方法 | 支持两种:密码、公钥 注1:密码密钥仅用于部署项目,部署结束后无需使用,项目与运维平台的对接依赖平台配置。 因此后续如修改了服务器密码,不会对运维监控产生影响。 注2:如选择公钥方式验证 请上传后缀为.key / .pem / .crt的私钥文件(例如id_rsa.key) 请勿上传其他后缀格式的私钥文件,请勿上传公钥文件(例如id_rsa.pub) |
挂载路径 | 请输入节点安装目录的服务器路径,即 2.2 节准备环节设置的挂载目录 默认为~/data,~代表所使用的服务器用户的主目录 注:可在终端使用该用户账号访问服务器,输入echo $HOME命令查看该用户的主目录路径 |
外网IP | 选填项 如果服务器不支持内网访问,仅支持外网映射,可以填写可联通的外网IP |
3)选择节点
选择需要用于部署AI组件的项目节点。
节点最低配置为 CPU12核、可用内存24G、可用磁盘50G。低于该配置的节点灰化不可选。
4)确认服务配置
请根据2.2节准备的可用空闲端口,对每一个组件的端口进行调整
请务必修改FineAI Redis组件的密码,组件的默认密码随机生成,部署成功后无法修改。
5)开始部署
点击「开始部署」按钮,自动在所选节点中部署AI相关组件。
如果运维平台镜像仓库没有相关组件镜像,部署前会自动从云端拉取镜像。
镜像准备完毕后,开始逐个部署组件,若部署失败则显示失败原因。
4. 配置智能问答
4.1 FineBI安装插件
1)下载 FineChatBI 插件
FineBI6.1:FineChatBI 插件
FineBI7.0:FineChatBI 插件
2)管理员登录FineBI,点击「管理系统>插件管理>应用商城」
3)点击「从本地安装」,选择获取的 FineChatBI 插件安装包,完成安装即可。
4.2 AI授权
授权安装方法:根据网络环境,推荐 公有云认证 (外网)/ 注册新项目(内网)
授权购买方法:AI相关授权,请联系帆软销售获取。各功能点对应功能如下:
功能点 | 相关文档 |
---|---|
问答查数 | FineChatBI基础问答 |
多轮问答 | |
规则模型 | |
生成仪表板 | AI制作仪表板 |
移动端 | FineChatBI 移动端使用入口 |
第三方大模型 | |
场景大模型 | |
异常检测 | 显示异常检测内容 |
归因分析 | 归因分析 |
报告生成 | AI写分析报告 |
趋势预测 | 趋势预测 |
4.3 确认配置成功
AI 配置成功,且 AI 相关授权安装成功后,在 FineBI 右下角出现「问答BI」按钮,即代表智能问答配置完成。