本文將介紹如何部署 FineChatBI 。
1)FineChatBI 以 FineBI 為底座進行分析,所以需要先準備一台 FineBI 工程。
2)部署語意解析小模型:使用者提出的問題透過語意解析小模型轉化成可執行的資料查詢語句,是 FineChatBI 功能的核心。
3)部署 FineAI:FineAI 作為算法工具以及承擔大模型轉發工作
4)聯絡工作人員獲取「問答 FineChatBI」插件。
5)安裝「問答 FineChatBI」插件
注:本文的部署方案僅適用於非 OPS 部署場景。若 FineBI 採用 OPS 部署方式,則 FineChatBI 同樣需要採用 OPS 部署,無法按照本文所述的部署方式進行操作。
若將三項全部部署在同一台伺服器,或者將其中兩項部署在同一台伺服器,伺服器的記憶體和硬碟資源需求需進行累加計算,其他配置項則選最高配置。
資源項
配置要求
部署 FineBI V6.1 及以上版本
參考 確認FineBI專案伺服器配置 完成伺服器選型
計算規則:將 FineChatBI 的使用者加入 FineBI 的日活使用者數計算伺服器所需資源,並額外預留 10% 的伺服器資源用於 FineChatAI 的使用
Ÿ 未部署 FineBI 的使用者依據計算規則,參考確認 FineBI 專案伺服器配置完成伺服器選型,參考 部署新專案 完成 FineBI 部署
Ÿ 已部署 FineBI 的使用者依據計算規則,衡量已有伺服器是否需要增加資源。若 FineBI 版本低,則需要升級到 V6.1 及以上版本
部署語意解析小模型
Linux 核心版本:3.10 以上
位數:64 位
核數:最低 4 核,推薦 8 核
記憶體:最低 4G,推薦 8G
硬碟:最低 30G,推薦 50G
Docker:20.0.0 及以上
部署 FineAI
記憶體:8G
硬碟:20G
顯卡:可無顯卡,推薦 4090
請在為語意解析小模型準備的伺服器環境中執行本節操作。
請聯絡工作人員獲取語意解析小模型的部署資源。
安裝步驟中需要使用到 Docker,請先檢查伺服器中是否已完成安裝 Docker,檢查 Docker 命令:docker --version
若沒有安裝則會顯示 command not found,如下圖所示,此時則需要在伺服器上安裝 Docker,安裝步驟可參考:Linux系統線上安裝Docker
若已安裝則會顯示 Docker 的版本資訊,如下圖所示:
0)(可選)鏡像檔案完整性校驗
安裝鏡像程式失敗時,可查看鏡像檔案 md5 碼和本文檔是否一致,若不一致則需要重新下載檔案。
範例程式碼:md5sum fine-chat-bi-parser-base_v1_6.tar
鏡像檔案名稱
md5 校驗碼
fine-chat-bi-parser-base_v1_6.tar
a4b82e5ea243fa7acd9aa6771eb55810
1)將 「鏡像」上傳到伺服器中指定的資料夾中
範例上傳資料夾路徑為:/home/AI
注:直接上傳,上傳後不要解壓!!!
2)使用命令進入到資料夾路徑,命令為:cd 資料夾路徑
範例程式碼:cd /home/AI
3)檢查檔案
範例程式碼:ls
4)運作鏡像檔案,命令為:docker load -i 鏡像檔案壓縮包
範例程式碼:docker load -i fine-chat-bi-parser-base_v1_6.tar
5)運作完成後,使用命令檢查,出現鏡像的名稱和版本號即為完成,命令為:docker images
範例程式碼:docker images
6)使用命令運作鏡像,命令為:docker run -it -e TZ=Asia/Shanghai --name fine-chat-bi-parser-base -d -p 8666:8666 基礎鏡像名稱:基礎鏡像版本號
範例程式碼:docker run -m 4g -it -e TZ=Asia/Shanghai --name fine-chat-bi-parser-base -d -p 8666:8666 fine-chat-bi-parser-base:v1.6
7)使用命令檢查容器,命令為:docker ps
1)將獲取的程式碼檔案 encrypt_vXX_XXX.tar 包上傳至伺服器,之後再解壓。命令為:tar -xvf 程式碼檔案路徑/程式碼檔案名稱
範例程式碼:tar -xvf /home/AI/encrypt_v1_5_1.tar
2)將程式碼檔案放置到鏡像中,命令為:docker cp 程式碼檔案路徑/程式碼檔案名稱 fine-chat-bi-parser-base:/root/
範例程式碼:docker cp /home/AI/encrypt_v1_5_1/ fine-chat-bi-parser-base:/root/
3)進入鏡像的 /bin/bash 資料夾中,命令為:docker exec -it 鏡像名稱 /bin/bash
範例程式碼:docker exec -it fine-chat-bi-parser-base /bin/bash
4)進入程式碼資料夾,命令為:cd /root/程式碼檔案名稱/pipeline/
範例程式碼:cd /root/encrypt_v1_5_1/pipeline/
5)運作程式碼,命令為:python app.py &
範例程式碼:python app.py &
6)可直接關閉終端,跳出 Docker 容器。
在為 FineAI 準備的伺服器環境中執行本節操作。
檢查伺服器是否已安裝 Docker,以滿足 FineAI 部署的先決條件,檢查 Docker 命令:docker --version
若已安裝則會顯示 Docker 的版本資訊。
FineAI docker鏡像檔案下載:請聯絡工作人員獲取。
1)將 Docker 鏡像檔案(圖中為 fine_ai.tar)傳輸至伺服器的指定目錄,範例路徑:/home/fineai
如果收到後鏡像檔案以 .gz 結尾,則需要將其解壓,解壓後如下圖所示:
命令範例:gunzip fine-ai-base_v0_1.tar.gz
2)執行 docker load 命令以匯入 Docker 鏡像檔案。
命令範例:docker load -i fine-ai-base_v0_1.tar
4)執行 docker images 命令以確認鏡像是否已成功匯入。
命令範例:docker images
5)依據已經匯入的鏡像,使用 docker run 命令建立並啟動一個新的容器 。
命令範例:docker run -m 8g -e TZ=Asia/Shanghai --name fine_ai -p 7666:7666 -it -d fine-ai-base:v0.2 /bin/bash
FineAI 程式碼檔案:FineAI 程式碼
1)將程式碼檔案 encrypt_fine_ai_xxxxx.tar 傳輸至伺服器的指定目錄,範例路徑:/home/fineai
2)使用 tar -xvf 命令解壓程式碼檔案。
命令範例:tar -xvf encrypt_fine_ai_xxxxx.tar
3)執行 docker cp 命令,將解壓後的程式碼檔案複製到容器路徑 fine_ai:/root/ 中。
命令範例:docker cp encrypt_fine_ai_xxxxx fine_ai:/root/
4)進入到容器中,並切換到容器內的程式碼路徑中運作程式碼腳本。
i 進入容器 fine_ai:docker exec -it fine_ai /bin/bash
ii 切換當前工作區間到程式碼路徑中:cd /root/encrypt_fine_ai_xxx/pipeline
iii 運作腳本:python app.py
5)依次按下 Ctrl+P 和 Ctrl+Q 跳出 Docker 容器。
1)下載 FineChatBI 插件:聯絡工作人員獲取。
2)超管登入管理平台,選擇「管理系統>插件管理>應用商城」,選擇從本地安裝獲取的安裝包,完成安裝即可。
3)完成後重新整理頁面,選擇「管理系統>智慧問答配置>其他配置」,配置伺服器 ip 和埠,點選儲存即可。如下圖所示:
填寫項
描述
主機
語意解析小模型的 ip 地址
埠
語意解析小模型的埠號(預設 8666)
FineAI服務主機
FineAI 的 ip 地址
FineAI埠
FineAI 的埠号(預設 7666)
4)在管理系統右下角出現「問答BI」按鈕即可完成,如下圖所示:
聯絡銷售獲取授權檔案(fanruan.lic)。
進入 FineChatBI 服務架構概述 ,連結大模型。
滑鼠選中內容,快速回饋問題
滑鼠選中存在疑惑的內容,即可快速回饋問題,我們將會跟進處理。
不再提示
10s後關閉
反馈已提交
网络繁忙