您正在浏覽的是 FineBI 7.X 幫助文檔,點選跳轉至 FineBI 6.X 幫助文檔

本地服務-連結帆軟大模型

icon點選傳回主目錄:【目錄】FineChatBI

1. 概述

本文將介紹 FineChatBI 如何連結帆軟大模型(圖中藍色遠端部分),總共需要有三個步驟:

1)部署帆軟大模型。

2)在 FineChatBI 中配置大模型資訊,完成連結。

1744794481yg0y.png

2. 帆軟大模型環境準備

icon非常重要
1. FineLLM 必須部署在擁有 GPU 硬體的伺服器,且 GPU 配置符合要求。
2. 伺服器必須安裝符合要求的英偉達驅動(聯絡顯卡供應商或伺服器供應商安裝)
3. 確認伺服器安裝了 nvidia container toolkit(聯絡顯卡供應商或伺服器供應商安裝)
4. 模型體積較大,需保證伺服器擁有至少 100GB 可用空間

客戶需準備一台配備安培架構 GPU 的伺服器部署大模型,推薦使用的 GPU 型號包括 4090,A10,A100,L20,L40,L40S,A800,A40,A6000,H100,H800 等。

配置項
配置
Linux 核心版本3.10 以上
位數64
GPU顯存

架構:安培以

最低 24G;推薦 80 G

CPU最低 8 核;推薦 16 核
記憶體
最低 64G;推薦 128 G
硬碟
200GB(帆軟大模型體積大,伺服器至少有 100GB 可用空間)
docker20.0.0
英偉達驅動
cuda12.2以上的版本

注:不同的 GPU 型號需要不同的驅動,建議安裝驅動的操作交給專業人士(聯絡顯卡供應商或伺服器供應商安裝)

安裝英偉達容器包

Nvidia container toolkit(聯絡顯卡供應商或伺服器供應商安裝)

3. 部署帆軟大模型(fineLLM)

在為大模型準備的伺服器環境中執行本節操作。

3.0 檢查驅動

檢查英偉達驅動:執行 nvidia-smi,顯示顯卡詳情則表示驅動已安裝。

檢查 Nvidia container toolkit:執行 nvidia-container-runtime --version,顯示版本號則表示 Nvidia container toolkit 已安裝。

3.1 安裝 Docker

安裝步驟中需要使用到 Docker,請先檢查伺服器中是否已完成安裝 Docker,檢查 Docker 命令:docker --version

  • 若沒有安裝則會顯示 command not found,如下圖所示,此時則需要在伺服器上安裝 Docker,安裝步驟可參考:Linux系統線上安裝Docker

1740988999420423.png

  • 若已安裝則會顯示 Docker 的版本資訊,如下圖所示:

1740989008174661.png

3.2 上傳資源到伺服器

將安裝資源下載到伺服器指定資料夾中:

資源名
下載連結
鏡像檔案

檔案較大,建議使用命令直接下載到伺服器

https://fanruan-ai.oss-cn-hangzhou.aliyuncs.com/fine-llm/fine-llm_v1_0.tar

模型檔案
檔案較大,建議使用命令直接下載到伺服器

https://fanruan-ai.oss-cn-hangzhou.aliyuncs.com/models/qwen_sft_0929.tar.gz 

1)將 Docker 鏡像檔案下載到伺服器的指定目錄(範例路徑:/home/images),命令範例:

  1. 先進入範例路徑:cd /home/images

  2. 下載鏡像檔案到該路徑下:curl -O https://fanruan-ai.oss-cn-hangzhou.aliyuncs.com/fine-llm/fine-llm_v1_0.tar

2)建立 qwen_model 資料夾並下載模型檔案到伺服器,並記住 /模型所在路徑/qwen_model(範例路徑:/home/qwen_model),命令範例:

  1. 進入範例路徑:cd /home/qwen_model

  2. 下載模型檔案到該路徑下:curl -O https://fanruan-ai.oss-cn-hangzhou.aliyuncs.com/models/qwen_sft_0929.tar.gz

  3. 解壓模型檔案:tar -zxvf qwen_sft_0929.tar.gz ,解壓後如下圖所示:

1740989035996094.png

3.3 安裝 llm 容器

1)執行 docker load 命令匯入鏡像檔案。若遇到報錯“no space left on device”請查看文檔末尾的常見問題。

命令範例:docker load -i fine-llm_v1_0.tar

1740989056964055.png

2)執行 docker images 命令以確認鏡像是否已成功匯入。

命令範例:docker images

1740989069355249.png

3)依據已經匯入的鏡像,使用 docker run 命令建立並啟動一個新的容器,並給服務分配可使用的 GPU 資源

命令範例如下:

docker run -it --gpus all -e CUDA_VISIBLE_DEVICES=0 -e TZ=Asia/Shanghai --name llm -d -p 8020:8020 -v /home/qwen_model/qwen2_5_sft_0929:/home/qwen2_5_sft_0929 -v /希望日誌匯出的路徑/fine_llm.log:/home/fine_llm.log fine-llm:v1.0

根據實際修改命令描述
-e CUDA_VISIBLE_DEVICES=0服務運作程式中,實際可使用哪幾個編號的 GPU 執行計算任務,如:

CUDA_VISIBLE_DEVICES=0 表示服務僅可使用編號為 0 的 GPU,

GPU 編號可執行 nvidia-smi 查看

-v /home/qwen_model/qwen2_5_sft_0929:/home/qwen2_5_sft_0929將伺服器上的 /home/qwen_model/qwen2_5_sft_0929 目錄掛載到容器內部的 /home/qwen2_5_sft_0929 目錄,方便容器內的應用直接存取模型檔案
-v /希望日誌匯出的路徑/logs:/home/logs掛載日誌檔案,日誌路徑可由使用者自訂,建議放在 qwen_model 的同級目錄,且保證 /希望日誌匯出的路徑/logs 路徑存在

4)進入到容器中

docker exec -it llm /bin/bash

5)啟動服務

cd /home/ && vllm serve qwen2_5_sft_0929 --max-model-len 12288 --dtype float16 --host 0.0.0.0 --port 8020 >> /home/logs/fine_llm.log 2>&1 &

6)查看日誌,觀測服務是否成功啟動

# 查看日誌的最後 200 行tail -200f /home/logs/fine_llm.log

若出現以下資訊則表示服務啟動成功

1742873197ZLVD.png

7)依次按下 Ctrl+P 和 Ctrl+Q 跳出 Docker 容器。

4. FineChatBI 配置大模型

進入「智慧問答配置>其他配置>大模型配置」,配置本地服務資訊,再點選儲存。如下圖所示:

QQ20250623-160520.png

填寫項描述
ApiKey無需填寫
endPoint

大模型的具體的服務地址,可以透過該地址與模型進行交互

http://宿主機IP:8020/v1

部署模型名稱

qwen2_5_sft_0929

5. 測試是否配置成功

測試需要大模型支撐的功能,比如:問答增強、分析思路、歸因分析,同義詞一鍵配置等,確定大模型服務在問答BI中可正常使用。


附件列表


主题: FineChatBI 部署
  • 有帮助
  • 没帮助
  • 只是浏览
  • 圖片不清晰
  • 用語看不懂
  • 功能說明看不懂
  • 操作說明太簡單
  • 內容有錯誤
中文(繁體)

滑鼠選中內容,快速回饋問題

滑鼠選中存在疑惑的內容,即可快速回饋問題,我們將會跟進處理。

不再提示

10s後關閉

獲取幫助
線上支援
獲取專業技術支援,快速幫助您解決問題
工作日9:00-12:00,13:30-17:30在线
頁面反饋
針對當前網頁的建議、問題反饋
售前咨詢
業務咨詢
電話:0933-790886或 0989-092892
郵箱:taiwan@fanruan.com
頁面反饋
*問題分類
不能為空
問題描述
0/1000
不能為空

反馈已提交

网络繁忙