您正在浏览的是 FineBI6.1 帮助文档,点击跳转至: FineBI5.1帮助文档

升级帆软大模型(fineLLM)

  • 产品级协助
  • 文档创建者:Lily.Wang
  • 历史版本:3
  • 最近更新:BeauXu-徐备 于 2025-03-31
  • 1. 概述

    自 V3.19.0 版本(2025-03-25发布)起,帆软大模型已升级至 vLLM 框架并全面兼容 OpenAI 接口。

    如需将帆软大模型旧版本升级至最新版,请按本文操作。

    2. 操作步骤

    1)进入 llm 容器。

    docker exec -it llm /bin/bash

    2)查看正在运行的服务进程 ID。

    ps -ef | grep app.py

    3)杀掉进程。

    kill -15 进程ID

    4)用 vllm 重新启动服务,重启后的服务可以兼容 OpenAI 接口。

    # 进入 /home/ 目录,用 vllm 启动服务,最后把标准输出和标准错误输出重定向到 /home/fine_llm.log 文件
    cd /home/ && \
    vllm serve qwen2_5_sft_0929 \
    --max-model-len 12288 \
    --dtype float16 \
    --host 0.0.0.0 \
    --port 8020 \
    >> /home/logs/fine_llm.log 2>&1 &

    5)查看日志,观测服务是否成功启动。

    # 查看日志的最后 200 行
    tail -200f /home/logs/fine_llm.log

    若出现以下信息则表示服务启动成功:

    6)依次按下 Ctrl+P 和 Ctrl+Q 退出 Docker 容器。

    附件列表


    主题: 制作可视化组件
    已经是第一篇
    已经是最后一篇

    鼠标选中内容,快速反馈问题

    鼠标选中存在疑惑的内容,即可快速反馈问题,我们将会跟进处理。

    不再提示

    10s后关闭



    AI

    联系我们
    在线支持
    获取专业技术支持,快速帮助您解决问题
    工作日9:00-12:00,13:30-17:30在线
    页面反馈
    针对当前网页的建议、问题反馈
    售前咨询
    采购需求/获取报价/预约演示
    或拨打: 400-811-8890 转1
    qr
    热线电话
    咨询/故障救援热线:400-811-8890转2
    总裁办24H投诉:17312781526
    提交页面反馈
    仅适用于当前网页的意见收集,帆软产品问题请在 问答板块提问前往服务平台 获取技术支持

    反馈已提交

    网络繁忙