反馈已提交

网络繁忙

实时任务概述

  • 文档创建者:Roxy
  • 历史版本:32
  • 最近更新:Richard.Guo 于 2025-08-29
  • icon提示:

    产品注册版本为「v5.0共创版时,才能使用数据开发-实时任务

    1) 如需申请免费试用或增购功能点,请填写链接:实时任务意向使用申请表

    2) 如需了解更多实时任务详细信息,可联系技术支持(技术支持联系方式:前往「」,选择「在线支持」、电话「400-811-8890」)。

    1. 概述

    1.1 应用场景

    1)实时读取来源数据,保证实时数据可以写入到目标库。场景示例:

    • CRM 业务系统的 MySQL 中新增的订单合同数据,实时同步到数仓中。

    • 集团级企业,各分公司数据实时写入到 Kafka,总公司数据湖消费 Kafka 中的数据。

    2)读取数据后实时转换,再写入到数仓。场景示例:

    • 水务公司的水务数据,需要实时汇总计算。比如上下游的水位,多个支流的水位,都需要汇总计算后再做一个呈现。

    • 制造企业,需要实时展示产线上良品率、稼动率、工厂效率、损失、工时等指标。

    1.2 使用限制

    1)需要注册实时任务相关功能点。详情请参见:功能点限制

    2)新建数据开发-实时任务需要有某文件夹或者所有实时任务的管理权限。详情请参见:实时任务管理权限

    3)5.0.1.2 及之后版本集群工程支持配置实时任务。

    4)5.0.1.5 及之后版本,实时任务中若使用 WebSocket输入MQTT输入IBM MQ输入Pulsar输入,不能再使用 分组汇总(实时任务)Flink SQL数据关联(多个实时数据源进行关联)

    1.3 实时任务与实时管道区别

    区别项
    实时任务实时管道
    来源表
    只能同步单张表数据
    可以为多张
    同步效果
    实时同步,可对源表数据做简单处理(数据解析、数据过滤、数据汇总等)实时原表原样同步
    支持的来源端能读取更多实时来源端:实时任务支持的数据源
    实时管道支持的数据源

    1.4 效果查看

    用户可到 https://demo.finedatalink.com/ 中,打开「生产实时看板」Demo 体验实时任务。

    新222.gif

    2. 功能说明

    实时任务能够实时地把数据从 A 点投递到 B 点。在投递的过程中可能添加数据清洗的工作,例如实时数仓中的数据解析等。最终结果可供后续业务使用,以提高数据利用率和时效性,满足业务需求。

    1753426658852349.png

    2.1 节点介绍

    FineDataLink 实时任务开发模块提供多种类型的节点,多种节点配合使用,满足您不同的数据处理需求。

    节点是组成实时任务的基本单位,多个节点通过线条连接后可确定执行流程,进而组成一个完整的实时任务。目前有如下节点:

    分类
    算子说明备注
    数据输入kafka输入

    支持使用 Kafka 输入算子实时读取数据


    CDC输入支持使用 CDC 输入算子实时读取数据
    pulsar输入支持使用 Pulsar 输入算子实时读取数据
    MQTT输入
    支持使用 MQTT 输入算子实时读取数据
    IBM MQ输入
    支持使用 IBM MQ 输入算子实时读取数据
    维度表输入
    支持使用维度表输入实时读取数据,便于使用数据关联进行实时跨库关联计算

    WebSocket输入
    读取 WebSocket 数据
    数据输出DB表输出(实时任务)
    支持使用 DB表输出算子实时将数据输出至指定数据库中
    Kafka输出支持使用 Kafka 输出算子将数据实时同步输出至 Kafka 
    WebSocket输出
    支持将数据实时输出到 WebSocket 
    连接数据关联使用数据关联进行实时跨库关联计算数据关联算子前的输入算子都为实时数据源时,需要配置 Flink 引擎
    数据合并可合并多张表的行数据,输出为一张表
    实验室Flink SQL算子
    用户可编写 SQL 语句在实时任务中对数据进行查询和处理

    需要配置 Flink引擎 

    转换列转行实现数据表行列结构的改变-列转行,与定时任务相同
    JSON解析解析 JSON 结构的数据,输出行列格式的数据
    XML解析将 XML 格式数据解析为行列格式数据
    字段设置可实现数据流字段的选择、重命名、数据类型转换操作
    新增计算列在不影响原有字段的情况下,可利用原有字段通过引用或计算获得一个新的字段
    数据过滤过滤符合条件的数据记录
    字段拆列字段值按照特定规则(分隔符或字符数)拆分,拆分后的结果形成新的多列字段和值
    分组汇总
    支持对数据流进行实时聚合计算需要配置 Flink 引擎
    字段拆行字段值按照特定规则(分隔符)拆分,拆分后的结果形成新的一列字段和值
    其他备注说明可帮助用户为任务、节点增加备注

    2.2 操作流程

    步骤
    说明文档
    1
    配置实时任务设计时,数据读取和数据写入的数据源[通用]配置数据连接
    2
    配置好暂存数据的中间件缓存配置
    3读取数据源需要开启日志数据库环境准备概述
    4部署并启动 Kafka

    部署Kafka:KRaft模式

    部署Kafka:ZooKeeper模式

    5

    「选做」置 Flink 引擎

    • 若 数据关联 前的输入算子包含多个实时数据源,需要配置 Flink 引擎

    • 数据开发-实时任务中,若使用 分组汇总 算子,需要配置 Flink 引擎

    Flink引擎
    6创建实时任务,并进行实时任务的开发参考各节点功能文档
    7

    启动任务

    -

    8实时采集任务了解

    实时采集任务

    对已经设置的定时任务进行任务管理和资源控制单个实时任务管理
    批量实时任务运维

    实时任务运行日志介绍

    实时任务运维示例

    实时任务运维-任务管理


    附件列表


    主题: 数据开发-实时任务
    • 有帮助
    • 没帮助
    • 只是浏览
    中文(简体)

    鼠标选中内容,快速反馈问题

    鼠标选中存在疑惑的内容,即可快速反馈问题,我们将会跟进处理。

    不再提示

    10s后关闭



    AI

    联系我们
    在线支持
    获取专业技术支持,快速帮助您解决问题
    工作日9:00-12:00,13:30-17:30在线
    页面反馈
    针对当前网页的建议、问题反馈
    售前咨询
    采购需求/获取报价/预约演示
    或拨打: 400-811-8890 转1
    qr
    热线电话
    咨询/故障救援热线:400-811-8890转2
    总裁办24H投诉:17312781526
    提交页面反馈
    仅适用于当前网页的意见收集,帆软产品问题请在 问答板块提问前往服务平台 获取技术支持