反馈已提交

网络繁忙

您正在浏览的是 FineBI6.1 帮助文档,点击跳转至: FineBI5.1帮助文档

FineDataLink数据开发

  • 文档创建者:Roxy
  • 历史版本:21
  • 最近更新:Carly 于 2024-07-19
  • 1. 什么是数据开发

    「数据开发」是 FineDataLink 产品中的一个功能点,可通过 SQL 和可视化的方式,完成 ETL 任务的开发和步骤编排。

    40.png

    FineBI 支持对接 FineDataLink 数据开发模块,具备 ELT、ETL 双核数据开发引擎,灵活满足不同数据处理场景,IT 人员可使用该功能将处理好的高质量数据同步至 FineBI,以供业务人员自助分析。

    1686122996768848.png

    2. 数据开发介绍

    10.png

    2.1 支持的数据源

    数据开发支持多种数据源,可以将多种来源数据进行数据处理和集成。

    支持数据读取和数据写入的数据库请参见:FineDataLink支持的数据源 第三章内容。

    1687258278288089.png

    2.2 任务管理

    数据开发中通过「定时任务」存放设计好的业务流程。

    通过「文件夹」对定时任务进行管理。

    1686122238256656.png

    2.3 任务开发

    1687258311301977.png

    2.3.1 价值场景示例

    1)实现跨数据源批量 同步数据

    1687258456702485.png

    2)提供多种数据转换算子,灵活处理数据。

    下图中的算子介绍请参见本文 2.3.2 节内容。

    1687258479697809.png

    3)支持JSON解析,一键解析半结构化数据。

    1687258506728312.png

    4)支持Spark SQL,覆盖更多数据转换场景。

    72.png

    5)循环容器,支持对数据遍历循环。

    73.png

    6)对接企微,实现数据找人。

    74.png

    7)支持 SQL 脚本,对数据库进行增删改。

    75.png

    8)支持调用 shell 脚本,对接外部的独立数据处理过程。

    76.png

    2.3.2 节点介绍

    任务开发界面如下图所示:

    46.png

    节点介绍如下表所示:

    分类节点说明
    通用数据同步
    • 适用于较大数据量的同步场景,当单表数据量超过 1kw 时,推荐使用数据同步

    • 适用于没有复杂处理逻辑的数据同步场景

    数据转换

    当数据需要利用 FDL 完成复杂场景处理时,推荐使用数据转换

    脚本SQL 脚本通过写 SQL 的形式,完成对表和数据的处理,例如:创建、更新、删除、读取、关联、汇总等操作
    shell脚本

    支持通过执行 Shell 脚本,对接外部的独立数据处理过程

    例如 SVN 更新、文件运维清理、调用 Kettle 任务、调用 Python 计算任务、调用 Spark 计算任务、执行数据库备份还原等

    流程参数赋值

    参数赋值节点通过数据来源将需要赋值的数据取出,并为参数赋值

    将获取到的数据输出为参数,下游节点可以利用公式使用参数值

    条件分支
    基于配置的执行条件,判断是否运行下游节点
    调用任务调用平台内其他定时任务,完成跨任务的调度执行
    循环容器在容器内对节点执行遍历循环、条件循环,满足节点循环执行的场景
    消息通知

    自定义通知内容,通知指定渠道的用户

    通知渠道:邮件/短信/企业微信应用推送/企业微信群机器人/钉钉应用推送/钉钉群机器人

    通知内容:可自定义

    虚拟节点空操作,无实际意义,常用于多分支到多分支场景的实现
    其他备注说明可帮助用户为任务、节点增加备注

    其中,「数据转换」节点提供输入、输出、转换等类型的算子,可实现复杂的数据处理。如下图所示:

    47.png

    「数据转换」中的算子介绍如下表所示:

    分类算子说明
    数据输入DB表输入
    读取关系型数据库表中的数据
    API输入从 API 中读取数据,支持 RESTful API 和 WebService API
    文件输入从 FineDataLink 服务器本地和 FTP/SFTP 服务器上读取 Excel、CSV、Txt 文件数据
    简道云输入读取简道云表单中的数据
    MongoDB输入读取 MongoDB 中指定集合的数据
    SAP RFC输入支持通过 RFC 接口调用 SAP 系统内已经开发好的函数,并将数据取出
    数据集输入支持读取文件数据集(Excel、TXT、XML、CSV)、树数据集、存储过程、程序数据集、内置数据集、关联数据集。其中存储过程、程序数据集、内置数据集、关联数据集仅在FineReport设计器可定义
    数据输出DB表输出
    将数据输出到关系型数据库表
    参数输出将取到的数据输出为参数,供下游节点使用
    API输出将数据输出到API
    简道云输出将数据输出到简道云表单
    连接数据关联

    用户两张数据表在不同的数据库中,希望能够将两张不同来源库的表进行关联生成新表。连接方式如下:

    • 左连接(LEFT JOIN):左合并

    • 右连接(RIGHT JOIN):右合并

    • 内连接(INNER JOIN):取交集

    • 全外连接(FULL OUTER JOIN):取并集

    数据比对将 2 个输入的数据进行比较,筛选出新增、删除、相同、更新的数据
    转换列转行
    实现数据表行列结构的改变,列转行
    行转列实现数据表行列结构的改变,行转列
    JSON解析解析 JSON 结构的数据,输出行列格式的数据
    XML解析将 XML 格式数据解析为行列格式数据
    字段设置可实现数据流字段的选择、重命名、数据类型转换操作
    新增计算列在不影响原有字段的情况下,可利用原有字段通过引用或计算获得一个新的字段
    数据过滤过滤符合条件的数据记录
    JSON生成选择字段,将表单数据,转换为生成多个 JSON 对象,用户可以在其中配置多层 JSON 嵌套
    实验室
    Spark SQLSpark SQL 基于内置的 Spark 计算引擎,满足用户查询数据、处理数据的需求,支持使用参数、函数
    其他备注说明
    可帮助用户为任务、节点增加备注

    2.4 任务调度

    提供了定时调度功能,可以定期自动运行定时任务,以保证数据能够及时更新。

    • 开始时间:设置任务开始执行时间

    • 执行频率:任务执行频率

    • 结束时间:设置任务结束执行时间

    • 结果通知:对调度任务运行后的执行结果,如果执行失败会进行通知

    详细介绍请参见:定时任务调度配置

    1686121968246602.png

    2.5 任务运维

    任务支持灵活调度、运行状态实时监控,便捷的操作将会释放运维人员巨大的工作量。

    • 运行记录:可以通过筛选和搜索的方式查看任务运行状态、运行耗时以及任务运行的历史日志。

    • 任务管理:查看任务调度配置情况。

    • 资源控制:限制「数据平台」占用的内存和带宽,控制数据开发所占用的内存资源。

    详细介绍请参见:定时任务运维

    49.png

    3. 如何帮助业务人员处理数据

    4. 如何体验 FineDataLink

    Demo体验:FineDataLink数据平台

    FineDataLink了解试用:FineDataLink 了解试用

    5. 帆软产品组合应用

    简介
    参考文档
    主要介绍业务系统数据经过FDL处理落库后,FineBI 调用该数据进行自助分析的全流程,通过 FDL+BI 的组合方案解决自助数据集冗余杂乱、更新时间长、维护困难的问题FDL和FineBI组合应用示例


    附件列表


    主题: 数据管理
    • 有帮助
    • 没帮助
    • 只是浏览
    中文(简体)

    鼠标选中内容,快速反馈问题

    鼠标选中存在疑惑的内容,即可快速反馈问题,我们将会跟进处理。

    不再提示

    10s后关闭



    AI

    联系我们
    在线支持
    获取专业技术支持,快速帮助您解决问题
    工作日9:00-12:00,13:30-17:30在线
    页面反馈
    针对当前网页的建议、问题反馈
    售前咨询
    采购需求/获取报价/预约演示
    或拨打: 400-811-8890 转1
    qr
    热线电话
    咨询/故障救援热线:400-811-8890转2
    总裁办24H投诉:17312781526
    提交页面反馈
    仅适用于当前网页的意见收集,帆软产品问题请在 问答板块提问前往服务平台 获取技术支持