数据开发特有名词

  • Last update:  2022-06-27
  • 1. 概述

    本文对数据开发的特有概念进行解释说明,以便用户进行使用。

    8.png

    2. 功能模块名称

    数据平台:包含数据开发、指标平台等功能,满足用户对数据进行同步、处理、清洗等一系列的需求。

    名称定位功能说明
    数据开发数据同步和数据处理通过 SQL 或者可视化的方式,完成 ETL 任务的开发和编排
    任务运维ETL 任务管理、运行监控对 ETL 任务进行集中管理和运行监控,提供 ETL 任务的总览

    3. 二级功能点说明

    3.1 步骤流

    定位功能界限
    也称为工作流。步骤流是对步骤进行编排,每个步骤都是相对独立的,只有执行的先后顺序区别,不会存在数据行的流动

    步骤流里的步骤都要是闭环的,每一个步骤都是闭环:

    4.png

    步骤流中涉及到的名称解释如下表所示:

    归类功能点类型定位功能说明
    通用数据同步基础
    快速完成数据同步(输入、输出),不支持在数据同步过程中做数据转换

    支持多种类型的取数方式:API 取数、SQL 取数、文件取数等。由于无过程中的数据处理,所以不需要内存计算,适用于:

    • 数据表的快速同步

    • 取数时即可完成计算,过程中不需要计算、转换的场景

    • 目标库计算能力较强的场景\数据量非常大的场景,同步到目标数据库,再使用SQL做进一步的开发

    数据转换高级满足表输入和表输出之间需要做数据转换、处理的场景在数据同步的基础上,支持在表输入和表输出之间做数据关联、数据转换、数据清洗等复杂数据处理和转换

    本质上是数据流,由于过程中涉及到数据处理,需要依赖内存计算引擎,适用于小数据量(千万及以下)的数据开发,并且计算性能与内存配置有相关性

    参数赋值基础将获取的数据作参数输出可以将读取的数据作为参数输出给下游节点使用
    脚本SQL 脚本
    基础将 SQL 语句发放到指定的关系型数据库上并执行通过写 SQL 的形式,完成对表和数据的处理,例如:创建、更新、删除、读取、关联、汇总等操作时
    流程条件分支基础用于在步骤流中进行条件判断基于一个来自于上游或者系统的条件,判断是否继续运行下游的节点
    调用任务基础调用其他任务,完成跨任务的编排可以调用任意一个任务,被调用的任务被放到当前任务里编排
    虚拟节点基础空操作虚拟节点即空操作,可以用于串联上下游都是多分支的场景,也可以用作流程设计
    循环容器
    高级满足多个节点循环执行的场景提供一个循环容器,支持:遍历循环、条件循环

    可以让容器内的节点进行循环执行

    通知消息通知基础自定义通知内容和通知渠道通知渠道:邮件通知、短信通知、平台通知、企业微信通知(群机器人、应用通知)、飞书通知、钉钉通知

    通知内容:可自定义

    连线节点连线执行判断基础对上下游执行逻辑进行设置在 步骤流 中,右键点击节点连线,提供「无条件执行」、「成功时执行」、「报错时执行」的节点连线配置

    在 步骤流 中,右键点击节点,新增「执行判断」按钮,支持自定义多执行条件的生效方式(全部逻辑与、全部逻辑或),灵活控制任务中节点的依赖关系

    3.2 数据流

    定位
    功能界限
    从输入控件(Input)到输出控件(Output)之间的数据流动,针对的是在数据流动过程中的每一行记录、每一列数据的处理。数据流里提供了各类算子,可以完成数据的输入、输出、转换等操作

    数据流里只提供以下三类算子,不应该包含组合型、流程类的算子:

    1656316723344890.png

    • 流出型算子举例:DB表输入

    • 过程算子举例:数据关联

    • 流入型算子举例:DB表输出

    数据流中涉及到的名称解释如下表所示:

    归类
    功能点类型定位功能说明
    输入
    DB表输入基础读取数据库表的数据-
    RestAPI输入基础通过RestAPI读取数据-
    数据集输入基础读取服务器数据集或者自助数据集里的数据-
    简道云输入基础满足简道云数据下云进行备份、计算、分析和展示的需求实现获取指定简道云表单数据的功能
    输出DB表输出基础将数据输出到数据库表-
    比对删除基础将来源表中「数据删除」这一变化同步至目标表

    通过字段值对比,对目标表中存在,但是输入源中不存在的数据行进行删除。包含:

    • 物理删除:会实际删除数据

    • 逻辑删除:不删除数据,只做删除标记

    连接
    数据关联高级用于将多个输入进行连接,并输出连接后的结果

    支持跨库、跨源的连接

    连接方式主要有以下几种:
    • 左连接(LEFT JOIN)

    • 右连接(RIGHT JOIN)

    • 内连接(INNER JOIN)

    • 全连接(FULL OUTER JOIN)

    这些连接方式与数据库里表连接的方式一致,通过确定关联字段和关联条件,最后得到匹配连接后的结果集。连接的输入是两个以上,输出只有一个

    转换字段设置高级满足字段名称、类型调整的需求提供以下功能:
    • 设置列:选择、删除字段

    • 修改列:修改字段名称、修改字段类型

    行列转换高级实现数据表行列结构的改变,满足一维表和二维表之间转换的需求对输入的数据表进行列转行操作:
    • 行转列(又称列透视):敬请期待

    • 列转行(又成逆透视列):将一行多列数据转成多行一列显示。通常将转化后的列名为某一行中某一列的值,来识别原先对应的数据。

    JSON解析基础用于解析 JSON 结构的数据,输出行列格式的数据通过获取上游输出的 JSON 数据,按照 JSONPath 的规范将其自定义解析成需要的字段并输出给下游
    实验室Spark SQL高级核心作用是通过提供灵活的Spark SQL,提高场景覆盖率内置的有Spark 计算引擎,通过提供Spark SQL算子,用户可以:

    获取上游输出的数据,使用Spark SQL对其进行查询和处理,并输出给下游



    Attachment List


    Theme: 数据开发
    前の記事
    次の記事
    • いいね
    • 良くない
    • 閲覧しただけ

    フィードバック

    鼠标选中内容,快速反馈问题

    鼠标选中存在疑惑的内容,即可快速反馈问题,我们将会跟进处理。

    不再提示

    9s后关闭

    反馈已提交

    网络繁忙