1. 概述
本文對 FineDataLink 的特有概念進行解譯說明,以便使用者進行使用。
2. 功能模組名稱
包含資料開發、資料管道、資料服務、任務維運等功能,滿足使用者對資料進行同步、處理、清洗等一系列的需求。
名稱 | 定位 | 功能說明 |
---|---|---|
定時任務概述 | 資料定時同步或實時同步,能對資料進行計算處理 | 透過 SQL 或者視覺化的方式,完成任務的開發和編排 實時任務說明請參見:實時任務概述 |
資料管道概述 | 資料實時同步,表資料原樣同步到目標表中,不支援對資料進行計算處理 | 在資料庫資料量大或表結構規範的情況下,實現高效能的實時資料同步 |
資料服務概述 | 發佈一個 API,實現資料跨域傳輸 | 透過 FineDataLink 發佈API,將加工、融合後的標準資料,封裝為規範化API API,供外部系統呼叫 |
任務維運 | 定時任務維運、管道任務維運、資料服務維運 | 對任務進行集中管理和運作監視,提供任務的總覽 |
資料中心 | 庫表管理、血緣分析 | 1)庫表管理:
2)血緣分析: 可查看資料開發任務、管道任務、資料服務中,所使用表的血緣關係 |
管理系統 | 管理系統簡介 | 可對 FineDataLink 的使用者、功能模組權限、外觀、資料連結等進行管理 |
資料連結 | 資料連結概述 | 在使用 FineDataLink 處理、同步資料前,您需要先定義資料連結,以便在執行資料處理操作時,透過「資料庫>資料連結名稱>資料表」,來確定資料的讀取和寫入位置 |
3. 資料開發
3.1 生產模式、開發模式
定時任務支援開發模式和生產模式,實現程式碼的隔離。如下圖所示:
詳情請參見:開發模式與生產模式
開發模式:
開發模式相當於任務的測試環境,使用者可進行任務的設計編輯;所有的修改都不會影響生產模式的任務;開發模式的任務,可發佈到生產模式。
生產模式:
生產模式相當於任務的穩定版本,僅支援任務查看,可基於該版本編輯調度實現任務的排程管理;生產模式的任務,可由開發模式的任務發佈得到;可前往維運中心的 任務管理 篩選已發佈和待發布任務。
3.2 資料夾
一個資料夾可包含多個定時任務OR實時任務。如下圖所示:
3.3 定時任務&實時任務
資料開發模組中支援開發兩種類型的任務:
1)定時任務
定時任務來源端和目標端支援三十多種資料源類型,詳情請參見:資料開發支援的資料源類型
定時任務中,支援在視覺化介面使用各個節點和算子進行資料的抽取、轉換和裝載,並可以透過排程管理功能自動運作定時任務,幫助您輕鬆構建離線數倉,保證資料生產的高效穩定。
2)實時任務
實時任務能夠實時地把資料從 A 點投遞到 B 點。在投遞的程式中可能新增資料清理的工作,例如實時數倉中的資料解析等。最終結果可供後續業務使用,以提高資料利用率和時效性,滿足業務需求。
詳情請參見:實時任務概述
3.4 節點
FDL 文檔的描述中,預設「資料轉換」節點內包含的節點為算子(不包含「資料轉換」節點本身);「資料轉換」節點以及「資料轉換」節點外的節點稱為節點。
組成定時任務的基本單位,多個節點透過線條連結後可確定執行流程,進而組成一個完整的定時任務。
根據節點間的依賴關係依次運作各個節點。
3.5 資料流
在「資料轉換」節點中進行 ETL 處理,提供封裝好的視覺化功能,實現高效的資料清理處理和裝載。
定位 | 功能界限 |
---|---|
從輸入元件(Input)到匯出元件(Output)之間的資料流動,針對的是在資料流動程式中的每一行記錄、每一欄資料的處理。資料流裏提供了各類算子,可以完成資料的輸入、匯出、轉換等操作 | 資料流(資料轉換節點)裏只提供以下三類算子,不應該包含組合型、流程類的算子:
|
資料轉換節點中涉及到的名稱解譯如下表所示:
分類 | 功能點 | 註冊功能類型 | 定位 | 功能說明 | 起始版本 |
---|---|---|---|---|---|
輸入 | DB表輸入 | - | 讀取資料庫表的資料 | - | 3.0 |
API輸入 | 進階資料源控制-API協定(定時) | 透過API讀取資料 | - | 3.0 | |
資料集輸入 | 基礎資料源控制 | 讀取伺服器資料集或者自助資料集裏的資料 | - | 3.0 | |
簡道雲輸入 | 進階資料源-應用連結器(定時) | 滿足簡道雲資料下雲進行備份、計算、分析和展示的需求 | 實現獲取指定簡道雲表單資料的功能 | 4.0.2 | |
MongoDB輸入 | 進階資料源控制-NoSQL | 滿足接入 MongoDB 資料源進行資料處理的需求 | - | 4.0.4.1 | |
SAP ERP取數 | 進階資料源控制-應用連結器(定時) | 透過 RFC API呼叫 SAP 系統內已經開發好的函式,並將資料取出。 | - | 4.0.10 | |
檔案輸入 | 進階資料源控制-檔案系統 | 讀取指定來源與路徑的結構化檔案資料。 | 實現讀取指定來源與路徑的結構化檔案獲取資料的功能。 | 4.0.14 | |
匯出 | DB表匯出 | - | 將資料匯出到資料庫表 | - | 3.0 |
DB匯出(交易) | 交握技術支援獲取 | 支援失敗回滾 | 定時任務寫入資料庫時支援失敗回滾,即任務執行失敗後不會對目標表產生影響 | 4.1.5.2 | |
比對刪除 | 將來源表中「資料刪除」這一變化同步至目標表 | 透過欄位值對比,對目標表中存在,但是輸入源中不存在的資料行進行刪除。包含:
| 3.2 注:4.0.18 版本刪除該算子 | ||
參數匯出 | 資料轉換-基礎 | 將取到的資料匯出為參數,供下游節點使用 | 將資料作為參數匯出,供任務內下游節點使用 | 4.0.13 | |
API匯出 | 進階資料源控制-API協定(定時) | 將資料匯出到API | 4.0.19 | ||
簡道雲匯出 | 進階資料源-應用連結器(定時) | 將資料匯出到簡道雲表單 | 將資料上傳至簡道雲指定表單 | 4.0.20 | |
檔案匯出 | 進階資料源控制-檔案系統 | 將資料匯出為檔案 | 將資料匯出到指定目標與路徑的結構化檔案中 | 4.0.26 | |
MongoDB匯出 | 進階資料源控制-NoSQL | 將資料匯出到 MongoDB | 將資料匯出到 MongoDB | 4.1.6.4 | |
資料集匯出 | 基礎資料源控制 | 對遠端的Fine+「公共資料」建立ETL結果表並寫入資料 | 支援往本地或遠端公共資料中,自動建立ETL結果表,並做資料的增刪改操作。 | 4.1.8.2 | |
連結 | 資料聯動 | 資料轉換-進階 | 用於將多個輸入進行連結,並匯出連結後的結果 支援跨庫、跨源的連結 | 連結方式主要有以下幾種:
這些連結方式與資料庫裏表連結的方式一致,透過確定聯動欄位和聯動條件,最後得到匹配連結後的結果集。連結的輸入是兩個以上,匯出只有一個 | 3.1 |
資料比對 | 資料轉換-進階 | 將 2 個輸入資料進行比較,篩選出新增、刪除、相同、不相同的資料 | 使用路徑:
| 4.0.18 | |
上下合併 | 資料轉換-進階 | - | 可對多張表進行上下行合併,匯出一張合併表 | 4.1.0 | |
轉換 | 欄位設定 | 資料轉換-進階 | 滿足欄位名稱、類型調整的需求 | 提供以下功能:
| 3.7 |
欄轉列 | 資料轉換-進階 | 實現資料表行列結構的改變,滿足一維表和二維表之間轉換的需求 | 對輸入資料表進行欄轉列操作:
| 3.5 | |
列轉欄 | 資料轉換-進階 | 實現資料表行列結構的改變,列轉欄 | 對輸入資料表進行列轉欄操作。
| 4.0.15 | |
JSON解析 | 資料轉換-基礎 | 用於解析 JSON 結構的資料,匯出行列格式的資料 | 透過獲取上游匯出的 JSON 資料,按照 JSONPath 的規範將其自訂解析成需要的欄位並匯出給下游 | 3.5 | |
XML解析 | 資料轉換-進階 | 支援指定解析策略,將輸入XML資料解析為行列形式的資料 | 支援指定解析策略,將輸入XML資料解析為行列形式的資料。 | 4.0.9 | |
JSON生成 | 資料轉換-進階 | 選擇欄位,生成JSON物件 | 選擇欄位,將表單資料,轉換為生成多個JSON物件,使用者可以在其中配置多層JSON嵌套 | 4.0.19 | |
新增計算列 | 資料轉換-進階 | 透過計算生成新列 | 支援對常數、參數和其他欄位進行公式計算或邏輯映射,將結果放到新的一欄,參與後續運算或進行匯出 | 4.0.23 | |
資料過濾 | 資料轉換-進階 | 過濾符合條件的資料記錄 | 過濾符合條件的資料記錄 | 4.0.19 | |
分組匯總 | 資料轉換-進階 | 指定維度聚合計算 | 對原始資料根據條件將相同的資料先合併到一組,然後按照分組後的資料進行匯總計算 | 4.1.2 | |
欄位拆行 | 資料轉換-進階 | 欄位值按照特定規則(分隔符)拆分,拆分後的結果形成新的一欄欄位和值 | 4.1.2 | ||
欄位拆列 | 資料轉換-進階 | 欄位值按照特定規則(分隔符或字元數)拆分,拆分後的結果形成新的多欄欄位和值 | 4.1.2 | ||
實驗室 | Spark SQL | 資料轉換-進階 | 核心作用是透過提供靈活的Spark SQL,提高場景改寫率 | 內建有Spark 計算引擎,透過提供Spark SQL算子,使用者可以: 獲取上游匯出的資料,使用Spark SQL對其進行查詢和處理,並匯出給下游 | 3.6 4.0.17 支援作為輸入型算子 |
Python 算子 | 資料轉換-進階 | - | 可呼叫 Python 腳本進行復雜資料處理 | 4.0.29 |
3.6 步驟流
步驟是由一個個節點組成。
定位 | 功能界限 |
---|---|
步驟流也叫工作流,工作流是對步驟進行編排,每個步驟都是相對獨立的,只有執行的先後順序差別,不會存在資料行的流動 | 步驟都要是閉環的,每一個步驟都是閉環: |
步驟中涉及到的名稱解譯如下表所示:
分類 | 節點 | 類型 | 定位 | 功能說明 | 起始版本 |
---|---|---|---|---|---|
通用 | 資料同步 | 基礎 | 快速完成資料同步(輸入、匯出),不支援在資料同步程式中做資料轉換 | 支援多種類型的取數方式:API 取數、SQL 取數、檔案取數等。由於無程式中的資料處理,所以不需要記憶體計算,適用於:
| 1.0 |
資料轉換 | 基礎 | 滿足表輸入和表匯出之間需要做資料轉換、處理的場景 注:資料轉換本身也是一個步驟流節點。 | 在資料同步的基礎上,支援在表輸入和表匯出之間做資料聯動、資料轉換、資料清理等複雜資料處理和轉換 本質上是資料流,由於程式中涉及到資料處理,需要依賴記憶體計算引擎,適用於小資料量(千萬及以下)的資料開發,並且計算效能與記憶體配置有相關性 | 3.0 | |
腳本 | SQL腳本 | 基礎 | 將 SQL 語句發放到指定的關係型資料庫上並執行 | 透過寫 SQL 的形式,完成對表和資料的處理,例如:建立、更新、刪除、讀取、聯動、匯總等操作時 | 1.0 |
Shell腳本 | 進階 | 使用遠端SSH連結,呼叫遠端環境裏的可執行Shell腳本 | 透過使用配置好的遠端SSH連結,可以選擇呼叫遠端環境裏的可執行腳sh腳本。 | 4.0.8 | |
Python腳本 | 進階 | 支援直接呼叫 Python 腳本,當做資料開發任務的能力擴展,比如現在不支援某些檔案格式的資料讀取方式,先用 Python 程式進行獨立的資料處理 | 透過 ssh 連結,配置 Python 檔案的檔案目錄和輸入參數,呼叫 Python 腳本 | 4.0.28 | |
Bat腳本 | 進階 | 使用遠端連結,呼叫遠端環境裏的可執行bat腳本 | 透過使用配置好的遠端連結,可以選擇呼叫遠端win環境裏的可執行腳bat腳本 | 4.0.29 | |
Kettle呼叫 | 進階 | 使用SSH連結,呼叫指定路徑下的kettle任務 | 透過使用配置好的SSH連結,可以選擇呼叫指定伺服器環境裏的可執行kettle任務。 | 4.1.9.3 | |
流程 | 條件分支 | 基礎 | 用於在步驟流中進行條件判斷 | 基於一個來自於上游或者系統的條件,判斷是否繼續運作下游的節點 | 2.0 |
呼叫任務 | 基礎 | 呼叫其他任務,完成跨任務的編排 | 可以呼叫任意一個任務,被呼叫的任務被放到當前任務裏編排 | 3.2 | |
虛擬節點 | 基礎 | 空操作 | 虛擬節點即空操作,可以用於串聯上下游都是多分支的場景,也可以用作流程設計 | 1.4 | |
循環容器 | 進階 | 滿足多個節點循環執行的場景 | 提供一個循環容器,支援:遍歷循環、條件循環 可以讓容器內的節點進行循環執行 | 4.0.3.1 | |
參數指派 | 基礎 | 將獲取的資料作參數匯出 | 可以將讀取的資料作為參數匯出給下游節點使用 | 1.7 | |
通知 | 訊息通知 | 基礎 | 自訂通知內容和通知渠道 | 通知渠道:郵件通知、簡訊通知、平台通知、企業微信通知(群機器人、應用通知)、釘釘通知 通知內容:可自訂 | V3.6 V4.0.1 V4.0.3 |
遠端 | 遠端執行判斷 | 基礎 | 對上下游執行邏輯進行設定 | 在 步驟流 中,右鍵點選節點遠端,提供「無條件執行」、「成功時執行」、「報錯時執行」的節點遠端配置 在 步驟流 中,右鍵點選節點,新增「執行判斷」按鈕,支援自訂多執行條件的生效方式(全部邏輯與、全部邏輯或),靈活控制任務中節點的依賴關係 | 4.0.3 |
其他 | 備註 | 基礎 | 在畫布中為任務新增備註 | 自訂內容、自訂格式 | 4.0.4 |
3.7 任務實體
定時任務每運作一次,會生成一個實體,生成的實體可在 定時任務維運-運作記錄 中查看。
3.8 實體開始構建時間
任務運作時,日誌中會匯出「實體開始構建時間」。如下圖所示:
定時任務若設定了 執行頻率 ,調度的時間可能會略早於「實體開始構建時間」。例如設定每天 11:00:00 執行任務,「實體開始構建時間」可能是 11:00:02 。
定時任務日誌說明請參見:定時任務運作日誌介紹
3.9 增量更新、全量更新、比對更新
具體方案請參見:資料同步方案概述
1)增量更新:
來源表資料只存在新增,將新增資料寫入到目標表中。
2)全量更新
對目標表資料進行全面的更新,將已有目標表資料全部換成最新來源表資料。
3)比對更新
來源表資料存在新增、修改、刪除。
3.10 拉鍊表
維護歷史狀態,以及最新狀態資料的一種表;透過拉鍊表可以很方便的還原出拉鍊時點的客戶記錄。適用於需要記錄資料變更歷史的場景,如審核、溯源等。
FDL 中製作拉鍊表詳情請參見:數倉拉鍊表(來源表資料小於10000)、數倉拉鍊表(來源表資料大於10000)
3.11 標識值、標識欄位
標識欄位標記了資料的新增、修改、刪除。
標識值為標識欄位的值,不同值代表資料的不同變化。
資料匯出時,根據標識欄位和標識值,實現資料的增刪改。
1)場景一:標識欄位和標識值由「資料比對」算子生成
「資料比對+DB表匯出/簡道雲匯出」實現資料的增刪改時,一般使用 fdl_comparison_type(資料比對算子自動新增的欄位)作為標識欄位,該欄位預設值為Identical(相同)、Changed(更新)、Added(新增)、Removed(刪除),這些預設值為標識值。
如下圖所示:
2)場景二:來源表已有標識值、標識欄位,需要對資料進行追加/更新/刪除操作
詳情請參見:資料同步-基於標識欄位,新增/修改/刪除資料
來源表「產品」中,「狀態」列為標識列,值為「熱銷」時做新增操作,值為「一般」時做刪除操作,值為「火爆」時做更新操作。
源表中將產品ID為 15 的新增資料標記為「熱銷」,產品ID為 16 的刪除資料標記為「一般」,產品ID為 14 的更新資料標記為「火爆」,希望能將資料變化同步到目標表中。
3.12 並行取數
在資料量很大時,開啟「並行取數」,可提高讀取資料的速度。
詳情請參見:資料同步-資料來源
3.13 運作日誌、運作記錄
3.13.1 定時任務
1)運作日誌
定時任務運作後,可在「日誌」Tab 下看到運作日誌,使用者可根據日誌查看是否運作成功、具體出錯原因。如下圖所示:
日誌的詳細程度可在 日誌等級設定功能 中設定。
2)運作記錄
可在 定時任務維運-運作記錄 中查看任務的運作情況,例如:運作狀態、任務耗時、觸發方式等。
3.13.2 管道任務
管道任務運作後,支援查看運作日誌。詳情請參見:單個管道任務維運概述
管道任務運作記錄請參見:管道任務維運
3.14 回滾
在資料同步時,當歷史資料量很大,為保證資料的時效性,需要對資料定時進行增量更新。
在增量更新程式中,若遇到欄位異常值、髒資料等問題,將導致資料同步一段時間後任務失敗。此時目標表中已同步了部分資料,需要將目標表進行資料回滾到此次增量更新前的資料。
FDL 提供功能支援該場景:詳情請參見:DB匯出(交易)(4.1.5.2 及之後版本)
文檔方案支援該場景:資料抽取失敗後進行資料回滾
3.15 優先
可為定時任務設定執行優先,任務運作的優先,分五個等級:最高(HIGHEST),高(HIGH),中(MEDIUM),低(LOW),最低(LOWEST)。
當執行緒數不足時,優先執行佇列中級別高的流,相同優先的任務按照先進先出的順序執行。
詳情請參見:任務控制-任務屬性
3.16 執行頻率
定時任務支援設定執行頻率,定期自動運作定時任務,以保證資料能夠即時更新。
詳情請參見:調度計劃概述
3.17 重試任務
重試任務功能詳細介紹請參見:重試任務
以下場景中,需要使用到重試任務功能:
1)使用者設計的定時任務取數邏輯為:每天抽取當天調度時間往前推 24h 內的資料,彙集到目標資料庫。節假日期間 3 天,系統當機,定時任務沒有運作,導致目標資料庫缺少 3 天的資料。
具體範例請參見:補資料範例
2)定時任務在運作程式中某個匯出組件出現髒資料,在 配置髒資料臨界值 後,定時任務不會停止;定時任務運作結束後維運人員收到推播,發現有髒資料產生。
維運人員開啟髒資料處理介面,查看髒資料產生的原因,發現髒資料原因是欄位超長,修改目標端欄位長度後,希望重新運作任務。
4. 資料管道
FineDataLink 資料管道提供的實時資料同步功能,方便使用單表或整庫同步方式,將源端資料庫中部分或全部表的資料變化實時同步至目標資料庫中,實現目標庫實時保持和源庫的資料對應。
4.1 傳輸佇列
在進行實時同步程式中,需要透過「資料管道」暫存來源資料庫中的資料,便於目標資料庫寫入資料,實現實時資料同步。
因此在設定資料管道任務前需要首先配置好暫存資料的中間軟體。FineDataLink 使用 Kafka 作為資料同步的中間軟體,暫存傳輸資料。
4.2 斷點續傳
若管道任務失敗,支援斷點續傳:若全量同步未完成,會從頭全量同步;若全量同步已完成,會從斷點開始。
斷點續傳範例:
管道任務在 03-21 日讀取了資料,03-23 日停掉,03-27 日啟動,03-23 到 03-27 日的資料會同步過去。
4.3 binlog、CDC
4.3.1 binlog
MySQL 的二進制日誌(binary log,簡稱 binlog)是 MySQL 資料庫中的一個重要特性,它記錄了所有對資料庫執行更改的 SQL 語句(如 INSERT、UPDATE、DELETE 等),以及每個語句執行的確切時間。二進制日誌是 MySQL 資料複製、資料恢復和審核分析的基礎。
FDL 中,使用資料管道功能,且來源端為 MySQL 時,需要開啟 Binlog 模式 CDC 功能。詳情請參見:MySQL環境準備
4.3.2 CDC
CDC 是指從源資料庫擷取到資料和資料結構(也稱為模式)的增量變更,近乎實時地將這些變更,傳播到其他資料庫或應用程式中。透過這種方式,CDC 能夠向資料倉儲提供高效、低延遲的資料傳輸,以便資訊被即時轉換並交付給專供分析的應用程式。
4.4 邏輯刪除和物理刪除
物理刪除:來源表刪除資料,目標表也刪除資料。
邏輯刪除:目標表中該資料未被實際刪除,而是使用標記列標記被刪除的資料。
具體效果請參見:物理刪除和邏輯刪除的差別
5. 資料服務
資料服務支援將處理好的資料一鍵發佈 API API,實現資料跨域傳輸,解決資料傳輸最後一公里問題,為使用者提供資料共享能力。
5.1 APPCode
FineDataLink 特有的 API 鑑權認證方式。APPCode可視為長期有效的一種Token。若設定後對指定應用 API 生效。
在存取API時,需要在請求頭中指定Authorization請求頭的值:APPCode + 空格 + APPCode值。
詳情參見:進行認證配置
6. 通用
6.1 併發數
併發數是指:最多能啟動的定時任務數、最多能啟動的管道任務數。
定時任務併發數說明請參見:定時任務併發數與髒資料說明
管道任務併發數說明請參見:資料管道併發數說明
6.2 欄位映射
欄位映射就是建立「來源端-目標端」的欄位對應關係。詳情請參見:設定欄位映射
來源表若有多個欄位,可以只將來源表的部分欄位更新到目標表中,不需要更新到目標表的欄位取消映射即可。
映射方式分為兩種:
6.3 髒資料
6.3.1 定時任務中髒資料定義
1)與目標欄位配置不匹配而無法寫入的資料(目標欄位長度/類型不匹配、目標欄位缺失、違反目標欄位非空約束等)。
2)當寫入方式-主鍵衝突策略為「主鍵相同,記錄為髒資料」時,主鍵衝突的資料將被視為髒資料。
6.3.2 管道任務中髒資料定義
與目標欄位配置不匹配而無法寫入的資料(目標欄位長度/類型不匹配、目標欄位缺失、違反目標欄位非空約束等)。
注:對於管道任務,主鍵衝突不會產生髒資料,主鍵相同的資料,新資料將改寫舊資料。
6.4 血緣分析
FDL 支援查看資料開發任務、管道任務、資料服務中,所使用表的血緣關係。如下圖所示:
詳情請參見:血緣分析
6.5 DDL
在資料庫管理系統中,DDL(Data Definition Language)是一組用於定義和修改資料庫架構的語言。
DDL 的常見語句包括:
CREATE:用於建立新的資料庫物件。
ALTER:用於修改現有資料庫物件的結構。
DROP:用於刪除資料庫物件。
TRUNCATE:用於快速刪除表中的所有行,但保留表結構。
DDL 是資料庫管理者和開發者用來設計和維護資料庫架構的關鍵工具。
FDL 中 DDL 同步是指在資料管道任務中,當源庫發生 DDL 操作(如刪除表、新增欄位、刪除欄位、修改欄位名稱、修改欄位類型等)時,可以自動同步這些來源端的變化至目標端,無需人為介入修改目標表結構的功能。這種同步機制確定了資料結構的一致,減少了手動維護的工作量。
詳情請參見:資料管道-同步源表結構變化
6.6 邏輯主鍵、物理主鍵
實際應用中,根據邏輯主鍵或者物理主鍵確定資料的唯一性,實現資料的更新、刪除、新增。
6.6.1 邏輯主鍵
由業務邏輯決定的主鍵,可以根據業務需求定義多個欄位的組合作為主鍵。邏輯主鍵的優勢是能夠滿足業務規則的要求,確定資料的唯一性。例如一個員工表,其邏輯主鍵可以是員工號、身分證號或者其他唯一識別符號。
6.6.2 物理主鍵
資料庫透過自增長或唯一索引等方式為每條記錄生成一個唯一識別符號作為主鍵。物理主鍵的優勢是簡單高效,不需要依賴業務邏輯。
邏輯主鍵、物理主鍵差別可自行百度瞭解。
6.7 失敗重試
由於當時的網路波動或者其他原因,導致任務運作中斷,過段時間重新運作任務即可成功執行。針對此場景,可在「失敗重試」中設定重跑次數和兩次重跑之間的間隔,任務在失敗之後會進行自動重試。
6.8 編輯鎖
FDL 提供任務編輯鎖,定時任務、管道任務、API任務、資料服務應用禁止被多人同時編輯。
使用者編輯某個任務時,其他使用者也開啟該任務,則會提示:當前任務/API/應用正在被XX編輯,其他人無法編輯該任務,只能查看。
詳情請參見:任務禁止被多人同時編輯
6.9 日誌級別
FDL 中日誌級別可選擇 ERROR、WARN、INFO。
日誌級別大小排序(嚴重程度):ERROR>WARN>INFO
日誌詳細程度排序:ERROR<WARN<INFO
定時任務中日誌級別說明請參見:任務控制-任務屬性
管道任務中日誌級別說明請參見:配置管道任務-管道控制
6.10 髒資料容忍、髒資料臨界值
6.10.1 定時任務
使用者可設定「髒資料臨界值」,使任務具備一定故障容許度性。當任務運作時遇到髒資料,達到「髒資料臨界值」前將繼續執行定時任務,達到「髒資料臨界值」後再報錯。
定時任務中該功能說明請參見:髒資料容忍
6.10.2 管道任務
資料同步允許一定的故障容許度,比如欄位類型、長度不匹配、主鍵衝突等等問題,可以設定產生的 髒資料上限,達到上限則自動終止管道任務。
使用者設定髒資料臨界值1000條,當某次任務運作期間髒資料達到1000條後,任務會異常中止;髒資料臨界值的定義是,某個任務自建立至今的整體臨界值。
詳情請參見:配置管道任務-管道控制
7. 管理系統
7.1 功能點
資料源使用、資料管道、資料服務、資料開發、庫表管理、血緣分析、管理系統、信創平台等功能,正式工程使用前需要註冊相關功能點。詳情請參見:註冊簡介
7.2 外置庫、內建資料庫
FineDataLink 工程中的平台配置資訊,如管道任務、定時任務、權限控制、系統管理資訊等,均儲存於 FineDB 資料庫。FineDataLink 工程內建了一個 HSQL 資料庫,作為 FineDB 資料庫。
HSQL 資料庫不能多執行緒存取,叢集環境、資料量較大可能會導致 HSQL 資料庫不穩定的情況,適用於本地試用產品功能。
FineDataLink 支援啟動外接 FineDB 資料庫。詳情請參見:配置外接資料庫
正式工程必須配置外接資料庫。
8. 其他
8.1 子表單
子表單為簡道雲表單中的概念,詳情請參見:子表單