数据转换常见问题

  • Last update: September 04, 2023
  • 数据转换

    运行日志报错:超出内存限制

    点击展开更多

    问题描述:

    任务运行失败,报错超出内存限制。

    原因分析:

    数据开发所占用的内存资源超过工程设置的上限。

    解决方案:

    可以根据实际运行任务情况,参考 机器要求 适当调整 Tomcat的JVM内存任务运维的资源控制的数值


    API 输入

    API取数数据预览报错:Http request error- Read timed out

    点击展开更多

    问题描述:

    使用API取数,点击「数据预览」报错 Http request error,如下图所示:

    原因分析:

    FineDataLink  默认超时是10s,耗时长的api会提示超时。

    解决方案:

    参考 FDLTimeout  在API Header 内使用 FDLTimeout 字段设置超时时间。

    API 输入运行报错 json format is illegal

    点击展开更多

    问题描述:

    使用API取数,点击「数据预览」报错 json format is illegal,如下图所示:

    原因分析:

    4.0.20 版本中加了json格式校验,API 的 body 请求中不再支持写入注释。

    解决方案:

    清除 body  中的注释即可。

     4.0.21 已经支持使用使用注释,可升级工程解决。

    数据关联

    运行日志报错:Spark执行错误

    点击展开更多

    问题描述:

    任务运行失败,报错提示[数据关联]: Spark执行错误- org apache spark sql. execution joins .exception.N2NInterruptException - null

    原因分析:

    spark 保护机制,避免数据量极速膨胀触发服务器宕机,通常在关联结果膨胀超过5倍 + 关联数据量大于 1kw出现,属于正常现象。

    满足下面所有条件,判定为不合理场景:    

    1)存在N:N的情况    

    2)N:N步骤的结果数据量超过1kw     

    3)N:N膨胀系数>=5

    例如,100w 数据和 500w 数据N:N结果为2000w数据,那么N:N膨胀系数为: 2000w/500w =4,或者2000w/100w =20

    DB表输出

    运行日志报错:Data write error - connection disables

    点击展开更多

    问题描述:

    输出数据库为GreenPlum(并行装载)时,运行报错Data write error - connection disables

    原因分析:

    gpdfist 文件不支持放置路径有空格

    解决方案:

    放置文件的路径下有空格,换个文件夹放置,并重启gpfdist进程,配置并行装载方案详情参见:配置Greenplum(并行装载)数据源


    任务执行成功但写入数据不全

    点击展开更多

    问题描述:

    用户将两个来源的数据通过「Spark SQL」算子 union 后写入到目标表,写入方式为「清空数据再写入」,发现写入的数据不全,只写入了一张表的数据。

    1693827405647327.png

    原因分析:

    数据写不全原因:目标表存在唯一索引(自增 ID 主键),写数时索引冲突。

    任务执行成功原因:FineDataLink 写入方式选择「清空数据再写入」时,遇到冲突会默认跳过。

    简道云输入

    运行日志报错:try request out of limit. DB表输出:Runtime internal error. -null

    点击展开更多

    问题描述:

    解决方案:

    配置简道云数据源 中将简道云数据连接请求失败重试次数调整的略大一些,默认值为5.

    运行日志报错Table doesn't exist

    点击展开更多

    问题描述:
    任务运行失败,日志报错Table doesn't exist

    原因分析:

    简道云字段过长,字段类型不匹配

    解决方案:

    通过字段设置修改对应字段的长度


    SparkSQL 

    数据预览报错:SparkSQL语法错误: Syntax error at or near 订; line 1 pos 18

    点击展开更多

    问题描述:

    数据预览界面报错SparkSQL语法错误: Syntax error at or near 订; line 1 pos 18

    原因分析:

    SparkSQL 不支持中文字段

    解决方案:

    在语法中去掉中文。

    SAP RFC 输入

    运行日志报错:The current pool size limit is 10 connections.

    点击展开更多

    问题描述:

    使用FineDataLink从SAP抽取数据,超过10个任务后面的任务报错:The current pool size limit is 10 connections.

    原因分析:

    这是SAP服务器配置了最大连接限制

    解决方案:

    请参考SAP相关配置说明,修改最大连接限制:配置 SAP 服务器的最大连接限制


    附件列表


    主题: 常见问题
    Previous
    Next
    • Helpful
    • Not helpful
    • Only read

    滑鼠選中內容,快速回饋問題

    滑鼠選中存在疑惑的內容,即可快速回饋問題,我們將會跟進處理。

    不再提示

    10s後關閉

    Get
    Help
    Online Support
    Professional technical support is provided to quickly help you solve problems.
    Online support is available from 9:00-12:00 and 13:30-17:30 on weekdays.
    Page Feedback
    You can provide suggestions and feedback for the current web page.
    Pre-Sales Consultation
    Business Consultation
    Business: international@fanruan.com
    Support: support@fanruan.com
    Page Feedback
    *Problem Type
    Cannot be empty
    Problem Description
    0/1000
    Cannot be empty

    Submitted successfully

    Network busy