反馈已提交

网络繁忙

配置Hadoop Hive数据源

  • 文档创建者:Roxy
  • 历史版本:12
  • 最近更新:Wendy123456 于 2024-02-20
  • 1. 概述

    1.1 版本

    FineDataLink 版本
    功能变动
    4.0.4.2-
    4.0.29新建数据连接时,Hadoop Hive (HDFS) Hadoop Hive数据源,合并为Hadoop Hive
    4.1.3

    数据写入 Hive 数据库时,支持创建、写入分区

    1.2 应用场景

    Hadoop 是个很流行的分布式计算解决方案,Hive 是建立在 Hadoop 上的数据仓库基础构架。

    FineDataLink 支持连接 Hadoop Hive ,进行定时任务读写

    2. 使用须知

    1)4.0.29 之前版本,建议使用 Hadoop Hive 数据连接读取数据库数据,详情请参见:历史版本;为保证写入性能,建议使用 Hadoop Hive (HDFS) 数据连接。

    2)4.0.29 及之后版本,若只是读取 Hadoop Hive 数据库数据,新建数据连接时,无需配置「HDFS 设置」;若需要写入数据到 Hadoop Hive 数据库,需要配置「HDFS 设置」。详情请参见本文第四章内容。

    3. 准备工作

    3.1 版本和驱动

    下载驱动,并将其上传至 FineDataLink,如何上传可参见:驱动管理 2.1 节。

    支持的数据库版本驱动包下载 日志jar下载
      hive_1.1

    Hive1.1.zip

    日志jar.rar

    在上传驱动包时,需要解压「日志jar」文件和驱动一起上传至 FineDataLink

    Hadoop_Hive_1.2;hive2.3;
      hive2.1.2;hive2.1.1;hive3.3.1

    Hadoop Hive.rar 

    3.2 收集连接信息

    在连接数据库之前,请收集以下信息:

    • 数据库所在服务器的 IP 地址和端口号。

    • 数据库的名称。

    • 若是用户名密码认证,需要收集用户名和密码;若是 Kerberos 认证,需要收集客户端 principal 和 keytab 密钥路径。

    • HDFS 文件系统地址(IP 地址和端口号)(若只是读取 Hadoop Hive 数据库中的数据,无需准备该信息;若需要向Hadoop Hive 数据库中写入数据,为保证写入性能,需要准备该信息)。注:同时需要保证 FineDataLink 所在服务器能访问 HDFS 文件系统端口,例如 HDFS 文件系统默认端口为 8020,且服务器开启了防火墙,则需要参考下文开放 8020 端口。

    Windows 系统开放端口步骤请参见:Windows服务器设置出入站规则 

    Linux 系统开放端口步骤请参见:Linux防火墙使用及配置

    4. 具体连接步骤

    1)以管理员身份登录 FineDataLink ,点击「管理系统>数据连接>数据连接管理>新建数据连接」。如下图所示:

    注:如果非管理员用户想要配置数据连接,需要管理员给其分配管理系统下数据连接节点的权限,具体操作请查看 数据连接管理权限 52.png

    2)找到 Hadoop Hive 数据库。如下图所示:

    53.png

    3)切换驱动为「自定义」选择 2.1 节上传的驱动,并输入 2.2 节收集的连接信息。如下图所示:

    54.png

    设置项介绍如下表所示:

    设置项
    说明
    认证方式

    认证方式可选择两种:用户名密码、Kerberos

    Kerberos 认证方式详情可参见:数据连接 kerberos 认证

    使用 Kerberos 认证需要注意以下事项:

    • 连接前请检查 /etc/hosts 中的机器名对应 IP 是否为局域网 IP

    • 检查 /etc/hostname 中机器名设置和 /etc/hosts 中是否配置一致

    • 检查 FineDataLink 所在机器 hosts 配置的 IP+ 机器名是否正确

    • 本地连接时需要配置 /etc/hosts 文件,添加远端映射:IP+机器名,例如:192.168.5.206  centos-phoenix

    HDFS 设置

    1)若只是读取 Hadoop Hive 数据库中的数据,无需配置该设置项

    2)若需要向 Hadoop Hive 数据库中写入数据,为保证写入性能,需要配置该设置项

    为 Hadoop HDFS文件系统处于活跃状态的节点地址

    格式为 "hdfs://ip:port"。

    例如:hdfs://192.168.101.119:8020

    确定 HDFS 地址中 IP 和端口的方法请参见:确认HDFS地址中的IP和端口

    4)点击「测试连接」,若连接成功则点击「保存」。如下图所示:

    55.png

    5. 使用数据源

    可以在数据同步数据转换中使用数据源进行数据读取和写入。

    4.1.3 及之后版本,数据写入 Hive 数据库时,支持创建、写入分区表。详情请参见:读取、创建、写入分区表



    附件列表


    主题: 数据源配置与使用
    • 有帮助
    • 没帮助
    • 只是浏览
    • 评价文档,奖励 1 ~ 100 随机 F 豆!

    鼠标选中内容,快速反馈问题

    鼠标选中存在疑惑的内容,即可快速反馈问题,我们将会跟进处理。

    不再提示

    10s后关闭

    联系我们
    在线支持
    获取专业技术支持,快速帮助您解决问题
    工作日9:00-12:00,13:30-17:30在线
    页面反馈
    针对当前网页的建议、问题反馈
    售前咨询
    采购需求/获取报价/预约演示
    或拨打: 400-811-8890 转1
    qr
    热线电话
    咨询/故障救援热线:400-811-8890转2
    总裁办24H投诉:17312781526
    提交页面反馈
    仅适用于当前网页的意见收集,帆软产品问题请在 问答板块提问前往服务平台 获取技术支持