反馈已提交

网络繁忙

配置Kafka数据源

  • 文档创建者:Roxy
  • 历史版本:14
  • 最近更新:Wendy123456 于 2024-11-27
  • 1. 概述

    1.1 版本

    版本
    功能变动
    4.0.20.1支持0.10.2以上的Kafka版本
    4.1.11.4实时任务支持 Kafka 数据源
    4.1.13.2支持 Kerberos 认证

    1.2 应用场景

    为了便于用户通过配置 Kafka 消费者的方式,实时从 Kafka 中取数。FineDataLink 支持配置 Kafka 数据连接。

    注:Kafka 认证目前暂不支持 SASL_SSL 认证。

    2. 准备工作

    2.1 前提条件

    详情请参见:前提条件

    2.2 收集连接信息

    在连接之前,请收集以下信息:

    1)Kafka 服务的 IP 地址和端口号。

    2)若是用户名密码认证,需要收集用户名和密码;4.1.13.2 及之后版本,若为 Kerberos 认证,需要:

    • 下载环境上的配置文件 krb5.conf、XXX.keytab、principal 。

    •  XXX.keytab 为密钥表文件,需要在提供 Kerberos 服务的应用服务器上找到该文件的对应位置。在不同服务器上 keytab 的文件名称可能不一样,这里用 XXX 代替。

    2.3 配置 hosts 文件

    注:本节步骤适用场景:4.1.13.2 及之后版本,认证方式为 Kerberos 认证;其他场景忽略本节内容。

    配置本地 hosts 文件,例如路径为C:\Windows\System32\drivers\etc\hosts,在此文件增加远端映射的配置,映射格式为「 IP  机器名」。如下图所示:

    注:对于运维平台部署的工程,如果需要使用 kerberos 认证,需要修改容器与宿主机的 hosts 文件,添加数据库和 kerberos 认证中心的域名。

    1729081061488545.png

    3. 具体连接步骤

    1)管理员登录 FDL 工程,点击「管理系统>数据连接>数据连接管理」,选中某个文件夹后,新建数据连接。如下图所示:

    9.png

    2)设置数据连接名称(可同时修改数据连接所在目录)。如下图所示:

    1729080043296602.png

    3)可根据数据源分类、支持形式、适配模块、数据源名称筛选数据库。如下图所示:

    43.png

    4)输入数据源相关信息,如下图所示:

    1732672305995241.png

    设置项说明如下表所示:

    配置项
    配置说明
    kafka服务地址

    配置 kafka 的访问地址

    示例格式:demo.fanruan.com:9093

    填写 IP 地址或主机名以及端口号,多个地址以“,”隔开

    认证方式无认证、用户名密码、Kerberos

    用户名密码:输入连接使用的 Kafka 用户账号和密码

    Kerberos:

    45.png

    1)Kerberos服务名称:

    • 在 Kerberos 认证机制下,客户端访问服务时所使用的服务名;Kerberos 需要使用该服务名来匹配服务的凭据,确保客户端连接的是正确的服务

    • 默认填写 Kafka

    注:「Kerberos服务名称」需要在 Kafka 服务器上获取,路径为kafka/config/server.properties

    2)keytab密钥路径:

    • 仅允许上传类型为 KEYTAB 的文件,即上传 XXX.Keytab 文件

    • XXX.Keytab 为密钥文件,需要在提 Kerbero 服务的应用服务器上找到该文件的对应位置。不同服务器上 keytab 的文件名称可能不一样,这里用 XXX 代替

    3)客户端principal:

    principal 为注册过 KDC 的客户端名称,从 keytab 密钥中解析生成后,自动填充

    principal 的格式通常为用户名/部门@公司,确认 principal 是否正确的方式是在数据库服务端 shell 执行klist 或者 kinit -k -t /path/to/keytab name_of_principal

    或直接通过 beeline、impala-shell 等工具连接开启认证的服务,并查看对应的 principal 信息

    例如:Hive 服务对应 principal 为 hive /bigdata@XXX.COM,而 Impala 服务对应的 principal为impala/bigdata@XXX.COM

    4)krb5.com文件:

    仅允许上传类型为 CONF 的文件,即上传 krb5.conf 文件

    编码

    即encoding参数,当键类型KEY或者值类型MESSAGE配置为STRING时,决定读取时的编码。

    注:默认编码是utf-8

    单次读取最小字节数(B)

    用户可以手动填写

    校验项:

    • 仅支持填写正整数,正整数校验

    • 不能包含空格

    单次读取时间(ms)

    用户可以手动填写

    校验:

    • 仅支持填写正整数,正整数校验

    • 不能包含空格

    扩展参数项

    支持新增/删除参数项和参数值

    可以参考:Apache Kafka 进行配置

    • 「新增参数项」和「参数值」限制长度<=50字符

    • 「新增参数项」只能是英文字母和".",「参数值」只能是英文字母和数字

    • 不能包含空格

    • 不能为空

    4)点击「测试连接」,若连接成功则「保存」该连接。如下图所示:

    47.png

    4. 使用数据源

    支持「数据管道」和「实时任务」使用 Kafka,详情参见:配置管道任务-Kafka




    附件列表


    主题: 隐藏目录(不在目录树中显示,不可以搜到,可以通过链接访问)
    已经是第一篇
    已经是最后一篇
    • 有帮助
    • 没帮助
    • 只是浏览
    • 评价文档,奖励 1 ~ 100 随机 F 豆!

    鼠标选中内容,快速反馈问题

    鼠标选中存在疑惑的内容,即可快速反馈问题,我们将会跟进处理。

    不再提示

    10s后关闭



    AI

    联系我们
    在线支持
    获取专业技术支持,快速帮助您解决问题
    工作日9:00-12:00,13:30-17:30在线
    页面反馈
    针对当前网页的建议、问题反馈
    售前咨询
    采购需求/获取报价/预约演示
    或拨打: 400-811-8890 转1
    qr
    热线电话
    咨询/故障救援热线:400-811-8890转2
    总裁办24H投诉:17312781526
    提交页面反馈
    仅适用于当前网页的意见收集,帆软产品问题请在 问答板块提问前往服务平台 获取技术支持