1. 概述
Hadoop 是个很流行的分布式计算解决方案,Hive是建立在 Hadoop 上的数据仓库基础构架。它提供了一系列的工具,可以用来进行数据提取转化加载(ETL),这是一种可以存储、查询和分析存储在 Hadoop 中的大规模数据的机制。
2. 链接步骤
2.1 配置信息
驱动 | URL | 驱动下载链接 | 支持数据库版本 |
---|---|---|---|
org.apache.hive.jdbc.HiveDriver | jdbc:hive2://hostname:port/databasename | hive_1.1; | |
Hadoop_Hive_1.2;hive2.3; hive2.1.2;hive2.1.1 |
2.2 放置驱动文件
从配置信息驱动下载链接中下载 Hadoop Hive 驱动包,并将该驱动包放置%FR_HOME%\webapps\webroot\WEB-INF\lib下,重启报表服务器。
2.3 选择连接方式
FineReport 提供了两种数据连接方式:
方式一:在设计器中进行连接 ,具体方法请参见: [设计器]JDBC连接数据库 。
方式二:在数据决策平台进行连接。本文主要介绍此种方式。
2.4 新建数据连接
管理员登录数据决策系统,点击管理系统>数据连接>数据连接管理,点击新建数据连接,在所有选项下选择Hadoop Hive,点击确定,如下图所示:
注:如果非管理员用户想要配置数据连接,需要管理员给其分配管理系统下数据连接节点的权限,具体操作请查看 数据连接控制 。
点击确定进入数据连接配置页面。
若选择 kerberos 认证,则需填入注册过 kdc 的客户端名称、keytab 密钥路径和 kerberos 认证对应URL,具体请参见 [平台]数据连接Kerberos认证 ,如下图所示:
注:连接前请检查 /etc/hosts 中的机器名对应 IP 是否为局域网 IP;
检查 /etc/hostname 中机器名设置和 /etc/hosts 中是否配置一致;
检查 FineReport 所在机器 hosts 配置的 IP+ 机器名是否正确;
本地连接时需要配置 /etc/hosts 文件,添加远端映射:IP+机器名,例如: 192.168.5.206 centos-phoenix 。
若不选择 kerberos 认证,则跟其他数据库设置一致,按照本文 2.1 章节提供的配置信息,输入数据库的对应信息,可选择填入高级设置信息,具体请参见 [平台]数据连接 )。如下图所示:
2.5 测试连接
点击测试连接,若弹出「连接成功」提示框,则表示成功连接上数据库,如下图所示:
5)测试连接成功后点击右上角的保存按钮,该数据连接即添加成功。如下图所示:
3. 注意事项
问题现象:
若单独放置 hive 和 impala 驱动时,数据连接正常,一起放置后其中一个数据连接失败。
现象原因:
可能是 hive 和 impala 的驱动有冲突导致的。