1. 概述
1.1 版本
报表服务器版本 |
---|
11.0 |
1.2 应用场景
用户实际环境中已有文件系统 HDFS ,配置集群时可下载「 HDFS 资源仓库」插件,设置文件服务器为 HDFS 。
用户希望 HDFS 文件服务器实现高可用,一个节点宕机后,文件服务器仍能使用,V1.14.及之后的 HDFS 插件可实现该效果。
1.3 功能简介
帆软工程支持接入 Hadoop 分布式 HDFS 文件系统。「 HDFS 资源仓库」插件用于支持使用 HDFS 作为文件服务器,保证模板等资源文件分布式存储,实现高可用。插件介绍如下所示:
插件支持单机和 Web 集群环境下的使用。
用于存放模板、日志、图片、地图数据等资源文件。
具备高吞吐量、高容错性,适用于需要更高并发和系统可用性的系统服务器使用。
具备高可用性,一个节点宕机后,文件服务器仍能使用。
注:该插件仅支持 3.1 版本的 HDFS 文件系统 。
2. 操作步骤
2.1 安装插件
插件下载请点击:HDFS 资源仓库插件
设计器插件安装方法请参见:设计器插件管理
服务器安装插件方法请参见:服务器插件管理
2.2 集群环境准备
在进行 HDFS 文件服务器配置之前请准备集群环境,具体可参见: 集群环境准备
如果开启了 Kerberos 认证,需要拷贝 krb5.conf 文件和 keyTab 文件到各个节点的同一位置
2.3 配置 HDFS 文件服务器
1)将主节点工程的%FR_HOME%\webapps\webroot\WEB-INF文件夹拷贝到文件服务器中,拷贝后 WEB-INF 所在文件夹需要赋予权限,Linux 系统中为 777 权限。
2)管理员进入数据决策系统,点击「管理系统>智能运维>集群配置>文件服务共享」,如下图所示:
2.3.1 选择 HDFS 协议
选择 HDFS 协议时,界面如下图所示:
各设置项介绍如下表所示:
字段 | 值 | 描述 | 是否必要 |
---|---|---|---|
主机 | HDFS 的访问主机 | 一般是 Hadoop 的访问主机 | 是 |
端口 | HDFS 的数据端口 | 默认为 9000 | 是 |
Principal | Kerberos 认证的用户 | 一般格式为[primary]/[instance]@[REALM] | 开启 Kerberos 认证时需要 |
kerberos配置文件 | Kerberos 的配置文件 | krb5.conf 文件路径 | 开启 Kerberos 认证时需要 |
keyTab | keyTab 文件 | 一般是 hdfs.keytab 的文件路径 | 开启 Kerberos 认证时需要 |
路径 | HDFS 中的资源文件目录 | 注:不是机器的文件路径 | 是 |
2.3.2 选择 HA HDFS 协议
选择 HA HDFS 协议时,界面如下图所示:
各设置项介绍如下表所示:
注:协议选择 HA HDFS 时,至少配置 2 个节点。
字段 | 值 | 描述 | 是否必要 |
---|---|---|---|
主机 | HDFS 的访问主机 | 一般是 Hadoop 的访问主机 | 是 |
端口 | HDFS 的数据端口 | 默认为 8020 | 是 |
Principal | Kerberos 认证的用户 | 一般格式为[primary]/[instance]@[REALM] | 开启 Kerberos 认证时需要 |
kerberos配置文件 | Kerberos 的配置文件 | krb5.conf 文件路径 | 开启 Kerberos 认证时需要 |
keyTab | keyTab 文件 | 一般是 hdfs.keytab 的文件路径 | 开启 Kerberos 认证时需要 |
路径 | HDFS 中的资源文件目录 | 注:不是机器的文件路径 | 是 |
2.4 测试连接并保存
点击「测试连接并保存」,提示连接成功,如下图所示:
注:配置集群的后续步骤请参见:配置集群