跳到主要内容

HiDataPLus(HDP)332上手工集成安装

HiDataPLus(HDP)3.3.2.*公开发布版没有集成HivePlus的Stack,需要手工部署Ambari Stack和更新HDP-UTITS安装源。

1. 安装集群

可以参考HDP332安装部署,需要相关组件:

  • HDFS 必需
  • YARN 必需
  • HIVE 必需
  • Ranger 可选

2. Ambari Server上部署Stack

(1) 下载Stack更新包

百度网盘下载 HDP3.3.2目录 hiveplus_ambari_stack_332_v*.tar.gz,版本越新越好。 hadoop-env

(2) 上传到Ambari Server所在服务器

下文以hiveplus_ambari_stack_332_v1.tar.gz,放到ambari server所在机器的 /app/ 目录。

(3) 解压

cd /app/
tar zxvf hiveplus_ambari_stack_332_v*.tar.gz

ls -l hiveplus_ambari_stack_332

(4) 更新文件

#清理,如有自定义,请另行备份。
rm -fr /var/lib/ambari-server/resources/stacks/HDP/3.3/services/OPENJDK17
rm -fr /var/lib/ambari-server/resources/stacks/HDP/3.3/services/HIVEPLUS

#更新
/bin/cp/dfr -fr /app/hiveplus_ambari_stack_332/* /var/lib/ambari-server/resources/stacks/HDP/3.3/services/

(5) 重启Ambari Server

ambari-server restart
信息

部署Stack将会新增OPENJDK和HIVEPLUS两个文件夹的文件,不会影响其他组件,可以放心使用。

3. 更新HDP-UTILS包安装源文件

为避免压缩包过大,OpenJDK17和HivePlus的安装文件放置在HDP-UTILS安装源里,可以直接将原有文件删除后替换。

(1) 下载RPM或Deb安装压缩包。

百度网盘 的 HDP3.3.2目录下载对应操作系统类型和CPU架构的HDP-UTILS_HIVEPLUS-1.1.0.3.25_***.tar hadoop-env

(2) 上传到HDP-UTILS安装源所在服务器

下文以HDP-UTILS_HIVEPLUS-1.1.0.3.25_x86_64.tar.gz,放到HDP-UTILS安装源所在服务器所在机器的安装源根目录,假定目录为/app/repo/, /app/repo/1.1.0.22 为原有的HDP-UTILS目录。

|--安装根目录 根目录
|--1.1.0.22 旧目录
|--HIVEPLUS-1.1.0.3.25 新目录

(3) 解压

cd /app/repo/
tar zxvf HDP-UTILS_HIVEPLUS-1.1.0.3.25_x86_64.tar.gz

(4) 删除或者备份原有文件,将解压文件覆盖

#备份原有目录
mv 1.1.0.22 1.1.0.22_bake

#用新文件替换
mv HIVEPLUS-1.1.0.3.25 1.1.0.22

4. 更新集群节点的Cache

在以前安装Rpm或者Deb过程,会产生缓存,如果安装过程因缓存引起问题,可以参照进行清理。

  • RPM相关操作系统
#清理所有缓存,谨慎使用
yum clean all
  • Deb相关操作系统
#清理所有缓存,谨慎使用
rm -fr /var/lib/apt/lists/*
apt clean
apt update

6. 调整Hadoop-env.sh

由于HivePlus使用JDK17,所以需要调整Hadoop-env.sh的JAVA_HOME配置。调整后不影响之前的服务。相关代码如下:

# The java implementation to use. Required.
# export JAVA_HOME={{java_home}}

if [ -n "$USE_JAVA_17" ] && [ "$USE_JAVA_17" = "true" ]; then
export JAVA_HOME="$JAVA_HOME_17"
echo "Using Java 17: $JAVA_HOME_17"
else
echo "Using default Java: {{java_home}}"
export JAVA_HOME={{java_home}}
fi

相关参数需要在Ambari界面进行进行调整,调整后需要重启HDFS服务。 hadoop-env

5. 安装HivePlus

在Ambari界面进行安装

(1) 新增服务

涉及两个服务:

  • OPENJDK17: 默认集成了OPENJDK17方便使用,如果有偏好版本,可以不安装此服务,另行安装。
  • HivePLus: 主要服务,必须安装。

新增服务

(2) 分配安装节点-主服务

分配安装节点

(3) 分配安装节点-客户端

分配安装节点

(4) 参数配置

一般情况下,不需要调整,或者安装后调整。 参数配置

(5) 执行部署

执行部署

执行中,需要几分钟。 执行中

(6) 部署完成后自动启动服务。

部署完成,服务自动启动,如果遇到问题,根据问题描述进行解决。 部署完成

信息

默认安装使用Hive的Metastore,可能存在SQL统计信息不准确导致的SQL执行计划不佳,可以尝试启用HivePlus Metastore。

6. 执行SQL验证

参考使用方式