基于docker快速搭建hive环境

一、概述

Hive是什么?

Hive是一个数据仓库基础工具在Hadoop中用来处理结构化数据。它架构在Hadoop之上,总归为大数据,并使得查询和分析方便。

最初,Hive是由Facebook开发,后来由Apache软件基金会开发,并作为进一步将它作为名义下Apache Hive为一个开源项目。它用在好多不同的公司。例如,亚马逊使用它在 Amazon Elastic MapReduce。

Hive 不是

  • 一个关系数据库

  • 一个设计用于联机事务处理(OLTP)

  • 实时查询和行级更新的语言

Hiver特点

  • 它存储架构在一个数据库中并处理数据到HDFS。

  • 它是专为OLAP设计。

  • 它提供SQL类型语言查询叫HiveQL或HQL。

  • 它是熟知,快速,可扩展和可扩展的。

Hive架构

下面的组件图描绘了Hive的结构:

该组件图包含不同的单元。下表描述每个单元:

单元名称 操作
用户接口/界面
Hive是一个数据仓库基础工具软件,可以创建用户和HDFS之间互动。用户界面,Hive支持是Hive的Web UI,Hive命令行,HiveHD洞察(在Windows服务器)。
元存储 Hive选择各自的数据库服务器,用以储存表,数据库,列模式或元数据表,它们的数据类型和HDFS映射。
HiveQL处理引擎
HiveQL类似于SQL的查询上Metastore模式信息。这是传统的方式进行MapReduce程序的替代品之一。相反,使用Java编写的MapReduce程序,可以编写为MapReduce工作,并处理它的查询。
执行引擎
HiveQL处理引擎和MapReduce的结合部分是由Hive执行引擎。执行引擎处理查询并产生结果和MapReduce的结果一样。它采用MapReduce方法。
HDFS 或 HBASE Hadoop的分布式文件系统或者HBASE数据存储技术是用于将数据存储到文件系统。

Hive工作原理

下图描述了Hive 和Hadoop之间的工作流程。

下表定义Hive和Hadoop框架的交互方式:

Step No. 操作
1
Execute Query

Hive接口,如命令行或Web UI发送查询驱动程序(任何数据库驱动程序,如JDBC,ODBC等)来执行。

2
Get Plan

在驱动程序帮助下查询编译器,分析查询检查语法和查询计划或查询的要求。

3
Get Metadata

编译器发送元数据请求到Metastore(任何数据库)。

4
Send Metadata

Metastore发送元数据,以编译器的响应。

5
Send Plan

编译器检查要求,并重新发送计划给驱动程序。到此为止,查询解析和编译完成。

6
Execute Plan

驱动程序发送的执行计划到执行引擎。

7
Execute Job

在内部,执行作业的过程是一个MapReduce工作。执行引擎发送作业给JobTracker,在名称节点并把它分配作业到TaskTracker,这是在数据节点。在这里,查询执行MapReduce工作。

8
Metadata Ops

与此同时,在执行时,执行引擎可以通过Metastore执行元数据操作。

9
Fetch Result

执行引擎接收来自数据节点的结果。

10
Send Results

执行引擎发送这些结果值给驱动程序。

执行过程就是:

HiveQL通过CLI/web UI或者thrift 、 odbc 或 jdbc接口的外部接口提交,经过complier编译器,运用Metastore中的元数据进行类型检测和语法分析,生成一个逻辑方案(logical plan),然后通过简单的优化处理,产生一个以有向无环图DAG数据结构形式展现的map-reduce任务。

Hive构建在Hadoop之上,Hive的执行原理:

  1. HQL中对查询语句的解释、优化、生成查询计划是由Hive完成的

  2. 所有的数据都是存储在Hadoop中

  3. 查询计划被转化为MapReduce任务,在Hadoop中执行(有些查询没有MR任务,如:select * from table)

  4. Hadoop和Hive都是用UTF-8编码的

查询编译器(query complier),用云存储中的元数据来生成执行计划,步骤如下:

  1. 解析(parse)-anlr解析其生成语法树AST(hibernate也是这个):将HQL转化为抽象语法树AST

  2. 类型检查和语法分析(type checking and semantic analysis):将抽象语法树转换此查询块(query block tree),并将查询块转换成逻辑查询计划(logic plan Generator);

  3. 优化(optimization):重写查询计划(logical optimizer)–>将逻辑查询计划转成物理计划(physical plan generator)–>选择最佳的join策略(physical optimizer)

二、hive环境安装

hadoop的安装前面已经说过了,注意:Hive版本1.2以上需要Java 1.7或更高版本。 Hive版本0.14到1.1也适用于Java 1.6。 强烈建议用户开始转向Java 1.8。Hadoop 2.x(首选),1.x(不支持Hive 2.0.0以上版本)。
Hive版本0.13也支持Hadoop 0.20.x,0.23.x。Hive常用于生产Linux和Windows环境。 Mac是一个常用的开发环境。

Hadoop集群的搭建前面已经介绍了,链接如下:

https://www.cnblogs.com/xiao987334176/p/13208915.html

由于使用的是jdk1.7,我需要升级到jdk1.8。因此镜像需要重新构建才行!

注意:hive需要运行在hadoop-master节点才可以!

环境说明

操作系统 docker版本 ip地址 配置
centos 7.6 19.03.12 192.168.31.229 4核8g

我们采用远程模式安装hive,也就是将Mysql数据库独立出来,将元数据保存在远端独立的Mysql服务器中。

运行mysql

创建网桥

docker network create hadoop

创建数据目录

mkdir -p /data/mysql/data

运行mysql

docker run -itd   --net=hadoop   --restart=always   --name hadoop-mysql   --hostname hadoop-mysql   -p 3306:3306   -e MYSQL_ROOT_PASSWORD=abcd@1234   -v /data/mysql/data:/var/lib/mysql   mysql:5.7   --character-set-server=utf8mb4 --collation-server=utf8mb4_unicode_ci

创建hive数据库

# docker exec -it hadoop-mysql /bin/bashroot@hadoop-mysql:/# mysql -u root -pabcd@1234mysql> CREATE DATABASE  `hive` DEFAULT CHARACTER SET utf8mb4 COLLATE utf8mb4_unicode_ci;Query OK, 1 row affected (0.00 sec)

目录结构

cd /opt/
git clone https://github.com/py3study/hadoop-hive.git

/opt/hadoop-hive 目录结构如下:

./
├── apache-hive-2.1.1-bin.tar.gz
├── config
│   ├── core-site.xml
│   ├── hadoop-env.sh│   ├── hdfs-site.xml
│   ├── hive-site.xml
│   ├── mapred-site.xml
│   ├── run-wordcount.sh│   ├── slaves
│   ├── ssh_config
│   ├── start-hadoop.sh│   └── yarn-site.xml
├── Dockerfile
├── hadoop-2.7.2.tar.gz
├── mysql-connector-java-5.1.38.jar
├── README.md
├── sources.list
├── start-container1.sh└── start-container2.sh

由于软件包比较大,需要使用迅雷下载,下载地址如下:

https://github.com/kiwenlau/compile-hadoop/releases/download/2.7.2/hadoop-2.7.2.tar.gzhttp://central.maven.org/maven2/mysql/mysql-connector-java/5.1.38/mysql-connector-java-5.1.38.jarhttp://mirror.bit.edu.cn/apache/hive/hive-2.1.1/apache-hive-2.1.1-bin.tar.gz

构建镜像

docker build -t hadoop-hive:1 .

创建数据目录

mkdir -p /data/hadoop-cluster/master/ /data/hadoop-cluster/slave1/ /data/hadoop-cluster/slave2/

运行镜像

cd /opt/hadoop-hive
bash start-container1.sh

启动hadoop集群

bash start-hadoop.sh

注意:这一步会ssh连接到每一个节点,确保ssh信任是正常的。

Hadoop的启动速度取决于机器性能

退出docker容器,拷贝hdfs文件到宿主机目录

docker cp hadoop-master:/root/hdfs /data/hadoop-cluster/master/
docker cp hadoop-slave1:/root/hdfs /data/hadoop-cluster/slave1/
docker cp hadoop-slave2:/root/hdfs /data/hadoop-cluster/slave2/

重新运行容器,并挂载hdfs目录

cd /opt/hadoop-hive
bash start-container2.sh

开启hadoop

bash start-hadoop.sh

注意:这一步会ssh连接到每一个节点,确保ssh信任是正常的。

Hadoop的启动速度取决于机器性能

运行wordcount

bash run-wordcount.sh

此脚本会连接到fdfs,并生成几个测试文件。

运行结果:

...
input file1.txt:
Hello Hadoop

input file2.txt:
Hello Docker

wordcount output:
Docker  1Hadoop  1Hello   2

wordcount的执行速度取决于机器性能

关闭安全模式

进入hadoop-master容器,执行命令:

hadoop dfsadmin -safemode leave

配置hive-site.xml文件

cat /usr/local/hive/conf/hive-site.xml

内容如下:

<?xml version="1.0" encoding="UTF-8" standalone="no"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<configuration>
  <property>
    <name>javax.jdo.option.ConnectionURL</name>
    <value>jdbc:mysql://hadoop-mysql:3306/hive?createDatabaseIfNotExist=true&useSSL=false</value><description>JDBC connect string for a JDBC metastore</description>
  </property>
  <property>
    <name>javax.jdo.option.ConnectionDriverName</name>
    <value>com.mysql.jdbc.Driver</value>
    <description>Driver class name for a JDBC metastore</description>
  </property>
  <property>
    <name>javax.jdo.option.ConnectionUserName</name>
    <value>root</value>
    <description>username to use against metastore database</description>
  </property>
  <property>
    <name>javax.jdo.option.ConnectionPassword</name>
    <value>abcd@1234</value>
    <description>password to use against metastore database</description>
  </property>
</configuration>

注意:请根据实际情况修改mysql地址,用户名和密码。由于mysql是ip访问的,需要关闭ssl连接。

hive元数据库初始化

/usr/local/hive/bin/schematool -dbType mysql -initSchema

输出:

SLF4J: Class path contains multiple SLF4J bindings.
SLF4J: Found binding in [jar:file:/usr/local/hive/lib/log4j-slf4j-impl-2.4.1.jar!/org/slf4j/impl/StaticLoggerBinder.class]
SLF4J: Found binding in [jar:file:/usr/local/hadoop/share/hadoop/common/lib/slf4j-log4j12-1.7.10.jar!/org/slf4j/impl/StaticLoggerBinder.class]
SLF4J: See http://www.slf4j.org/codes.html#multiple_bindings for an explanation.SLF4J: Actual binding is of type [org.apache.logging.slf4j.Log4jLoggerFactory]
Metastore connection URL:     jdbc:mysql://hadoop-mysql:3306/hive?createDatabaseIfNotExist=true&useSSL=falseMetastore Connection Driver :     com.mysql.jdbc.Driver
Metastore connection User:     root
Starting metastore schema initialization to 2.1.0Initialization script hive-schema-2.1.0.mysql.sql
Initialization script completed
schemaTool completed

注意:它会连接到mysql,并写入相关表数据。

打开navicat客户端,查看表数据

Hive服务端的启动

nohup /usr/local/hive/bin/hive --service metastore &

查看端口

# ss -tunlp|grep 9083tcp    LISTEN     0      50                     *:9083                  *:*      users:(("java",1477,392))

进入hive shell测试

# /usr/local/hive/bin/hivehive> CREATE SCHEMA testdb;OK
Time taken: 2.052 seconds
hive> SHOW DATABASES;OK
default
testdb
Time taken: 0.48 seconds, Fetched: 2 row(s)
hive> quit;

使用hdfs 管理页面,查看刚刚创建的数据库

(0)

相关推荐

  • Hive进行ETL

    一.数据清洗介绍  二.Hive数据清洗  1.本文使用的是一数据集为user.zip,包含了一个大规模数据集raw_user.csv(包含2000万条记录),和一个小数据集small_user.cs ...

  • 基于docker快速搭建多节点Hadoop集群

    一.概述 hadoop是什么 Hadoop被公认是一套行业大数据标准开源软件,在分布式环境下提供了海量数据的处理能力.几乎所有主流厂商都围绕Hadoop开发工具.开源软件.商业化工具和技术服务.今年大 ...

  • jenkins学习1-docker快速搭建jenkins环境

    前言 jenkins的环境搭建方法有很多,本篇使用docker快速搭建一个jenkins环境. 环境准备: linux服务器 docker docker运行jenkins 先下载jenkins镜像ht ...

  • LVS+keepalived快速搭建测试环境

    #LVS+keepalived快速搭建测试环境#centos6 X64# LVS 负载均衡模式:DR(直接路由)192.168.18.31 master(LVS)192.168.18.32 slave ...

  • 使用 kind 快速搭建 kubernetes 环境

    Intro kind(Kubernetes IN Docker) 是一个基于 docker 构建 Kubernetes 集群的工具,非常适合用来在本地搭建基于 Kubernetes 的开发/测试环境. ...

  • CentOS7上Docker搭建OpenStf环境

    应用场景: 开始了解stf主要源自于当前移动端自动化过程中,发现执行机器上挂载的移动设备监控起来比较麻烦,有时候报错或调试需要跑到执行机所在的位置查看运行情况,有没有一种办法可以直接在自己位置上就能看 ...

  • Linux系统 Centos7 环境基于Docker部署Rocketmq服务

    消息队列 基本概述 MQ,Message Queue,基于TCP协议构建的简单协议,区别于具体的通信协议. 基于通信协议定义和抽象的更高层次的通信模型,一般都是生产者和消费者模型,又或者说服务端和客户 ...

  • Linux系统环境基于Docker搭建Mysql数据库服务实战

    开放端口规划: mysql-develop:3407 mysql-test: 3408 mysql-release: 3409 ps: 1.不推荐使用默认端口-3306,建议自定义端口 2.如果采用阿 ...

  • lnmp环境快速搭建及原理解析

    刚开始学习php的时候是在wamp环境下开发的,后来才接触到 lnmp 环境当时安装lnmp是按照一大长篇文档一步步的编译安装,当时是真不知道是在做什么啊!脑袋一片空白~~,只知道按照那么长的一篇文档 ...

  • 关于使用docker在windows上搭建Linux环境

    在Window10中使用Docker搭建Linux并配置并发版环境 大部分人在window中搭建Linux环境的主要方法可能是双系统或虚拟机,最近接触到Docker(一种新兴的虚拟化技术,可以快速有效 ...