1、准备环境
centos 6.5
apache-hive-3.1.2-bin.tar.gz
2、解压 tar zxvf /opt/software/apache-hive-3.1.2-bin.tar.gz -C /opt/module/
3、环境变量
修改环境变量:vi /etc/profile
#hive
export HIVE_HOME=/opt/module/apache-hive-3.1.2
export PATH=$PATH:$HIVE_HOME/bin
刷新配置:source /etc/profile
4、测试hive执行是否成功
hive version
5、创建hive的hive-site.xml文件
cd /opt/module/apache-hive-3.1.2/conf
cp hive-default.xml.template hive-site.xml
<configuration>
<property>
<name>javax.jdo.option.ConnectionURL</name>
<value>jdbc:MysqL://localhost:3306/hive?useSSL=false</value>
</property>
<property>
<name>javax.jdo.option.ConnectionDriverName</name>
<value>com.MysqL.jdbc.Driver</value>
</property>
<property>
<name>javax.jdo.option.ConnectionUserName</name>
<value>root</value>
</property>
<property>
<name>javax.jdo.option.ConnectionPassword</name>
<value>123456</value>
</property>
<property>
<name>hive.metastore.schema.verification</name>
<value>false</value>
</property>
</configuration>
(存储分为:derby(内存性,适合测试,不建议上生产使用) 、MysqL)
create database hive;
7、进入hive的lib目录,下载MysqL连接包
cd /opt/module/apache-hive-3.1.2/lib
wget https://mvnrepository.com/artifact/MysqL/mysql-connector-java/5.1.47/mysql-connector-java-5.1.47.jar
8、启动hadoop,hive需要hadoop来存储数据
start-dfs.sh
start-yarn.sh
9、初始化hive
schematool -dbType MysqL -initSchema
10、进入hive的bin目录,启动hive
cd /usr/local/hive/bin
hive //启动hive
create database test;
打开hadoop的hdfs管理界面
错误集锦
com.google.common.base.Preconditions.checkArgument(ZLjava/lang/String;Ljava/lang/Object;)
关键在: com.google.common.base.Preconditions.checkArgument 这是因为hive内依赖的guava.jar和hadoop内的版本不一致造成的。 检验方法:
1、查看hadoop安装目录下share/hadoop/common/lib内guava.jar版本
2、查看hive安装目录下lib内guava.jar的版本 如果两者不一致,删除版本低的,并拷贝高版本的 问题解决!
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 [email protected] 举报,一经查实,本站将立刻删除。