- 配置MysqL
只需要在master节点上启动MysqL即可
• MysqL -hlocalhost -uroot -p123456
• GRANT ALL PRIVILEGES ON *.* TO 'hive'@'%' IDENTIFIED BY '123456'
• GRANT ALL PRIVILEGES ON *.* TO 'hive'@'localhost' IDENTIFIED BY '123456'
• FLUSH PRIVILEGES
- 安装Hive
• 上传apache-hive-1.2.1-bin.tar.gz,解压后重命名为hive-1.2.1
• MysqL的驱动包mysql-connector-java-5.1.39-bin.jar,将解压出来的jar放入hive 的lib目录下
- 配置环境变量
• 配置hive环境变量
sudo vi /etc/profile
export HIVE_HOME=/home/hadoop/hive-1.2.1
export PATH=$PATH:$HIVE_HOME/bin:$PATH
export CLAsspATH=$CLAsspATH:$HIVE_HOME/lib
source /etc/profile
• 修改/conf/hive-env.sh文件
HADOOP_HOME=/home/hadoop/hadoop-2.7.2
export HIVE_CONF_DIR=/home/hadoop/hive-1.2.1/conf
- 配置HDFS存储位置
• Hive配置文件里要用到HDFS的一些路径,需要手动创建如下路径:
• hdfs dfs -mkdir -p /hive/warehouse
• hdfs dfs -mkdir -p /hive/logs
• hdfs dfs -mkdir -p /hive/tmp
• hdfs dfs -chmod 733 /hive/warehouse
• hdfs dfs -chmod 733 /hive/logs
• hdfs dfs -chmod 733 /hive/tmp
• 创建本地的目录
• mkdir -p /home/hadoop/hive-1.2.1/hivedata/logs
hive-site.xml
• cp hive-default.xml.template hive-site.xml
<property><name>javax.jdo.option.ConnectionURL</name>
<value>jdbc:MysqL://master:3306/metastore?createDatabaseIfNotExist=true</value></property>
<property><name>javax.jdo.option.ConnectionDriverName</name>
<value>com.MysqL.jdbc.Driver</value></property>
<property><name>javax.jdo.option.ConnectionUserName</name>
<value>hive</value></property>
<property><name>javax.jdo.option.ConnectionPassword</name>
<value>123456</value></property>
<property><name>hive.metastore.warehouse.dir</name>
<value>/hive/warehouse</value></property>
<property><name>hive.exec.scratchdir</name><value>/hive/tmp</value>
</property>
配置log4j
• 创建配置文件:
• cp hive-exec-log4j.properties.template hive-exec-log4j.properties
• cp hive-log4j.properties.template hive-log4j.properties
• 修改两个文件中的配置: • hive.log.dir=/home/hadoop/hive-1.2.1/logs
• log4j.appender.EventCounter=org.apache.hadoop.log.metrics.EventCounter
启动hive
• 确保hdfs启动
• 初始化MysqL数据库:schematool --dbType MysqL -initSchema
问题.ls: cannot access '/home/hadoop/spark-2.0.2/lib/spark-assembly-.jar': No such file or
directory
原因.spark升级到spark2以后,原有lib目录下的大jar包被分散成多个小jar包,原来的sparkassembly-.jar已经不存在
解决.打开hive的安装目录下的bin目录,找到hive文件
修改成:sparkAssemblyPath=ls ${SPARK_HOME}/jars/*.jar
• 启动hive:hive
• 测试hive
hive> create TABLE test( id INT, name string); (观察hdfs下路径)
hive> show tables;
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 [email protected] 举报,一经查实,本站将立刻删除。