# 环境搭建
# 解压省略...
# vi hbase-env.sh
# export JAVA_HOME=/opt/install/jdk JDK
# export HBASE_MANAGES_ZK=false 启用外部zookeeper
# vi hbase-site.xml
<con
figuration>
<property>
<name>hbase.rootdir</name>
<value>hdfs://kbcluster/hbase</value>
</property>
<property>
<name>hbase.cluster.
distributed</name>
<value>true</value>
</property>
<property>
<name>hbase.master.port</name>
<value>16000</value>
</property>
<property>
<name>hbase.zookeeper.property.dataDir</name>
<value>/opt/bigdata/hadoop/zookeeper/zkdata</value>
</property>
<property>
<name>hbase.zookeeper.quorum</name>
<value>vwmaster:2181,vwslave01:2181,vwslave02:2181,vwslave03:2181</value>
</property>
</con
figuration>
# vi regionservers
vwmaster
vwslave01
vwslave02
vwslave03
# 软连接hadoop core-site.xml hdfs-site.xml 到hbase的conf
ln -s /opt/bigdata/hadoop/hadoop260/etc/hadoop/core-site.xml ./
ln -s /opt/bigdata/hadoop/hadoop260/etc/hadoop/hdfs-site.xml ./
# 环境变量
export HBASE_HOME=/opt/bigdata/hadoop/hbase120
export PATH=$HBASE_HOME/bin:$HBASE_HOME/sbin:$HIVE_HOME/bin:$ZK_HOME/sbin:$ZK_HOME/bin:$HADOOP_HOME/sbin:$HADOOP_HOME/bin:$NODE_HOME/bin:$JAVA_HOME/bin:$TOMCAT_HOME/bin:$PATH
# 压缩hbase120为hbase120.tar.gz,并拷贝etc/profile和hbase120.tar.gz到以下机器
vwslave01
vwslave02
vwslave03
# 激活所有集群的环境变量 source /etc/profile
#启动/
关闭hbase
start-hbase.sh
stop-hbase.sh
# 启动主机上 jps
HMaster
# 其他主机上 jps
HRegionServer
hbase shell 进入hbase
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 [email protected] 举报,一经查实,本站将立刻删除。