微信公众号搜"智元新知"关注
微信扫一扫可直接关注哦!

hadoop的一些环境变量配置及namenode无法启动问题解决

scp hadoop-env.sh core-site.xml hdfs-site.xml mapred-env.sh  slaves mapred-site.xml.template yarn-site.xml hadoop2:/export/servers/hadoop/etc/hadoop

[root@hadoop01 ~]# hadoop fs -put andy.txt /@H_404_3@ [root@hadoop01 ~]# hadoop fs -ls /

#set hadoop env

export HADOOP_HOME=/export/servers/hadoop@H_404_3@ export PATH=${HADOOP_HOME}/bin:${HADOOP_HOME}/sbin:$PATH

@H_404_3@ #set java env@H_404_3@ export JAVA_HOME=/export/servers/jdk@H_404_3@ export JRE_HOME=${JAVA_HOME}/jre@H_404_3@ export CLAsspATH=.:${JAVA_HOME}/lib:${JRE_HOME}/lib@H_404_3@ export PATH=${JAVA_HOME}/bin:$PATH

@H_404_3@ 先启动hadoop01 的namenode 和datanode后再开始连接,然后在开始进行hadoop的操作

namenode无法启动的问题  下面红体字是关键,看自己有没有配置,如果不配可能会启动不了namenode

namenode最开始的位置是要配置在core-site.xml,hdfs-site.xml

@H_404_3@ core-site.xml内容如下:

<configuration>@H_404_3@ <property>@H_404_3@ <name>hadoop.tmp.dir</name>@H_404_3@ <value>file:/export/data/hadoop/temp/dfs/</value>@H_404_3@ <description>Abase for other temporary directories.</description>@H_404_3@ </property>@H_404_3@ <property>@H_404_3@ <name>fs.defaultFS</name>@H_404_3@ <value>hdfs://localhost:9000</value>@H_404_3@ </property>@H_404_3@ </configuration>@H_404_3@ hdfs-site.xml内容如下:

<configuration>@H_404_3@ <property>@H_404_3@ <name>dfs.namenode.name.dir</name>@H_404_3@ <value>file:/export/data/hadoop/temp/dfs/name</value>@H_404_3@ </property>@H_404_3@ <property>@H_404_3@ <name>dfs.datanode.data.dir</name>@H_404_3@ <value>file:/export/data/hadoop/temp/dfs/data</value>@H_404_3@ </property>@H_404_3@ </configuration>@H_404_3@ 导致系统启动后会认读取linux根目录下的tmp/hadoop-hadoop/下的文件

修改红体字然后按下面步骤即可

@H_404_3@ 1、先运行stop-all.sh@H_404_3@ 2、格式化namdenode,不过在这之前要先删除原目录,即core-site.xml下配置的<name>hadoop.tmp.dir</name>所指向的目录,删除后切记要重新建立配置的空目录,然后运行hadoop namenode -format@H_404_3@ 3、运行start-all.sh@H_404_3@ ————————————————

版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 [email protected] 举报,一经查实,本站将立刻删除。

相关推荐