scp hadoop-env.sh core-site.xml hdfs-site.xml mapred-env.sh slaves mapred-site.xml.template yarn-site.xml hadoop2:/export/servers/hadoop/etc/hadoop
[root@hadoop01 ~]# hadoop fs -put andy.txt /@H_404_3@ [root@hadoop01 ~]# hadoop fs -ls /
#set hadoop env
export HADOOP_HOME=/export/servers/hadoop@H_404_3@ export PATH=${HADOOP_HOME}/bin:${HADOOP_HOME}/sbin:$PATH
@H_404_3@ #set java env@H_404_3@ export JAVA_HOME=/export/servers/jdk@H_404_3@ export JRE_HOME=${JAVA_HOME}/jre@H_404_3@ export CLAsspATH=.:${JAVA_HOME}/lib:${JRE_HOME}/lib@H_404_3@ export PATH=${JAVA_HOME}/bin:$PATH
@H_404_3@ 先启动hadoop01 的namenode 和datanode后再开始连接,然后在开始进行hadoop的操作
namenode无法启动的问题 下面红体字是关键,看自己有没有配置,如果不配可能会启动不了namenode
namenode最开始的位置是要配置在core-site.xml,hdfs-site.xml
<configuration>@H_404_3@ <property>@H_404_3@ <name>hadoop.tmp.dir</name>@H_404_3@ <value>file:/export/data/hadoop/temp/dfs/</value>@H_404_3@ <description>Abase for other temporary directories.</description>@H_404_3@ </property>@H_404_3@ <property>@H_404_3@ <name>fs.defaultFS</name>@H_404_3@ <value>hdfs://localhost:9000</value>@H_404_3@ </property>@H_404_3@ </configuration>@H_404_3@ hdfs-site.xml内容如下:
<configuration>@H_404_3@ <property>@H_404_3@ <name>dfs.namenode.name.dir</name>@H_404_3@ <value>file:/export/data/hadoop/temp/dfs/name</value>@H_404_3@ </property>@H_404_3@ <property>@H_404_3@ <name>dfs.datanode.data.dir</name>@H_404_3@ <value>file:/export/data/hadoop/temp/dfs/data</value>@H_404_3@ </property>@H_404_3@ </configuration>@H_404_3@ 导致系统启动后会默认读取linux根目录下的tmp/hadoop-hadoop/下的文件。
修改红体字然后按下面步骤即可
@H_404_3@ 1、先运行stop-all.sh@H_404_3@ 2、格式化namdenode,不过在这之前要先删除原目录,即core-site.xml下配置的<name>hadoop.tmp.dir</name>所指向的目录,删除后切记要重新建立配置的空目录,然后运行hadoop namenode -format@H_404_3@ 3、运行start-all.sh@H_404_3@ ————————————————
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 [email protected] 举报,一经查实,本站将立刻删除。