资源准备:
hadoop-3.3.1.tar.gz
jdk-8u161-linux-x64.tar.gz
安装与环境配置:
参考这个靠谱的教程
(此教程最后的非必须的yarn配置是错的)
yarn的正确配置方法:
终端键入$ hadoop classpath
得到
进入文件夹/usr/local/hadoop/etc/hadoop,找到yarn-site.xml
按照如图方式配置,其中value中的值为上面hadoop classpath得到的值
再删掉mapred-site.xml文件即可完成yarn配置
开启服务
$ cd /usr/local/hadoop $ ./sbin/start-all.sh $ jps
得到
19409 ResourceManager 5860 SecondaryNameNode 12452 JobHistoryServer 23542 Jps 5625 Datanode 5487 NameNode 12047 NodeManager
wordcount测试
到达命令行进入cd usr/local/hadoop文件夹下开启所有服务,
$ hdfs dfs -mkdir /user $ hdfs dfs -mkdir /user/hadoop $ hdfs dfs -copyFromLocal LICENSE.txt /user/hadoop $ hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-3.3.1.jar wordcount /user/hadoop/LICENSE.txt /user/hadoop/wordcount
上述操作步骤的含义为首先在hdfs系统中建立user块,再在里面建立hadoop块,从本地文件系统中复制LICENSE.txt到刚才创建的块里,然后启动hadoop对刚才文本里的单词计数
若成功则会显示
下面去hdfs里找我们刚才的结果文件
打开火狐浏览器,输入http://localhost:9870,点击Utilities/browse the file system
进入user/hadoop/wordcount,找到结果文件,下载即可
在本地就可以找到结果文件了
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 [email protected] 举报,一经查实,本站将立刻删除。