https://archive.apache.org/dist/flink/flink-1.7.2/
2、下载以后解压
tar -zxvf flink-1.7.2-bin-hadoop27-scala_2.11.tgz
3、解压以后配置一下环境变量
vim /etc/profile
在文件末尾直接变量
HADOOP_CLAsspATH='${HADOOP_HOME}/bin/hadoop classpath'
保存:wq
使环境变量生效:source /etc/profile
4、有时候虚拟机内存小,会有问题。yarn会检查虚拟机内存和你运行命令时设置的运行内存,会有问题报错。
所以配置一下yarn-site.xm
cd cd hadoop-2.7.7/etc/hadoop
vim yarn-site.xml
在configuration里追加
<property> <name>yarn.nodemanager.vmem-check-enabled</name> <value>false</value> </property>
5、先启动hadoop集群,配置了环境变量,所以在root根目录启动就行,如果不行,进入hadoop那个解压缩的文件,再执行
start-all.sh
jps,检查一下
6、然后进入到你解压的flink文件输入启动命令(三台虚拟机都要开着)
bin/yarn-session.sh -n 2 -jm 2048m -tm 1024m -d
-n 2 是俩结点
-jm 是jobManager的内存大小,也就是我的master结点内存
-tm 是taskManager的内存大小,也就是我的slaves结点的内存
-d 是后台启动的意思
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 [email protected] 举报,一经查实,本站将立刻删除。