一、clean之后直接package
The program's entry point class 'com.atguigu.wcBase.Workcount' was not found in the jar file.
需要在clean之后build,再package
二、standalone
启动Flink集群 start-cluster
前提打开nc -lk 9999
提交job
flink run -c com.atguigu.wcBase.StreamWorkcount /opt/module/flink-1.11.3/learning-1.0-SNAPSHOT.jar --host localhost --port 9999
查看job
flink list
取消job
flink cancel jobId
三、yarn,启动yarn集群
1.启动yarn-session:yarn-session.sh -n 2 -s 2 -jm 1024 -tm 1024 -nm test -d
-n(--container):TaskManager 的数量。 -s(--slots): 每个 TaskManager 的 slot 数量,默认一个 slot 一个 core,默认每个 taskmanager 的 slot 的个数为 1,有时可以多一些 taskmanager,做冗余。 -jm:JobManager 的内存(单位 MB)。 -tm:每个 taskmanager 的内存(单位 MB)。 -nm:yarn 的 appName(现在 yarn 的 ui 上的名字)。 -d:后台执行。 提交任务: flink run -c com.atguigu.wcBase.StreamWorkcount /opt/module/flink-1.11.3/learning-1.0-SNAPSHOT.jar --host hadoop101 --port 9999 查看任务情况 http://hadoop102:8088/cluster
2.不启动yarn-session, 直接提交任务 flink run -m yarn-cluster -c com.atguigu.wcBase.StreamWorkcount /opt/module/flink-1.11.3/learning-1.0-SNAPSHOT.jar --host hadoop101 --port 9999 yarn控制台查看任务情况 http://hadoop102:8088/cluster
error:org.apache.flink.client.program.ProgramInvocationException: Job Failed
java.net.ConnectException: Connection refused
原因:9999端口被占,重启下nc -lk 9999
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 [email protected] 举报,一经查实,本站将立刻删除。