把任务提交到spark上 分为几种模式 mesos(Apache项目 国外用的多) standalone(spark自己实现的资源调度平台) yarn(国内用的多)
为什么用yarn hadoop flink spark都用的是yarn 方便集中管理
spark计算平台 yarn资源调度平台
client端在driver里面 的 am applicationMaster spark和yarn之间的代理人 rs rresourcemanager
hdfs 分布式的文件系统
resource manager nodeManager yarn中的节点 以 进程的形式存在
secondarynamenode hdfs中做元数据同步的节点
datanode namenode hdfs里面的节点
hadoop安装好就意味着yarn安装好
xsync 同步命令
master和worker都启动好了代表spark启动成功
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 [email protected] 举报,一经查实,本站将立刻删除。