微信公众号搜"智元新知"关注
微信扫一扫可直接关注哦!

spark

 

 把任务提交到spark上 分为几种模式  mesos(Apache项目 国外用的多)  standalone(spark自己实现的资源调度平台)  yarn(国内用的多)

为什么用yarn    hadoop flink   spark都用的是yarn   方便集中管理

 

 spark计算平台   yarn资源调度平台

client端在driver里面 的       am applicationMaster   spark和yarn之间的代理人   rs  rresourcemanager

 

 

 

 

 hdfs  分布式的文件系统  

 

 

resource manager    nodeManager   yarn中的节点   以 进程的形式存在

secondarynamenode   hdfs中做元数据同步的节点

datanode  namenode  hdfs里面的节点

hadoop安装好就意味着yarn安装好

xsync   同步命令  

master和worker都启动好了代表spark启动成功

 

 

 

版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 [email protected] 举报,一经查实,本站将立刻删除。

相关推荐