2)向资源管理器申请本次Spark运行需要的executor资源,并启动分布在各个节点上的executor
3)sparkContext进行任务拆解,并生达成任务集合(taskSet)并将任务集合交给任务调度器(Task Scheduler)
4)executor向任务调度器申请任务,任务调度器将任务分配给Executor并sparkContext将对应的应用程序分给executor
5)task在各个Executor上执行完成,并释放所有资源
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 [email protected] 举报,一经查实,本站将立刻删除。