微信公众号搜"智元新知"关注
微信扫一扫可直接关注哦!

大数据处理期末复习

目录

1. 分析题

(1)常见大数据计算模式及其解决的主要问题。

深入了解大数据计算模式

(2)spark streaming的运行原理。

简介:


运行原理:
1>将输入数据按照时间片(batch size)分成一段一段的数据,得到批数据(batch data),每一段数据都转换成Spark中的RDD。然后将spark streaming中对DStream的转换(Transformation)操作变为针对Spark中的RDD的转换(Transformation)操作。
2>将RDD经过操作变成中间结果保存在内存中。

(3)spark能不能取代Hadoop,理由是什么。

不能。
理由:
(省略:根据现有的发展,目前spark还不能取代Hadoop。spark只是分布式计算平台,而Hadoop已经是分布式计算、存储、管理的生态系统。)
Hadoop包含三个组件yarn,hdfs,MapReduce,分别对应解决三个方面的问题,资源调度(yarn),分布式存储(hdfs),分布式计算(mapreudce),而spark只解决了分布式计算方面的问题。跟MapReduce需要频繁写磁盘不同,spark重复利用内存,大大提高了计算效率,在分布式计算方面spark大有取代MapReduce之势,但spark本身不提供分布式数据的存储,在资源调度和分布式存储方面spark还无法撼动Hadoop,所以spark不能取代Hadoop。

(4)spark中的宽依赖和窄依赖分别是什么,它们的区别是什么。

Spark中宽依赖和窄依赖的区别
这篇博客讲得很清晰!!深入解读 Spark 宽依赖和窄依赖
左边是窄依赖,右边是宽依赖。

(5)划分stage的方法,在图中划分stage。

(6)函数式编程的特点,其与命令式编程的区别。

函数式编程初探


函数式编程强调没有"副作用",意味着函数要保持独立,所有功能就是返回一个新的值,没有其他行为,尤其是不得修改外部变量的值。

2. 程序填空

(1)创建RDD的方法



重点:从外部存储创建RDD

(2)RDD的转换与操作





版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 [email protected] 举报,一经查实,本站将立刻删除。

相关推荐