1.pandas df 与 spark df的相互转换
df_s=spark.createDataFrame(df_p)
df_p=df_s.toPandas()
@H_404_9@
@H_404_9@
2. Spark与Pandas中DataFrame对比
http://www.lining0806.com/spark%E4%B8%8Epandas%E4%B8%ADdataframe%E5%AF%B9%E6%AF%94/
3.1 利用反射机制推断RDD模式
- sc创建RDD
- 转换成Row元素,列名=值
- spark.createDataFrame生成df
- df.show(), df.printSchema()
@H_404_9@
3.2 使用编程方式定义RDD模式
使用学生课程分数文件chapter4-data01.txt,创建DataFrame,并使用用DataFrame的操作完成实验三的数据分析要求。
(1)生成“表头”
fields = [StructField(field_name, StringType(), True) ,...]
schema = StructType(fields)
@H_404_9@
(2)生成“表中的记录”
创建RDD
转换成Row元素,列名=值
@H_404_9@
(3)把“表头”和“表中的记录”拼装在一起
spark.createDataFrame(RDD, schema)
@H_404_9@
4. DataFrame保存为文件
df.write.json(dir)
@H_404_9@
@H_404_9@
@H_404_9@
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 [email protected] 举报,一经查实,本站将立刻删除。