微信公众号搜"智元新知"关注
微信扫一扫可直接关注哦!

06 Spark SQL 及其DataFrame的基本操作

1.Spark sql出现的 原因是什么?

2.用spark.read 创建DataFrame

3.观察从不同类型文件创建DataFrame有什么异同?

4.观察Spark的DataFrame与Python pandas的DataFrame有什么异同?

 

Spark sql DataFrame的基本操作

创建:

file='file:///usr/local/spark/examples/src/main/resources/people.txt'
data = spark.read.text(file)
file='file:///usr/local/spark/examples/src/main/resources/people.json'
datas = spark.read.json(file)

打印数据

data.show()
datas.show()

 

  

 

 

 

打印概要

data.printSchema()
datas.printSchema()

  

 

 

 

查询总行数

data.count()
datas.count()
data.head(3)
datas.head(3)

 

 

   

 

 

输出全部行

data.collect()
datas.collect()

  

 

 

查询概况

data.describe().show()

  

 

 

取列

datas['name']
datas.select()
datas.select(datas['name'],datas['age']+1).show()
datas.filter(datas['age']>20).show()
datas.groupBy('age').count().show()
datas.sort(datas['age'].desc()).show()

  

 

   

 

版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 [email protected] 举报,一经查实,本站将立刻删除。

相关推荐