微信公众号搜"智元新知"关注
微信扫一扫可直接关注哦!

08 学生课程分数的Spark SQL分析

读学生课程分数文件chapter4-data01.txt,创建DataFrame。

url = "file:///usr/local/spark/mycode/rdd/chapter4-data01.txt"
rdd = spark.sparkContext.textFile(url).map(lambda line:line.split(','))
rdd.take(3)

from pyspark.sql.types import IntegerType,StringType,StructField,StructType
from pyspark.sql import Row

#生成“表头”
fields = [StructField('name',StringType(),True),StructField('course',StringType(),True),StructField('score',IntegerType(),True)]
schema = StructType(fields)

#生成“表中的记录”
data = rdd.map(lambda p:Row(p[0],p[1],int(p[2])))

#把“表头”和“表中的记录”拼接在一起
df_scs = spark.createDataFrame(data,schema)
df_scs.printSchema()
df_scs.show()


用DataFrame的操作或sql语句完成以下数据分析要求,并和用RDD操作的实现进行对比:

每个分数+5分。

df_scs.select('name','course',df_scs.score+5).show()

总共有多少学生?

df_scs.select('name').distinct().count()

总共开设了哪些课程?

df_scs.select('course').distinct().show()

每个学生选修了多少门课?

df_scs.groupBy('name').count().show()

每门课程有多少个学生选?.

df_scs.groupBy('course').count().show()

每门课程大于95分的学生人数?

df_scs.filter(df_scs.score>95).groupBy('course').count().show()

Tom选修了几门课?每门课多少分?

df_scs.filter(df_scs.name=='Tom').show()

Tom的成绩按分数大小排序。

df_scs.filter(df_scs.name=='Tom').orderBy(df_scs.score).show()

Tom的平均分。

df_scs.filter(df_scs.name=='Tom').agg({"score":"mean"}).show()

求每门课的平均分,最高分,最低分。

#求每门课的平均分
df_scs.groupBy('course').avg('score').show()

#求每门课的最高分
df_scs.groupBy('course').max('score').show()

#求每门课的最低分
df_scs.groupBy('course').min('score').show()

求每门课的选修人数及平均分,精确到2位小数。

from pyspark.sql.functions import *
df_scs.select(countdistinct('name').alias('学生人数'),countdistinct('course').alias('课程数'),round(mean('score'),2).alias('所有课的平均分')).show()

每门课的不及格人数,通过率

df_scs.filter(df_scs.score<60).groupBy('course').count().show()

结果可视化。

版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 [email protected] 举报,一经查实,本站将立刻删除。

相关推荐