微信公众号搜"智元新知"关注
微信扫一扫可直接关注哦!

08 学生课程分数的Spark SQL分析

读学生课程分数文件chapter4-data01.txt,创建DataFrame。

1.生成“表头”

 

 

 2.生成“表中的记录”

 

 

 

 

 

 3.把“表头”和“表中的记录”拼装在一起

用DataFrame的操作或sql语句完成以下数据分析要求,并和用RDD操作的实现进行对比:

  • 每个分数+5分。
  • df_scs.select('name','cource',df_scs['score']+5).show()

  • 总共有多少学生?
  • df_scs.select('name').distinct().count()

  • 总共开设了哪些课程?
  • df_scs.select('cource').distinct().show()
  • 每个学生选修了多少门课?
  • df_scs.groupBy('name').count().show()
  • 每门课程有多少个学生选?
  • df_scs.groupBy('cource').count().show()
  • 每门课程大于95分的学生人数?
  • df_scs.filter(df_scs['score']>95).groupBy('cource').count().show()
  • Tom选修了几门课?每门课多少分?
  • df_scs.filter(df_scs['name']=='Tom').show()
  • Tom的成绩按分数大小排序。
  • df_scs.filter(df_scs['name']=='Tom').sort(df_scs['score'].desc()).show()
  • Tom的平均分。
  • df_scs.filter(df_scs['name']=='Tom').agg({'score':'mean'}).show()
  • 求每门课的平均分,最高分,最低分。
  • 每门课的平均分:
  • df_scs.groupBy("cource").avg('score').show()
  • df_scs.groupBy("cource").agg({'score':'mean'}).show()

     

  • 每门课的最高分:
  •  df_scs.groupBy("cource").max('score').show()

     

    df_scs.groupBy("cource").agg({'score':'max'}).show()

     

  • 每门课的最低分:
  •  df_scs.groupBy("cource").min('score').show()

     

     

     

      df_scs.groupBy("cource").agg({'score':'min'}).show()

  • 求每门课的选修人数及平均分,精确到2位小数。
  •  from pyspark.sql.types import DecimalType
  • dt = df_scs.groupBy('cource').count().join(df_scs.groupBy('cource').agg({'score':'mean'}),'cource').withColumnRenamed('avg(score)','avg_score')

  • dt.withColumn('avg_score',dt.avg_score.cast(DecimalType(5,2))).show()
  • 每门课的不及格人数,通过率
  • df_scs.filter(df_scs.score<60).groupBy(df_scs.cource).count().show()
  • 结果可视化。

版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 [email protected] 举报,一经查实,本站将立刻删除。

相关推荐