一、概述
Parquet是面向分析型业务的列式存储格式,由Twitter和Cloudera合作开发,2015年5月从Apache的孵化器里毕业成为Apache顶级项目,最新的版本是1.8.0。 列式存储和行式存储相比有哪些优势呢? 1、可以跳过不符合条件的数据,只读取需要的数据,降低IO数据量。 2、压缩编码可以降低磁盘存储空间。由于同一列的数据类型是一样的,可以使用更高效的压缩编码(例如Run Length Encoding和Delta Encoding)进一步节约存储空间。 3、只读取需要的列,支持向量运算,能够获取更好的扫描性能。 这里讲解Parquet数据源的第一个知识点,使用编程的方式加载Parquet文件中的数据。
二、代码
1、java实现
package cn.spark.study.sql; import java.util.List; import org.apache.spark.SparkConf; import org.apache.spark.api.java.JavaSparkContext; import org.apache.spark.api.java.function.Function; import org.apache.spark.sql.DataFrame; import org.apache.spark.sql.Row; import org.apache.spark.sql.sqlContext; /** * Parquet数据源之使用编程方式加载数据 * @author Administrator * */ public class ParquetLoadData { public static void main(String[] args) { SparkConf conf = new SparkConf() .setAppName("ParquetLoadData"); JavaSparkContext sc = new JavaSparkContext(conf); sqlContext sqlContext = new sqlContext(sc); // 读取Parquet文件中的数据,创建一个DataFrame DataFrame usersDF = sqlContext.read().parquet( "hdfs://spark1:9000/spark-study/users.parquet"); // 将DataFrame注册为临时表,然后使用SQL查询需要的数据 usersDF.registerTempTable("users"); DataFrame userNamesDF = sqlContext.sql("select name from users"); // 对查询出来的DataFrame进行transformation操作,处理数据,然后打印出来 List<String> userNames = userNamesDF.javaRDD().map(new Function<Row, String>() { private static final long serialVersionUID = 1L; @Override public String call(Row row) throws Exception { return "Name: " + row.getString(0); } }).collect(); for(String userName : userNames) { System.out.println(userName); } } } ##打包、上传 ##运行脚本 cat parquet_load_data.sh /usr/local/spark-1.5.1-bin-hadoop2.4/bin/spark-submit \ --class cn.spark.study.sql.ParquetLoadData \ --num-executors 3 \ --driver-memory 100m \ --executor-memory 100m \ --executor-cores 3 \ --files /usr/local/hive/conf/hive-site.xml \ --driver-class-path /usr/local/hive/lib/mysql-connector-java-5.1.17.jar \ /usr/local/spark-study/java/sql/saprk-study-java-0.0.1-SNAPSHOT-jar-with-dependencies.jar \
2、scala实现
package cn.spark.study.sql import org.apache.spark.SparkConf import org.apache.spark.SparkContext import org.apache.spark.sql.sqlContext object ParquetLoadData { def main(args: Array[String]) { val conf = new SparkConf().setAppName("ParquetLoadData") val sc = new SparkContext(conf) val sqlContext = new sqlContext(sc) // 读取Parquet文件中的数据,创建一个DataFrame val usersDF = sqlContext.read.parquet("hdfs://spark1:9000/spark-study/users.parquet") // 将DataFrame注册为临时表,然后使用SQL查询需要的数据 usersDF.registerTempTable("users") val userNameDF = sqlContext.sql("select * from users") // 对查询出来的DataFrame进行transformation操作,处理数据,然后打印出来 userNameDF.rdd.map( row => "Name: " + row(0)).collect() .foreach( userName => println(userName)) } } ##Export-->打jar包-->上传 ##运行脚本 [root@spark1 sql]# cat parquet_load_data.sh /usr/local/spark-1.5.1-bin-hadoop2.4/bin/spark-submit \ --class cn.spark.study.sql.ParquetLoadData \ --num-executors 3 \ --driver-memory 100m \ --executor-memory 100m \ --executor-cores 3 \ --files /usr/local/hive/conf/hive-site.xml \ --driver-class-path /usr/local/hive/lib/mysql-connector-java-5.1.17.jar \ /usr/local/spark-study/scala/sql/spark-study-scala.jar \
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 [email protected] 举报,一经查实,本站将立刻删除。