手机版
热门标签
站点地图
我要投稿
广告合作
联系我们
搜 索
广告位招租
广告位招租
切换导航
首页
编程教程
编程导航
编程百科
编程问答
编程博文
编程实例
硬件设备
网络运营
软件教程
移动数码
办公软件
操作系统
人工智能
栏目导航
▸ 编程语言
▸ 前端开发
▸ 移动开发
▸ 开发工具
▸ 程序设计
▸ 行业应用
▸ CMS系统
▸ 服务器
▸ 数据库
公众号推荐
微信公众号搜
"智元新知"
关注
微信扫一扫可直接关注哦!
子栏目导航
大数据
图像处理
chatgpt
文心一言
DevOps
Kafka
Spark
Dubbo
NLP
力扣
编程之家
Spark
Spark[01]Spark集群安装以及配置
Spark[01]Spark集群安装以及配置目录Spark[01]Spark集群安装以及配置准备环境Hadoop2.0虚拟机①、②、③虚拟机①、②、③资源列表一、spark集群配置解压spark虚拟机①修改配置slaves虚拟机①spark-env.sh虚拟机①profile虚拟机①发送相关文件到②、③虚拟机①
作者:编程之家 时间:2022-09-04
Dateset对象的创建
Dateset对象的创建环境准备:打开Hadoop01,Hadoop02,Hadoop03开启Hadoop环境start-dfs.shstart-yarn.shspark的开启cd/export/servers/spark/bin/spark-shell--masterlocal[2]一、Dateset对象的创建1.从txt文件创建DataSetvalpersonDs=spark.createDataset
作者:编程之家 时间:2022-09-04
所以说读者们才是最优秀的 | 某读者喜提offer后的分享
这是小编的一个读者喜提offer后在群里做的分享,文中隐藏了读者的个人隐私信息,小编这里把他的面经分享出来供大家学习。群友们看到后都纷纷表示【我酸了,现在我就是个柠檬精系列】。关于如何学习/准备面试的总结首先说一说本人的情况本人普通本科,非计算机专业(之前一直对这个耿耿
作者:编程之家 时间:2022-09-04
Spark核心编程系列(六)——共享变量
目录共享变量累加器(分布式只写变量)广播变量(分布式只读变量)广播变量的一些原理参考共享变量 Spark提供的两种共享变量(广播变理和累加器)的一种。为什么要使用共享变量呢?通常情况下,当向Spark操作(如map,reduce)传递一个函数时,它会在一个远程集群节点上执行,它会使
作者:编程之家 时间:2022-09-04
大数据技术——RDD编程初级实践
RDD编程初级实践1、需求描述2、环境介绍3、数据来源描述4、数据上传及上传结果查看5、数据处理过程描述1.pyspark交互式编程2.编写独立应用程序实现数据去重3.编写独立应用程序实现求平均值问题6、经验总结1、需求描述在当今社会,随着大数据的快速发展情况下,
作者:编程之家 时间:2022-09-04
Spark SQL
简介 SparkSQL是Spark用来处理结构化数据的一个模块,它提供了一个编程抽象叫做DataFrame并且作为分布式SQL查询引擎的作用。http://spark.apache.org/sql/为什么要学习SparkSQL?我们已经学习了Hive,它是将HiveSQL转换成MapReduce然后提交到集群上执行,大大简化了编写MapReduce
作者:编程之家 时间:2022-09-04
Spark3大数据实时处理-Streaming+Structured Streaming 实战
Spark3大数据实时处理-Streaming+StructuredStreaming实战 超清原画完整无密网盘下载点击下载:Spark3大数据实时处理-Streaming+StructuredStreaming实战随着云计算和大数据的快速发展,在企业中大数据实时处理场景的需求越来越多。本课针对企业级实时处理方案进行全方
作者:编程之家 时间:2022-09-04
shell脚本调用spark-sql
#!/bin/sh#set-x##########################author:robin#version:v3.0##########################$1:starttimeforbusinesscircle#$2:endtimeforbusinesscircle#$3:starttimeofslowlychangingdimensionforSForginazation#$4:sparkp
作者:编程之家 时间:2022-09-04
分布式系统开发实战:分布式计算,分布式计算常用技术
分布式计算分布式计算就是将一个大的计算任务分解成多个小任务,然后分配给多台计算机分别计算,再上传运算结果后统一合并得出数据结论。本章详细介绍分布式计算。分布式计算概述在过去的20年里,互联网产生了大量的数据,比如,爬虫文档、Web请求日志等,也包括了计算各种类型的派生数
作者:编程之家 时间:2022-09-04
大数据Spark入门案例5–统计广告点击数量排行Top3(scala版本)
大数据Spark入门案例5–统计每广告点击数量排行Top3(scala版本)1数据准备链接:https://pan.baidu.com/s/1afzmL-hNsAJl1_gx_dH2ag提取码:yybiagent.log:时间戳,省份,城市,用户,广告,中间字段使用空格分隔。2需求分析统计出每一个省份每个广告被点击数量排行的Top3首先将获
作者:编程之家 时间:2022-09-04
Spark 线程问题、日志文件过大
1.Spark线程问题实时服务器部署着多个Spark和Flink实时任务,Spark任务运行一段时间后发现几个任务异常结束,将失败的任务重启。运行几分钟,发现本来运行正常的任务也异常结束,重启多次依旧如此。开始怀疑是集群资源不足造成了,查看CM中Yarn的资源池发现资源充足,接着查看运行
作者:编程之家 时间:2022-09-04
6.3.2 Spark GraphX【存储模式、核心数据结构、计算图基本操作、连通图算法、寻找相同用户,合并】
SparkGraphX文章目录SparkGraphX第1节SparkGraphX概述第2节SparkGrap2.1GraphX架构2.2存储模式2.3核心数据结构1、Graph2、vertices3、edges4、triplets第3节SparkGraphX计算案例一:图的基本操作案例二:连通图算法案例三:寻找相同的用户,合并信息第1节S
作者:编程之家 时间:2022-09-04
大数据应用技术实验
需求描述在这个全球数据大爆炸的时代,当今最火热的IT词汇,它有几个特点:分别是海量数据、急速、种类繁多和数据真实,围绕大数据而衍生出数据挖掘、数据安全、数据分析、数据存储等,极具商业价值,为诸多行业所用。为此很多大型公司开始开发各种能够快速挖掘、编辑、查找对各种数据快速
作者:编程之家 时间:2022-09-04
Spark的shuffle流程
1、shuffle流程演变Spark0.8及以前HashBasedShuffleSpark0.8.1为HashBasedShuffle引入FileConsolidation机制Spark1.1引入SortBasedShuffle,但默认仍为HashBasedShuffleSpark1.2默认的Shuffle方式改为SortBasedShuffleSpark2.0HashBasedShuffle退出历
作者:编程之家 时间:2022-09-04
hadoop+zookeeper+yarn+spark高可用主从备份启动步骤
环境搭建参考于 https://www.cnblogs.com/zimo-jing/p/8892697.html1、所有节点依次启动zookeeper#zkServer.shstart>>7915QuorumPeerMain7915QuorumPeerMain 2、所有节点依次启动journalnode保证数据同步(此步可省略,3将启动这一步) #hadoop-daemon.
作者:编程之家 时间:2022-09-04
Spark算子 - groupBy
释义根据RDD中的某个属性进行分组,分组后形式为(k,[(k,v1),(k,v2),...]),即groupBy后组内元素会保留key值方法签名如下:defgroupBy[K](f:T=>K)(implicitkt:ClassTag[K]):RDD[(K,Iterable[T])]=withScope{...}f:分组操作。输入类型为T,操作过程为K,最后RDD
作者:编程之家 时间:2022-09-04
Spark算子 - groupByKey
释义根据RDD中的某个属性进行分组,分组后形式为(k,[v1,v2,...])方法签名如下:defgroupByKey():RDD[(K,Iterable[V])]=self.withScope{...}案例查看每个科目有哪些学生选择objectTestGroupByKey{defmain(args:Array[String]):Unit={valconf:
作者:编程之家 时间:2022-09-04
论文阅读记录[ Benchmarking Streaming Computation Engines: Storm, Flink and Spark Streaming ]
简介:雅虎发布的一份各种流处理引擎的基准测试,包括Storm,Flink,SparkStreaming动机:贴近生产环境,使用Kafka和Redis进行数据获取和存储,设计并实现了一个真实的流处理基准。论文中的一些测试结果和结论:原文:Theresultsdemonstratethatatfairlyhighthroughput,Storm
作者:编程之家 时间:2022-09-04
所以说读者们才是最优秀的 | 某读者喜提offer后的分享
这是小编的一个读者喜提offer后在群里做的分享,文中隐藏了读者的个人隐私信息,小编这里把他的面经分享出来供大家学习。群友们看到后都纷纷表示【我酸了,现在我就是个柠檬精系列】。关于如何学习/准备面试的总结首先说一说本人的情况本人普通本科,非计算机专业(之前一直对这个耿耿
作者:编程之家 时间:2022-09-04
spark-sql跑任务报错org.apache.spark.shuffle.MetadataFetchFailedException: Missing an output location f...
spark-SQL跑任务报错错误信息如下19/10/1718:06:50WARNYarnSchedulerBackend$YarnSchedulerEndpoint:Containermarkedasfailed:container_e122_1568025476000_38356_01_000022onhost:node02.Exitstatus:137.Diagnostics:Containerkilledonrequest.Exit
作者:编程之家 时间:2022-09-04
Spark SQL中将 DataFrame 转为 json 格式
今天主要介绍一下如何将Sparkdataframe的数据转成json数据。用到的是scala提供的json处理的api。用过SparkSQL应该知道,Sparkdataframe本身有提供一个api可以供我们将数据转成一个JsonArray,我们可以在spark-shell里头举个栗子来看一下。defmain(args:Array
作者:编程之家 时间:2022-09-04
spark 将dataframe数据写入Hive分区表
1、将DataFrame数据写入到Hive表中从DataFrame类中可以看到与hive表有关的写入Api有以下几个:registerTempTable(tableName:String):Unit,insertInto(tableName:String):UnitinsertInto(tableName:String,overwrite:Boolean):UnitsaveAsTable(tableName:String,sourc
作者:编程之家 时间:2022-09-04
Spark的Dataset操作(五)-多表操作 join
Spark的Dataset操作(五)-多表操作join先看两个源数据表的定义:scala>valdf1=spark.createDataset(Seq(("aaa",1,2),("bbb",3,4),("ccc",3,5),("bbb",4,6))).toDF("key1","key2","
作者:编程之家 时间:2022-09-04
spark、hadoop集群安装实录
规划查看图片请看公众号三节点[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-IEWRJIU3-1624288146884)(C:\Users\wqkant\AppData\Roaming\Typora\typora-user-images\1624100996991.png)]vagrant安装版本vagrant:https://www.vagrantup.co
作者:编程之家 时间:2022-09-04
『转』Spark作业执行之JVM参数设置解析
Spark作业提交后,在driver上运行init()方法时报错:java.lang.OutOfMemoryError:GCoverheadlimitexceeded报错原因是代码中使用了HashMap而且数据量很大,所以导致GCoverhead,调整JVM的启动参数-Xms和-Xmx,这个参数配置Java堆的大小,因为代码运行时hashmap对象存放在堆中,故需调大改
作者:编程之家 时间:2022-09-04
大数据平台的使用(Hadoop 生态圈、CDH)
目录一、shell自行搭建Hadoop集群(2节点以上)1.1系统准备1.2系统基础配置1.3组件安装与配置1.3.1Hadoop1.3.2Hive1.3.3Hbase1.3.4Spark二、ClouderaCDH安装Hadoop平台2.1Clouderaquickstart安装2.2CDH中HQL数据操作三、集群中的HQL数据操作3.1创建表3.2创建分区3.3H
作者:编程之家 时间:2022-09-04
spark.driver.maxResultSize参数详解
参数含义及默认值:LimitoftotalsizeofserializedresultsofallpartitionsforeachSparkaction(e.g.collect).Shouldbeatleast1M,or0forunlimited.Jobswillbeabortedifthetotalsizeisabovethislimit.Havingahighlimitmaycauseout-of-mem
作者:编程之家 时间:2022-09-04
Spark任务报错Total size of serialized results of 19 tasks (1069.2 MB) is bigger than spark.driver.max...
spark任务提交后信息报错:Totalsizeofserializedresultsof19tasks(1069.2MB)isbiggerthanspark.driver.maxResultSize(1024M)解决办法:在代码中加设置或者在提交命令的时候加设置方法一方法二提交命令的时候加上--confspark.driver.maxResultSize=
作者:编程之家 时间:2022-09-04
1. idea spark scala 语言支持设置
Spark版本为3.0.0,默认采用的Scala编译版本为2.121.创建名为spark-project的项目 2.将src删除,把spark-project当成一个父项目,并在该项目下创建一个moule,spark-core(子项目) 3.添加scala插件 4.给该项目添加scala语言编程支持
作者:编程之家 时间:2022-09-04
spark_user_behavior_demo
备注:此代码没有任何实际作用,仅作为初学者学习用packagecom.c.user_behaviorimportorg.apache.spark.rdd.RDDimportorg.apache.spark.{SparkConf,SparkContext}/***用户行为数据清洗*1、验证数据格式是否正确,切分后长度必须为17*2、手机号脱敏,格式为1
作者:编程之家 时间:2022-09-04
上一页
70
71
72
73
74
75
76
77
下一页
小编推荐
热门标签
更多
python
JavaScript
java
HTML
reactjs
C#
Android
CSS
Node.js
sql
r
python-3.x
MysqL
jQuery
c++
pandas
Flutter
angular
IOS
django
linux
swift
typescript
路由器
JSON
路由器设置
无线路由器
h3c
华三
华三路由器设置
华三路由器
电脑软件教程
arrays
docker
软件图文教程
C
vue.js
laravel
spring-boot
react-native