手机版
热门标签
站点地图
我要投稿
广告合作
联系我们
搜 索
广告位招租
广告位招租
切换导航
首页
编程教程
编程导航
编程百科
编程问答
编程博文
编程实例
硬件设备
网络运营
软件教程
移动数码
办公软件
操作系统
人工智能
栏目导航
▸ 编程语言
▸ 前端开发
▸ 移动开发
▸ 开发工具
▸ 程序设计
▸ 行业应用
▸ CMS系统
▸ 服务器
▸ 数据库
公众号推荐
微信公众号搜
"智元新知"
关注
微信扫一扫可直接关注哦!
子栏目导航
大数据
图像处理
chatgpt
文心一言
DevOps
Kafka
Spark
Dubbo
NLP
力扣
编程之家
Spark
spark standalone 部署
上传 spark-3.1.2-bin-hadoop3.2.tgz到 /export/software/#解压安装cd/export/softwarear-zxfspark-3.1.2-bin-hadoop3.2.tgz-C/export/server#重命名cd/export/servermvspark-3.1.2-bin-hadoop3.2spark-standalone#重新构建软连接rm-rfsparkln-sspark-stan
作者:编程之家 时间:2022-10-13
Spark部署文档黑马程序员资料
SparkLocal环境部署下载地址https://dlcdn.apache.org/spark/spark-3.2.0/spark-3.2.0-bin-hadoop3.2.tgz条件PYTHON推荐3.8JDK1.8AnacondaOnLinux安装本次课程的Python环境需要安装到Linux(虚拟机)和Windows(本机)上参见最下方,附:AnacondaOnLinux安装解压
作者:编程之家 时间:2022-10-13
6. 从ods贴源层到 dwd(数据明细层)的两种处理方式spark-dsl
6.从ods(贴源层)到dwd(数据明细层)的两种处理方式(spark)6.1使用sparkdsl方式处理6.1.1注意事项#开启hive元数据支持,开启之后在spark中可以直接读取hive中的表,但是开启之后就不能再本地云心的了.enableHiveSupport()#这下脚本都是作用在dwd层,所以必须在dwd的用户下执行,
作者:编程之家 时间:2022-10-13
spark sql 概述
目录sparksparksqlDataFrame使用方法spark基于内存的计算引擎,计算速度非常快,但是只涉及数据的计算,没有涉及数据的存储。sparksqlSparksql不仅仅支持sql操作,还提供了例如外部数据源,以及各种优化sparksql不仅提供了sql的api,还提供了DataFrame和Dataset的api**sparksq
作者:编程之家 时间:2022-10-13
spark 启动standalone
cd/export/server/spark sbin/start-master.sh sbin/start-workers.sh sbin/start-history-server.sh监控:启动以后才能访问 http:/ode1:8080/ Master监控服务:相当于YARN中的8088http:/ode1:18080/HistoryServer历史监控服务:相当于MR中的19888 -Master
作者:编程之家 时间:2022-10-13
一文了解 NebulaGraph 上的 Spark 项目
本文首发于NebulaGraphCommunity公众号最近我试着搭建了方便大家一键试玩的NebulaGraph中的Spark相关的项目,今天就把它们整理成文分享给大家。而且,我趟出来了PySpark下的NebulaSparkConnector的使用方式,后边也会一并贡献到文档里。NebulaGraph的三个Spark子
作者:编程之家 时间:2022-10-13
企业级Spark调优解决方案五之JVM调优
一、Spark调优概述---------------------------------------------1.Spark调优分类a.常规性能调优:分配资源、并行度。。。等b.JVM调优(Java虚拟机):JVM相关的参数,通常情况下,如果你的硬件配置、基础的JVM的配置,都ok的话,JVM通常不会造成太严重的性能问题;
作者:编程之家 时间:2022-09-04
spark将数据写入ESElasticSearch终极总结
简介spark接入ES可以使用多种方式,常见类型如下。将Map对象写入ElasticSearch将caseclass类对象写入ElasticSearch将Json的字符串写入ElasticSearch本文主要介绍将caseclass类对象写入ElasticSearch:也就是获取数据然后使用caseclass封装数据,然后在caseclass中选取一
作者:编程之家 时间:2022-09-04
大数据技术,Spark核心技术之运行原理
在大数据领域,只有深挖数据科学领域,走在学术前沿,才能在底层算法和模型方面走在前面,从而占据领先地位。Spark的这种学术基因,使得它从一开始就在大数据领域建立了一定优势。无论是性能,还是方案的统一性,对比传统的Hadoop,优势都非常明显。Spark提供的基于RDD的一体化解决方案,将MapReduce
作者:编程之家 时间:2022-09-04
大数据学习路线指南最全知识点总结
大数据是对海量数据进行存储、计算、统计、分析处理的一系列处理手段,处理的数据量通常是TB级,甚至是PB或EB级的数据,这是传统数据处理手段所无法完成的,其涉及的技术有分布式计算、高并发处理、高可用处理、集群、实时性计算等,汇集了当前IT领域热门流行的IT技术。大数据入门,需要学习以
作者:编程之家 时间:2022-09-04
org.apache.spark.sql.AnalysisException: cannot resolve '`province`' given
Exceptioninthread"main"19/0121:47:32WARNutil.Utils:Truncatedthestringrepresentationofaplansinceitwastoolarge.Thisbehaviorcanbeadjustedbysetting'spark.debug.maxToStringFields'inSparkEnv.conf.org.apache.spark
作者:编程之家 时间:2022-09-04
SparkCore核心知识
一、Spark作业调度方式1、local 测试或实验性质的本地运行模式 local[N] 是用单机的多个线程来模拟Spark分布式计算,通常用来验证开发出来的应用程序逻辑上有没有问题。 其中N代表可以使用N个线程,每个线程拥有一个core。如果不指定N,则默认
作者:编程之家 时间:2022-09-04
SparkSQL——HiveContext的使用
HiveContext的使用HiveContext也是已经过时的不推荐使用。相关配置如果想要用spark访问hive的表需要进行一下的配置 1.拷贝 ${HIVE_HOME}/conf/hive-site.xml到 ${SPARK_HOME}/conf中 2.在pom.xml文件中添加一下依赖示例代码packagecom.sparkimportorg.apache.spar
作者:编程之家 时间:2022-09-04
IDEA远程提交运行HDFS的Spark程序--优化篇2
上次修改spark.yarn.cache.confArchive参数无效。我就换了思路来做。源码中关于创建这部分的代码如下:privatedefcreateConfArchive():File={valhadoopConfFiles=newHashMap[String,File]()//Uploading$SPARK_CONF_DIR/log4j.propertiesfiletothe
作者:编程之家 时间:2022-09-04
大数据如此火爆 如何看待大数据行业发展趋势
如今的大数据不再是一个流行术语,在大数据行业火热的发展下,大数据几乎涉及到所有行业的发展。国家相继出台的一系列政策更是加快了大数据产业的落地,预计未来几年大数据产业将会蓬勃发展。下面一起看看未来大数据行业发展趋势有哪些?未来大数据产业发展的趋势之一:与云计算、人工
作者:编程之家 时间:2022-09-04
SparkSQL——SparkSession的使用
在spark的早期版本中,SparkContext是spark的主要切入点,由于RDD是主要的API,我们通过sparkcontext来创建和操作RDD。对于每个其他的API,我们需要使用不同的context。例如,对于Streming,我们需要使用StreamingContext;对于sql,使用sqlContext;对于hive,使用hiveContext。但是随着D
作者:编程之家 时间:2022-09-04
一篇文章教你使用RDMA技术提升Spark的Shuffle性能
SparkShuffle基础在MapReduce框架中,Shuffle是连接Map和Reduce之间的桥梁,Reduce要读取到Map的输出必须要经过Shuffle这个环节;而Reduce和Map过程通常不在一台节点,这意味着Shuffle阶段通常需要跨网络以及一些磁盘的读写操作,因此Shuffle的性能高低直接影响了整
作者:编程之家 时间:2022-09-04
Spark中的累加器(accumlator)和广播变量(broadcast)
共享变量:累加器(accumlator)和广播变量(broadcast)累加器:用来对信息进行聚合广播变量:用来高效分发较大的对象累加器(accumlator)只有在运行行动操作(比如count)后才能看到正确的计数,因为行动操作前的转化操作(比如map)是惰性的,所以累加器只有在惰性的转化操作被行动操作强制出
作者:编程之家 时间:2022-09-04
大数据认知篇
学习处理大数据其主要就是掌握大数据一系列框架的使用方法,而大数据框架存在很多,其中比较优秀的像hadoop,spark,elasticsearch随着hadoop生态圈的最早建立,目前spark和elastic都有自己强大的生态圈。hadoop目前企业中一般都是用hadoop2.x的版本了,所以就没有必要再去学hadoop1.x版本了
作者:编程之家 时间:2022-09-04
从Storm到Flink:大数据处理的开源系统及编程模型
开源系统及编程模型基于流计算的基本模型,当前已有各式各样的分布式流处理系统被开发出来。本节将对当前开源分布式流处理系统中三个最典型的代表性的系统:ApacheStorm,SparkStreaming,ApacheFlink以及它们的编程模型进行详细介绍。 ApacheStormApacheStorm是由Twitter公司开源的
作者:编程之家 时间:2022-09-04
Windows 10 下单机 Spark 环境搭建
【目的】Windows10裸机搭建Spark环境,使能运行PySparkShell。【原料】Windows10x64jdk-8u162-windows-x64.exepython-3.6.7-amd64.exespark-2.3.2-bin-hadoop2.7.tgz【安装JDK】双击 jdk-8u162-windows-x64.exe安装,后续基本上就是一路“next”。配置环境变量# 可通
作者:编程之家 时间:2022-09-04
大数据学习路线图新鲜出炉:从此小白也能学懂编程
移动互联网的迅速崛起让数据变得更为多样、丰富。它的移动性,它的碎片化,它的私密性和随时性都刚好弥补了用户离开桌面电脑之后的数据,从而与原有的互联网数据一起很好滴勾勒出一个网民一天的生活,日常生活的数据化。现如今大数据已经上升到国家战略层面,企业对于大数据的关注和重视程度
作者:编程之家 时间:2022-09-04
离线和实时大数据开发实战
离线和实时大数据开发实战目录前言第一篇数据大图和数据平台大图第1章数据大图21.1数据流程21.1.1数据产生31.1.2数据采集和传输51.1.3数据存储处理61.1.4数据应用71.2数据技术81.2.1数据采集传输主要技术91.2.2数据处理主要技术101.2.3数据存储
作者:编程之家 时间:2022-09-04
Kafka与Spark的集成
在本章中,我们将讨论如何将ApacheKafka与SparkStreamingAPI集成.关于SparkSparkStreamingAPI支持实时数据流的可扩展,高吞吐量,容错流处理.数据可以从注入Kafka,Flume,Twitter等许多源中提取,并且可以使用复杂的算法来处理.例如地图,缩小,连接和窗口等高级功能.最后,处理的
作者:编程之家 时间:2022-09-04
SparkSQL——SQLContext的使用
SQLContext的使用SQLContext在Spark1.6中使用,在spark2.x中已经标记为过时,不推荐使用。示例代码packagecom.sparkimportorg.apache.spark.{SparkConf,SparkContext}importorg.apache.spark.sql.SQLContext/*SQLContext的使用*/objectSQLContextAPP{defmai
作者:编程之家 时间:2022-09-04
[转] spark-submit 提交任务及参数说明
【From】 https://www.cnblogs.com/weiweifeng/p/8073553.html#undefined spark-submit可以提交任务到spark集群执行,也可以提交到hadoop的yarn集群执行。 1.例子一个最简单的例子,部署sparkstandalone模式后,提交到本地执行。./bin/spark-submit\--masters
作者:编程之家 时间:2022-09-04
Spark Transformation 算子
Java版packagecom.huanfion.Spark;importcom.sun.tools.internal.ws.processor.model.java.JavaParameter;importorg.apache.spark.SparkConf;importorg.apache.spark.api.java.JavaPairRDD;importorg.apache.spark.api.java.JavaRDD;importorg.apache.spark.
作者:编程之家 时间:2022-09-04
Spark Streaming 数据清理机制
大家刚开始用SparkStreaming时,心里肯定嘀咕,对于一个7*24小时运行的数据,cache住的RDD,broadcast系统会帮忙自己清理掉么?还是说必须自己做清理?如果系统帮忙清理的话,机制是啥?前言为啥要了解机制呢?这就好比JVM的垃圾回收,虽然JVM的垃圾回收已经巨牛了,但是依然会遇到很多和它相关
作者:编程之家 时间:2022-09-04
解决spark streaming集成kafka时只能读topic的其中一个分区数据的问题
1.问题描述我创建了一个名称为myTest的topic,该topic有三个分区,在我的应用中sparkstreaming以direct方式连接kakfa,但是发现只能消费一个分区的数据,多次更换comsumergroup依然如此。2环境配置kafka集群环境,主机IP操作系统kakfanode1192.168.1.101Centos6.5ka
作者:编程之家 时间:2022-09-04
Spark Streaming高级特性在NDCG计算实践
从storm到sparkstreaming,再到flink,流式计算得到长足发展,依托于spark平台的sparkstreaming走出了一条自己的路,其借鉴了spark批处理架构,通过批处理方式实现了实时处理框架。为进一步了解sparkstreaming的相关内容,飞马网于3月20日晚邀请到历任百度大数据的高级工程师—王富平,
作者:编程之家 时间:2022-09-04
上一页
8
9
10
11
12
13
14
15
下一页
小编推荐
热门标签
更多
python
JavaScript
java
HTML
reactjs
C#
Android
CSS
Node.js
sql
r
python-3.x
MysqL
jQuery
c++
pandas
Flutter
angular
IOS
django
linux
swift
typescript
路由器
JSON
路由器设置
无线路由器
h3c
华三
华三路由器设置
华三路由器
电脑软件教程
arrays
docker
软件图文教程
C
vue.js
laravel
spring-boot
react-native