手机版
热门标签
站点地图
我要投稿
广告合作
联系我们
搜 索
广告位招租
广告位招租
切换导航
首页
编程教程
编程导航
编程百科
编程问答
编程博文
编程实例
硬件设备
网络运营
软件教程
移动数码
办公软件
操作系统
人工智能
栏目导航
▸ 编程语言
▸ 前端开发
▸ 移动开发
▸ 开发工具
▸ 程序设计
▸ 行业应用
▸ CMS系统
▸ 服务器
▸ 数据库
公众号推荐
微信公众号搜
"智元新知"
关注
微信扫一扫可直接关注哦!
子栏目导航
大数据
图像处理
chatgpt
文心一言
DevOps
Kafka
Spark
Dubbo
NLP
力扣
编程之家
Spark
结合Spark讲一下Flink的runtime
浪院长 浪尖聊大数据 Flink运行时主要角色有两个:JobManager和TaskManager,无论是standalone集群,onyarn都是要启动这两个角色。有点类似于MRv1的架构了,JobManager主要是负责接受客户端的job,调度job,协调checkpoint等。TaskManager执行具体的Task。TaskManager为了对资源进行隔离
作者:编程之家 时间:2022-09-04
Spark随机森林算法交叉验证、管道模型pipeline、模型评估代码实例
packagecn.itcast.tags.ml.classificationimportorg.apache.spark.ml.Pipelineimportorg.apache.spark.ml.classification.RandomForestClassifierimportorg.apache.spark.ml.evaluation.MulticlassClassificationEvaluatorimportorg.apache.spark.ml.feature.{Str
作者:编程之家 时间:2022-09-04
大数据学习路线及全套视频教程
微信群里有人问我大数据学习线路是怎样的?需要学习哪些知识以及工作后工作内容有哪些?我这里通过这篇文章给大家分享一下大数据相关领域的学习线路和知识掌握情况,希望能够帮助到大家!大数据不是某个专业或一门编程语言,实际上它是一系列技术的组合运用。有人通过下方的等式给出了大数
作者:编程之家 时间:2022-09-04
Apache Spark:来自Facebook的60 TB +生产用例
ApacheSpark:来自Facebook的60TB+生产用例SitalKedia浪尖聊大数据本文主要讲Facebook扩展spark替换hive的过程中积累的经验和教训。浪尖整理翻译https://databricks.com/blog/2016/08/31/apache-spark-scale-a-60-tb-production-use-case.html。使用案例:实体排名的特
作者:编程之家 时间:2022-09-04
Spark——Spark/Hive SQL计算获取连续登陆N天及以上的用户
文章目录问题实现方式1.实现SQL2.实现步骤问题如何通过SQL获取每个月连续登陆超过5天的用户?例如,某个用户3月的登录数据如下(一个用户在一天之内可能会登录多次):user_idlogin_time00012021-03-0109:20:3600012021-03-0113:45:3600012021-03-0210:20:3600012021-0
作者:编程之家 时间:2022-09-04
浪院长 | spark streaming的使用心得
浪院长|sparkstreaming的使用心得浪院长浪尖聊大数据今天,主要想聊聊sparkstreaming的使用心得。1,基本使用主要是转换算子,action,和状态算子,这些其实,就按照api手册或者源码里接口介绍结合业务来编码。其实,想用好sparkstreaming掌握sparkcore,sparkrpc,spark任务调度,spark
作者:编程之家 时间:2022-09-04
【Spark】根据经纬度算出对应的城市
思路:造一个存有全国每个城市边界经纬度的信息表,把经纬度点使用算法公式按照一定的逻辑挨个循环去匹配。处理过程中的城市经纬度Map类似于如下:如果要全国的可以访问如下链接下载相对应的csvhttps://download.csdn.net/download/Aaron_ch/16165798全部实现逻辑代码如下:impor
作者:编程之家 时间:2022-09-04
Spark2.4.0屏障调度器
Spark2.4.0屏障调度器浪尖浪尖聊大数据前几天,浪尖发了一篇文章,讲了Spark2.4发布更新情况:Spark2.4.0发布了!其中,就有一项说到Spark为了支持深度学习而引入的屏障调度器。本文就详细讲讲。基于消息传递结构的计算模型和Spark计算模型是有很大区别。在Spark内部,每个Stage的某
作者:编程之家 时间:2022-09-04
Spark批处理读写Phoenix
关于Spark批处理读写Phoenix,我找到两种方法,整理成笔记,用作备忘。方法一Phoenix官方提供了Spark插件,可以激活Spark和Phoenix的交互。地址:http://phoenix.apache.org/phoenix_spark.html如果使用CDH,Cloudera也提供了相应的工具,来实现Spark和Phoenix的交互。地址:https://do
作者:编程之家 时间:2022-09-04
windows10上配置pyspark工作环境
根据这篇博客搭建,https://blog.csdn.net/weixin_38556445/article/details/78182264自己碰到一个问题笔记本名称有个_导致下面问题org.apache.spark.SparkException:InvalidSparkURL:spark://HeartbeatReceive 这篇博客说只要把重改一下电脑名称下划线"_"https://
作者:编程之家 时间:2022-09-04
根本:详解receiver based Dstream
根本:详解receiverbasedDstream深圳浪尖浪尖聊大数据使用注意事项receiver会像正常task一样,由driver调度到executor,并占用一个cpu,与正常task不同,receiver是常驻线程receiver个数KafkaUtils.createStream调用次数决定,调用一次产生一个receiveraltopicMap=Map("pag
作者:编程之家 时间:2022-09-04
kuduJavaApi操作和Spark操作Kudu代码总结
*****首先导入kudujavamaven依赖*****<!--指定仓库位置,依次为aliyun、cloudera和jboss仓库--><repositories><repository><id>aliyun</id><url>http://maven.aliyun.comexus/content/groups/public/</url><epository><re
作者:编程之家 时间:2022-09-04
spark按照key分区:partitionBy
说明RDD中的元素按照key指定的分区规则进行分区。RDD中的元素必须是键值对类型。如果原有的partitionRDD和现有的partitionRDD一致的话就不进行分区,否则会发生shuffle。函数签名代码示例(默认分区器) valconf:SparkConf=newSparkConf().setAppName(this.getClass.get
作者:编程之家 时间:2022-09-04
不可不知的spark shuffle
不可不知的sparkshuffle浪尖浪尖聊大数据shuffle概览一个spark的RDD有一组固定的分区组成,每个分区有一系列的记录组成。对于由窄依赖变换(例如map和filter)返回的RDD,会延续父RDD的分区信息,以pipeline的形式计算。每个对象仅依赖于父RDD中的单个对象。诸如coalesce之类的操作
作者:编程之家 时间:2022-09-04
Spark与Python结合:PySpark初学者指南
ApacheSpark是目前处理和使用大数据的最广泛使用的框架之一,Python是数据分析,机器学习等最广泛使用的编程语言之一。那么,为什么不一起使用它们呢?这就是Spark与python也被称为PySpark的原因。ApacheSpark开发人员每年的平均年薪为110,000美元。毫无疑问,Spark在这个行业中已经被广泛
作者:编程之家 时间:2022-09-04
spark-submit 提交任务,报包找不到异常Exception in thread “main“ java.lang.NoClassDefFoundError: com/alibaba
解决问题spark-submit提交任务,报包找不到异常。Exceptioninthread“main”java.lang.NoClassDefFoundError:com/alibaba/fastjson/TypeReference解决思路集群环境中没有,集群的worker节点找不到这个包解决方法1、提交命令使用--jars参数带上包官方描述:applicat
作者:编程之家 时间:2022-09-04
Spark2.4.0屏障调度器
Spark2.4.0屏障调度器浪尖浪尖聊大数据前几天,浪尖发了一篇文章,讲了Spark2.4发布更新情况:Spark2.4.0发布了!其中,就有一项说到Spark为了支持深度学习而引入的屏障调度器。本文就详细讲讲。基于消息传递结构的计算模型和Spark计算模型是有很大区别。在Spark内部,每个Stage的某
作者:编程之家 时间:2022-09-04
Redis踩坑系列二Spark批量Load大量数据到Redis,主从同步问题
需求每天定时批量刷新大量数据进RedisRedis集群是哨兵模式主从同步时间不做要求现象Spark批量load数据到redis,主节点没问题,大概10分钟可以写入完成网络IO负载较大,从节点报警isstop,主节点报主从同步异常从节点重启后,从磁盘load数据入内存,十几分钟时间后redis集群恢复正常
作者:编程之家 时间:2022-09-04
Spark RDD编程
1.准备文本文件从文件创建RDDlines=sc.textFile()筛选出含某个单词的行lines.filter()lambda参数:条件表达式 2.生成单词的列表从列表创建RDDwords=sc.parallelize()筛选出长度大于2的单词words.filter() 3. 筛选出的单词RDD,映射为(单词,1)键值对。wor
作者:编程之家 时间:2022-09-04
7.分布式计算平台Spark:Streaming
分布式计算平台Spark:Streaming一、重点离线案例工作中开发代码流程或者方式SparkCore+SparkSQL:熟悉代码开发DSL:when(条件,成立的返回值).otherwise(不成立的返回值)SQL:with别名as(SQL)select*from别名工具类补充:配置文件解析、IP解析工具类流式计
作者:编程之家 时间:2022-09-04
大数据的语言,工具与框架发展
为了解大数据的当前和未来状态,我们采访了来自28个组织的31位IT技术主管。我们问他们,“你在数据提取,分析和报告中使用的最流行的语言,工具和框架是什么?”以下的文章是他们告诉我们的记录,经过总结如下。Python,Spark,Kafka随着大数据和对人工智能AL/机器学习ML的推动,Scala和Python语
作者:编程之家 时间:2022-09-04
来自 Facebook 的 Spark 大作业调优经验
来自Facebook的Spark大作业调优经验过往记忆大数据过往记忆大数据FacebookSpark的使用情况在介绍下面文章之前我们来看看Facebook的Spark使用情况:如果想及时了解Spark、Hadoop或者HBase相关的文章,欢迎关注微信公众号:iteblog_hadoop•Spark是Facebook内部最大的
作者:编程之家 时间:2022-09-04
60TB 数据量的作业从 Hive 迁移到 Spark 在 Facebook 的实践
60TB数据量的作业从Hive迁移到Spark在Facebook的实践过往记忆大数据过往记忆大数据Facebook经常使用分析来进行数据驱动的决策。在过去的几年里,用户和产品都得到了增长,使得我们分析引擎中单个查询的数据量达到了数十TB。我们的一些批处理分析都是基于Hive平台(Apache
作者:编程之家 时间:2022-09-04
Spark 详解
Spark详解参考书籍Scala参考书籍《Spark编程基础》(Scala版)《Spark快速大数据分析》《Spark高级数据分析》Scala变量:val变量名(:数据类型)=初始值var变量名(:数据类型)=初始值val声明的变量,在声明时必须被初始化,并且初始化后就不能再赋新的值;var
作者:编程之家 时间:2022-09-04
Spark RDD编程
1.准备文本文件从文件创建RDDlines=sc.textFile()筛选出含某个单词的行lines.filter()lambda参数:条件表达式 2.生成单词的列表从列表创建RDDwords=sc.parallelize()筛选出长度大于2的单词words.filter() 3. 筛选出的单词RDD,映射为(单词,1)键值对。words
作者:编程之家 时间:2022-09-04
Spark优化和故障处理
文章目录1Spark性能优化1.1直接方式1.2常规性能调优1.2.1最优资源配置1.2.2RDD优化1.2.3并行度的调节1.2.4广播大变量1.2.5Kryo序列化1.2.6调节本地化等待时长1.3算子调优1.3.1mappartitions1.3.2foreachpartition优化数据库操作1.3.3filter与coalesce的配
作者:编程之家 时间:2022-09-04
02 Spark RDD编程
1.准备文本文件从文件创建RDDlines=sc.textFile()筛选出含某个单词的行lines.filter()lambda参数:条件表达式lines=sc.textFile("file:///usr/local/spark/mycodedd/word.txt")linesWithSpark=lines.filter(lambdaline:"Spark"inline)linesWithSpark.foreach(print)
作者:编程之家 时间:2022-09-04
03 Spark RDD编程基础
1.准备文本文件从文件创建RDDlines=sc.textFile()筛选出含某个单词的行lines.filter()lambda参数:条件表达式 2.生成单词的列表从列表创建RDDwords=sc.parallelize()筛选出长度大于2的单词words.filter()
作者:编程之家 时间:2022-09-04
Spark Streaming 调优实践
在使用Spark和SparkStreaming时,当我们将应用部署在集群上时,可能会碰到运行慢、占用过多资源、不稳定等问题,这时需要做一些优化才能达到最好的性能。有时候一个简单的优化可以起到化腐朽为神奇的作用,使得程序能够更加有效率,也更加节省资源。本文我们就来介绍一些能够提高应用性
作者:编程之家 时间:2022-09-04
Lindrom 实践 | Spark 对接 Lindorm Phoenix 5.x 轻客户端
1.背景Lindorm兼容Phoenix提供的是Phoenix5.x轻客户端,在Spark官网上对接Phoenix的例子大多是Phoenix4.x重客户端,因此本文给出Spark对接Phoenix5.x轻客户端的例子,方便大家参考。2.Spark对接Phoenix5.x轻客户端2.1从Spark官网下载Spark安装包从Spark官网下载Spark安装包,版本自
作者:编程之家 时间:2022-09-04
上一页
55
56
57
58
59
60
61
62
下一页
小编推荐
热门标签
更多
python
JavaScript
java
HTML
reactjs
C#
Android
CSS
Node.js
sql
r
python-3.x
MysqL
jQuery
c++
pandas
Flutter
angular
IOS
django
linux
swift
typescript
路由器
JSON
路由器设置
无线路由器
h3c
华三
华三路由器设置
华三路由器
电脑软件教程
arrays
docker
软件图文教程
C
vue.js
laravel
spring-boot
react-native