手机版
热门标签
站点地图
我要投稿
广告合作
联系我们
搜 索
广告位招租
广告位招租
切换导航
首页
编程教程
编程导航
编程百科
编程问答
编程博文
编程实例
硬件设备
网络运营
软件教程
移动数码
办公软件
操作系统
人工智能
栏目导航
▸ 编程语言
▸ 前端开发
▸ 移动开发
▸ 开发工具
▸ 程序设计
▸ 行业应用
▸ CMS系统
▸ 服务器
▸ 数据库
公众号推荐
微信公众号搜
"智元新知"
关注
微信扫一扫可直接关注哦!
子栏目导航
大数据
图像处理
chatgpt
文心一言
DevOps
Kafka
Spark
Dubbo
NLP
力扣
编程之家
Spark
Spark之K-近邻算法
Spark之K-近邻算法关于K-近邻算法的详细描述可以看MapReduce之KNN算法简而言之,K近邻算法即根据已经分类好的数据,通过特定的方式进行对比,对为分类的数据进行分类,Spark程序如下所示packageKNNimportorg.apache.spark.{SparkConf,SparkContext}objectKNN{def
作者:编程之家 时间:2022-09-04
Spark入门四Idea远程提交项目到spark集群
一、依赖包配置scala与spark的相关依赖包,spark包后尾下划线的版本数字要跟scala的版本第一二位要一致,即2.11pom.xml<?xmlversion="1.0"encoding="UTF-8"?><projectxmlns="http://maven.apache.org/POM/4.0.0"xmlns:xsi="http://www.w3.org/2001/XMLSchema-i
作者:编程之家 时间:2022-09-04
【2020/1/27】寒假自学——学习进度报告7
今天想记录下如何在windows环境下远程提交代码到spark集群上面运行。spark集群搭建环境使Linux系统,但说实在,Linux系统因为是虚拟机的缘故运行IDE并不是很舒服,想要对python进行舒适的编程操作还不是一件容易事,所以今天记录下如何在Windows下进行spark编程。首先是sp
作者:编程之家 时间:2022-09-04
Spark学习之路 十五SparkCore的源码解读一启动脚本[转]
启动脚本分析独立部署模式下,主要由master和slaves组成,master可以利用zk实现高可用性,其driver,work,app等信息可以持久化到zk上;slaves由一台至多台主机构成。Driver通过向Master申请资源获取运行环境。启动master和slaves主要是执行/usr/dahua/spark/sbin目录下的start-master.sh和
作者:编程之家 时间:2022-09-04
pyspark系统学习3——DataFrame
DataFrame是一种不可变的分布式数据集,这种数据集被组织成指定的列,类似于关系数据库中的表。通过在分布式数据集上施加结构,让Spark用户利用SparkSQL来车讯结构化的数据或使用Spark表达式方法(而不是lambda)。1.python到RDD之间的通信每当使用RDD执行PySpark程序
作者:编程之家 时间:2022-09-04
寒假学习二spark学习
spark的安装很简单(教程)1.计算级数请用脚本的方式编程计算并输出下列级数的前n项之和Sn,直到Sn刚好大于或等于q为止,其中q为大于0的整数,其值通过键盘输入。 例如,若q的值为50.0,则输出应为:Sn=50.416695。请将源文件保存为exercise2-1
作者:编程之家 时间:2022-09-04
揭秘Spark中RDD算子是什么
1、RDD基础 RDD(ResilientDistributedDataset)叫做弹性分布式数据集,是Spark中最基本的数据抽象,它代表一个不可变、可分区、里面的元素可并行计算的集合。RDD具有数据流模型的特点:自动容错、位置感知性调度和可伸缩性。RDD允许用户在执行多个查询时显式地将工作集缓
作者:编程之家 时间:2022-09-04
Spark安装单机版
1.下载安装官网下载选择版本和type,这里为spark-2.4.4-bin-without-hadoop.tgz1.1命令下载:1cd~/software2wgethttp://apache.communilink.net/spark/spark-2.4.4/spark-2.4.4-bin-without-hadoop.tgz1.2解压重命名1tar-xzvfspark-2.4.4-bin-without-hadoop.tg
作者:编程之家 时间:2022-09-04
spark实验二--scala安装
一、实验目的(1)掌握在Linux虚拟机中安装Hadoop和Spark的方法;(2)熟悉HDFS的基本使用方法;(3)掌握使用Spark访问本地文件和HDFS文件的方法。二、实验平台操作系统:centos6.4;Scala版本:2.10.6.;Hadoop版本:2.7.6。三、实验过程首先根据这篇博文https://www.cnblogs.co
作者:编程之家 时间:2022-09-04
寒假第九天
今天完成了实验四,对于spark-shell交互式编程更加了解和RDD以及对于编写独立应用程序sbt的打包编程去重也有了了解之前安装完sbt后对于后面的打包需要下载一些文件一直失败,后来我把 在网上查询解决方案,找了很久终于 教程里spark-core换成了spark-sql然后就下载成功了1
作者:编程之家 时间:2022-09-04
Spark-UDF
UserDefinedFunctions-PythonThisdocumentcontainsanexamplesofcreatingaUDFinPythonandregisteringitforuseinSparkSQL.WhatisPysparkUDFPysparkUDFisauserdefinedfunctionexecutedinPythonruntime.TwotypesRowUDFlambdax:x+1l
作者:编程之家 时间:2022-09-04
spark学习三
今天完成了实验二的最后两个实验,由于对Scala语言并不了解,不知道如何进行文件读取,后来通过上网查询,找到了相关代码,spark中partition的概念partition是RDD的最小单元,是盛放文件的盒子,一个文件可能需要多个partition,但是一个partition只能存放一个文件中的内容,partition是spark计算
作者:编程之家 时间:2022-09-04
2020寒假学习笔记07
今天开始做Spark的第5个实验,第一个题目做的还比较顺利,但是到第二个题目就又出现了莫名其妙地错误,经过一下午的解决,目前还没有能够成功解决。第一题实验内容:1.SparkSQL基本操作将下列JSON格式数据复制到Linux系统中,并保存命名为employee.json。{"id":1,"nam
作者:编程之家 时间:2022-09-04
Hive、MapReduce、Spark分布式生成唯一数值型ID
在实际业务场景下,经常会遇到在Hive、MapReduce、Spark中需要生成唯一的数值型ID。一般常用的做法有:MapReduce中使用1个Reduce来生成;Hive中使用row_number分析函数来生成,其实也是1个Reduce;借助HBase或Redis或Zookeeper等其它框架的计数器来生成;数据量不大的情况下,可以直接
作者:编程之家 时间:2022-09-04
2020寒假学习4
IntellijIDEA使用Maven搭建spark开发环境(1) (接https://www.cnblogs.com/janeszj/p/12230833.html) 下载Spark(官网下载只能下载比较新的版本,老版本资源没有找到,我下载的是) 复制到虚拟机中 把spark-2.4.4-bin-hadoop2.7压缩包拷贝到/usr/local/spark中
作者:编程之家 时间:2022-09-04
spark实验(二)--eclipse安装scala环境(2)
此次在eclipse中的安装参考这篇博客https://blog.csdn.net/lzxlfly/article/details/80728772Help->EclipseMarketplace首先点击eclipse中的帮助,EclipseMarketplace 在出现的这个页面中搜索scala找到一个4.7.x的scala点击右边的安装 等待进度条走完 点击confi
作者:编程之家 时间:2022-09-04
2020寒假 学习进度笔记7:实验 3 Spark 和 Hadoop 的安装
1.安装Hadoop和Spark 已完成hadoop安装教程:http://dblab.xmu.edu.cn/blog/2441-2个人spark安装过程:https://www.cnblogs.com/gothic-death/p/12238633.html2.HDFS常用操作(1) 启动Hadoop,在HDFS中用户目录”/user/hadoop” (2) 在Linux系统的本地文件系统的“/home/hadoop
作者:编程之家 时间:2022-09-04
spark优化要点开发
背景为什么需要调优??程序都是能跑的,集群还是那个集群,但是有可能另外一个会调优的人和你写的代码的运行的速度要几倍甚至几十倍1.开发调优1.1原则一:避免创建重复的RDD我们有一份数据,student.txt第一个需求:wordCountvalstuRDD=sc.textFile(“e://sparkData//stu
作者:编程之家 时间:2022-09-04
2020寒假学习笔记08
几天无奈之下只能暂时放弃第五个实验的第2题,开始做第三题,经过踉踉跄跄以后,对源程序进行打包时出错。第三题实验内容:3.编程实现利用DataFrame读写MySQL的数据(1)在MySQL数据库中新建数据库sparktest,再创建表employee,包含下面两行数据。 (2)配置Spark
作者:编程之家 时间:2022-09-04
Spark学习10_1 sparkMllib入门与相关资料索引
目录资料mllib统计相关性分析KMeans聚类算法SVM算法其他算法实例的文件目录位置资料Spark机器学习库(MLlib)中文指南关于spark机器学习的知乎专栏Spark入门实战系列--8.SparkMLlib(上)--机器学习及SparkMLlib简介基本Kmeans算法介绍及其实现sparkMLlib概念1:相
作者:编程之家 时间:2022-09-04
spark3
Q:Spark和Hadoop的架构区别A:Hadoop:MapRedcue由Map和Reduce两个阶段,并通过shuffle将两个阶段连接起来的。但是套用MapReduce模型解决问题,不得不将问题分解为若干个有依赖关系的子问题,每个子问题对应一个MapReduce作业,最终所有这些作业形成一个DAG。Spark:是通用的DAG框架,可以将多
作者:编程之家 时间:2022-09-04
spark基本面试题
目录一、spark基本常识二、spark要点一、spark基本常识1、spark中的RDD是什么,有哪些特性? RDD(ResilientDistributedDataset)叫做分布式数据集模式spark中最基本的数据抽象,它代表一个不可变,可分区,里面的元素可以并行计算的集合。 Resilient:表示弹性的,弹性表示
作者:编程之家 时间:2022-09-04
暑假学习笔记01
上一学期的云计算课上,也有spark的实验任务。对它有一个初步的了解,但是当时因为时间紧任务重,在完成实验任务后就没有再详细研究。趁着寒假重新开始学习spark,这次希望可以对它掌握的更加全面,首先从基本的概念入手。包括Spark特点、 Scala特性、BDAS架构、Spark组件的应用场景、Sp
作者:编程之家 时间:2022-09-04
31.电视采集项目流程spark篇通过sparksql处理业务逻辑
新建包 packagecom.it19gong.clickproject;importjava.io.IOException;importorg.apache.hadoop.io.LongWritable;importorg.apache.hadoop.io.NullWritable;importorg.apache.hadoop.io.Text;importorg.apache.hadoop.mapreduce.Mapper;publicclassAcce
作者:编程之家 时间:2022-09-04
import spark.implicits._ 报红,无法导入
先给出错误的代码defmain(args:Array[String]):Unit={//CreateSparkConf()AndSetAppNameSparkSession.builder().appName("SparkSqlbasicexample").config("spark.some.config.option","so
作者:编程之家 时间:2022-09-04
2020寒假学习笔记05
今天完成了spark的第三个实验以及第四个实验的第一问。其中第三个实验涉及到一些Hadoop的知识,大部分已经想不起来了,经过今天的练习又温习了一遍,同时也接触到了使用Spark对本地文件或者是hdfs文件的一些操作,比如获取文件的行数等。第四个实验是关于RDD编程的,一些语句
作者:编程之家 时间:2022-09-04
Spark工作原理及RDD
1.基于内存2.迭代式计算3.分布式基本工作原理:将spark的程序提交到spark集群上,在Hadoop的HDFS或者Hive上读取数据,读取的数据存放在各个spark的节点上,分布式的存放在多个节点上,主要在每个节点的内存上,这样可以加快速度。对节点的数据进行处理,处理后的数据存放在其他的节点的内存上
作者:编程之家 时间:2022-09-04
寒假 2
2020.2.2今天的寒假生活学习了了解Spark内存计算框架.Hadoop使用数据复制来实现容错性,而Spark使用RDD数据存储模型来实现数据的容错性。了解了hadoop框架中的HDFS(分布式文件系统)Mapreduce(分布式计算框架)map函数Reduce(函数)YARN(集群资源管理器)Zookeeper(分布式协议服务)Am
作者:编程之家 时间:2022-09-04
spark2
分布式数据集 编辑Spark围绕的核心概念,是弹性分布式数据集(RDD),一个有容错机制,可以被并行操作的集合。目前有两种类型的RDD: 并行集合(Parrallelized Collections),接收一个已经存在的Scala集合,在它上面运行各种并发计算;Hadoop数据集(HadoopDataSets),在一个文件的每条记录上,
作者:编程之家 时间:2022-09-04
Spark入门六Spark SQL shell启动方式(元数据存储在mysql)
一、hive配置文件 在spak/conf目录添加hive-site.xml配置,设置mysql作为元数据存储的数据库<?xmlversion="1.0"encoding="UTF-8"standalone="no"?><?xml-stylesheettype="text/xsl"href="configuration.xsl"?><configuratio
作者:编程之家 时间:2022-09-04
上一页
34
35
36
37
38
39
40
41
下一页
小编推荐
热门标签
更多
python
JavaScript
java
HTML
reactjs
C#
Android
CSS
Node.js
sql
r
python-3.x
MysqL
jQuery
c++
pandas
Flutter
angular
IOS
django
linux
swift
typescript
路由器
JSON
路由器设置
无线路由器
h3c
华三
华三路由器设置
华三路由器
电脑软件教程
arrays
docker
软件图文教程
C
vue.js
laravel
spring-boot
react-native