发表评论取消回复
相关阅读
相关 Spark学习笔记:spark核心编程、RDD、SparkSQL、SparkStreaming
第5章:RDD ![在这里插入图片描述][a618dca205df48588b86dd4676f797e5.png] 5.1 RDD 5.1.1 什么是 RDD
相关 Spark-核心编程(七)Spark案例实操即工程化代码
Spark案例实操 数据如下: ![在这里插入图片描述][ec9fef08bfb94e31a19ccd4e75b17b31.png] 数据解析如下: 以第
相关 Spark-核心编程(六)累加器与广播变量
累加器 分布式共享只写变量,Executor之间是不能互相访问到累加器的,Driver可以获取到Executor中累加器的数据。 实现原理 累加器用来把 Exec
相关 Spark-核心编程(一)模拟分布式计算以及RDD基础原理
Spark核心编程 Spark 计算框架为了能够进行高并发和高吞吐的数据处理,封装了三大数据结构,用于处理不同的应用场景。三大数据结构分别是: RDD : 弹性分布式数
相关 Spark核心编程之RDD持久化详解
RDD持久化原理 Spark非常重要的一个功能特性就是可以将RDD持久化在内存中。当对RDD执行持久化操作时,每个节点都会将自己操作的RDD的partition持久化到内
相关 Spark核心编程创建RDD及transformation和action详解和案例
创建RDD 进行Spark核心编程时,首先要做的第一件事,就是创建一个初始的RDD。该RDD中,通常就代表和包含了Spark应用程序的输入源数据。然后在创建了初始的RDD
还没有评论,来说两句吧...