发表评论取消回复
相关阅读
相关 Spark学习笔记:spark核心编程、RDD、SparkSQL、SparkStreaming
第5章:RDD ![在这里插入图片描述][a618dca205df48588b86dd4676f797e5.png] 5.1 RDD 5.1.1 什么是 RDD
相关 【Spark入门(2)】SparkCore之RDD核心编程
【时间】2021.10.26 【题目】【Spark入门(2)】SparkCore之RDD核心编程 一、引言 本文是课程[尚硅谷大数据Spark教程][Sp
相关 Spark-核心编程(五)RDD基本原理
Spark核心编程 RDD RDD(Resilient Distributed Dataset)叫做弹性分布式数据集,是 Spark 中最基本的数据处理模型。代码中
相关 Spark-核心编程(四)RDD行动算子
RDD行动算子 转换算子是不会触发作业的执行的,只是定义作业需要怎么做,行动算子将会使作业(job)真正的执行。其底层job将会执行上下文对象的runJob方法,底层代码
相关 Spark-核心编程(三)使用RDD算子完成WordCount
其他WordCount解决方法 // 转换算子 // groupBy def wordcount1(sc: SparkContext): Unit
相关 Spark-核心编程(二)RDD转换算子
\\RDD的方法(算子)\\分为两大类: 转换:功能的补充和封装,将旧的RDD包装成新的RDD(flatMap, map) 行动:出发任务的调度和作业的执行(collect
相关 Spark-核心编程(一)模拟分布式计算以及RDD基础原理
Spark核心编程 Spark 计算框架为了能够进行高并发和高吞吐的数据处理,封装了三大数据结构,用于处理不同的应用场景。三大数据结构分别是: RDD : 弹性分布式数
相关 Spark RDD编程
Spark RDD编程 概述 从高层次上来看,每一个Spark应用都包含一个驱动程序,用于执行用户的main函数以及在集群上运行各种并行操作。Spark提供的主要抽
相关 Spark核心编程之RDD持久化详解
RDD持久化原理 Spark非常重要的一个功能特性就是可以将RDD持久化在内存中。当对RDD执行持久化操作时,每个节点都会将自己操作的RDD的partition持久化到内
还没有评论,来说两句吧...