rdd1.map(x => rdd2.values.count() * x)像这样的情况该如何避免

快来打我* 2024-03-25 10:31 3阅读 0赞

发表评论

表情:
评论列表 (有 0 条评论,3人围观)

还没有评论,来说两句吧...

相关阅读

    相关 RDD持久化-----rdd.cache()

    持久化 在Spark中,RDD采用惰性求值的机制,每次遇到行动操作,都会从头开始执行计算。每次调用行动操作,都会触发一次从头开始的计算,这对于迭代计算而言,代价是很大的,

    相关 RDD

    RDD是什么东西?在Spark中有什么作用?如何使用? 1、RDD是什么(1)为什么会产生RDD?传统的MapReduce虽然具有自动容错、平衡负载和可拓展性的优点,但是其最大

    相关 6-1、Spark RDD

    3、RDD 与Hadoop不同,Spark一开始就瞄准性能,将数据放在内存,在内存中计算。 用户将重复利用的数据缓存在内存中,提高下次的计算效率,因此Spark尤其适合

    相关 RDDs特性

    一 RDDs的血统关系图 Spark维护着RDDs之间的依赖关系和创建关系,叫做血统关系图。 Spark使用血统关系图来计算每个RDD的需求和恢复丢失的数据。 ![Sou