Spark RDD中cache和persist的区别

2025-03-10 15:12:21
推荐回答(1个)
回答1:

一般来讲,对于陌生的名词,大家的第一个反应都是逗What is it?地. RDD是Spark的核心内容,在Spark的官方文档中解释如下:RDD is a fault-tolerant collection of elements that can be operated on in parallel.由此可见,其中有两个关键词: