Spark分区可以被移除吗?是RDD转化之后,上一个RDD的分区会自动被系统移除吗?还是有主动移除RDD的算子?希望各位大佬解疑一下。
解决方案 »
- openstack dashbaord二次開發的表
- 弱问:Python和openstack的关系是?
- “天翼云”再添利器,华为鼎力支持电信桌面云产品发布
- 请问csdn可以解决什么问题
- pause frame的问题
- aws上传从vmware中导出的VMDK文件到中国地区
- 一般都是有奖征集回帖多,大家真的是对奖品感兴趣么?
- Spark Streaming transformation 中部分代码不会执行
- docker用同一个mysql镜像创建多个容器只有一个容器可以使用
- 安装redmine和mysql后,redmine容器启动后就退出,如何处理?
- centos7 hadopp2.7.7 使用hdfs namenode format出错
- 安装glance时,同步数据库失败,有没有人帮忙看一下,谢谢
比如现在有个RDDA是祖先RDD,那么此RDD的Dependency为NIL 空
现在有一个RDDB是RDDA的子RDD,那么此RDDB的Dependency就不再是空,而是具备值,这个值就是RDDA的引用
所以不存在自动移除问题,因为除了祖先RDD的Dependency为空外,所以RDD在源码层面上都是多了一个Dependency类罢了!
个人理解,望广大网农门批评指正
abstract class RDD[T: ClassTag](
@transient private var _sc: SparkContext,
@transient private var deps: Seq[Dependency[_]]
)