spark的核心设计思想是什么?
spark的出现其实是一个生态系统的成长过程,Spark是基于内存计算的大数据并行计算框架,也就是说他的思想是要在内存中处理大规模数据,同时还要兼顾处理数据处理的实时性,同时保证了高容错性和高可伸缩性,当然这个前提是要在廉价的分布式集群上解决这个问题,这就是设计的初衷,也是设计的主要思想,至于rdd只是一个抽象而已。
`单行代码`
关注海汼部落技术社区