MapReduce慢是因为 模型很呆板 ,频繁的Io操作
Spark快的话不仅是因为它是内存迭代计算吧? 具体什么是内存迭代计算?
简单说吧,Spark内存迭代计算就是先不算 把计算路径或是操作数和操作符形成一个图,要计算的时候直接优化这个图,合并和拆分很多操作数,然后尽量使用内存不用io,这样的话会省去很多时间,但是最牛逼的在于spark的算子非常多,mr只有两个算子,spark有很多
`单行代码`
关注海汼部落