如图所示,查找不到
software/bigdata下面有hadoop的压缩包,自己解压到自己的指定目录,不要解压到public的任意目录下,因为都是只读目录
@青牛 请问Spark的安装目录呢?如果没有安装Spark的话,为什么我可以使用local模式进行RDD编程。local模式不依赖于Spark吗?
@NEMOlv 你用的是IDEA中的开发环境吧,idea里面maven给你下载jar包了
@青牛 原来如此,其实学习RDD编程不需要搭建集群。我一直以为需要搭建好集群才能允许RDD编程。也就说说在工作中,如果想使用集群的话只需要把IDEA的MasterURI换成集群对应的URI即可。
@NEMOlv 学的时候不需要,实际工作中不能这行,你得打包让到部署好的集群上跑
`单行代码`
关注海汼部落