最近学大数据,在windows上搭建spark环境,下载了hadoop2.7的二进制版本,然后打开hadoop文件夹看了一下,发现里面居然有linux和windows两种命令行脚本文件,但是教程说的却是要下载一个winutil把那个hadoop的bin直接覆盖了,可是这不是很矛盾吗,既然hadoop不支持windows为什么还要另外写一版windows命令行脚本,如果支持为什么又必须用winutil覆盖bin目录?求大佬解答我的疑惑。
最近学大数据,在windows上搭建spark环境,下载了hadoop2.7的二进制版本,然后打开hadoop文件夹看了一下,发现里面居然有linux和windows两种命令行脚本文件,但是教程说的却是要下载一个winutil把那个hadoop的bin直接覆盖了,可是这不是很矛盾吗,既然hadoop不支持windows为什么还要另外写一版windows命令行脚本,如果支持为什么又必须用winutil覆盖bin目录?求大佬解答我的疑惑。