@HiHadoop mapreduce的话需要两步,spark的话比较好做map->countByKey->sort->top就完事了
- MapReduce 编程系列
- MapReduce 编程系列
- MapReduce 编程系列
- MapReduce 编程系列
- MapReduce 编程系列
- hadoop 如何统计每日提交的任务总数,map,reduce 数量
- hadoop block missing
- 请青牛老师帮忙看一下
- 通过 java restful 方式操作 oozie
-
信息被删除或无权限查看
-
信息被删除或无权限查看
- 海牛部落 hive 系列教程(十九):hive 介绍与安装
- spark 基于内存的分布式计算框架
- 海牛部落 hadoop 系列教程(二十六):Hbase 概述与安装、Hbase 原理和简单的 shell 操作
- 海牛部落 hive 系列教程(二十五):hive 自定义 UDTF