现在是orc文件,使用了分区,按照id_key想增量更新到oracle数据库
之前练习的时候,发现text类型的文件可以增量导入到mysql,orc就报错,使用hcatalog提示空指针异常
有懂的大神吗?
`Gauss db 对表的分区能力这块总感觉不如hive,Gauss db创建分区表时需要先把分区创建好,这点很不如hive方便,请问这个缺陷,Gauss db 如何规避?`
`Gauss db 如何做数据仓库,有什么好的工具能将数据集成到Gauss db中呢?`



请教各位老师,1.图片的centos-root是如何创建的,以及它的空间50G是怎么配置的?2.现在有剩余空间,想给centos-root扩容,怎么操作?以及操作过程会对原数据产生影响吗?谢谢

# 一、重装和升级
在实际业务场景中,需要使用软件新版本的功能、特性。就需要对原有软件进行升级或者重装操作。
> 旧statble 稳定版 1.14
>
> stable 稳定版 1.16
>
> mainline 主线版本 最新的 1.17
## 1、信号参数
Kill 命令 传输信号给进程 N...
# 企业级Nginx使用-day2
# 一、第三方模块使用
Nginx官方没有的功能,开源开发者定制开发一些功能,把代码公布出来,可以通过**编译加载第三方模块**的方式,**使用新的功能**。
第三方模块网址:https://www.nginx.com/resources/wiki/modules
##1、编...
# Tomcat
# 一、Tomcat介绍

## 1、简介
Tomcat是Apache 软件基金会(Apache Software Foundation)的Jakarta 项目中的一个核心项目,由Apache、Sun 和其他一些公司及个人共同开...
# 大数据技术之Doris
## Doris简介
### 1.1 Doris介绍
```shell
Apache Doris最早诞生于2008年,最初只为解决百度凤巢报表的专用系统。在08年那个时候数据存储和计算成熟的开源产品非常少,Hbase的导入性能只有大约2000条/秒,在这种不能满足业务的背景下,do...
hive启动 会报错
**hive (default)> show databases;
FAILED: SemanticException org.apache.hadoop.hive.ql.metadata.HiveException: java.lang.RuntimeExcepti on: Unable to instantiate org.apache.hadoop.hive.ql.metadata.Sessio...
json 转csv 可解放大量的ETL工作,但带数组的json需要特别处理,我使用的亚马逊redshift时已经解决了基本所有的json数据类型预处理,我是通过通用配置表配合json预处理框架实现的.这里不多介绍,只讲一下如果将一堆json数据转为csv数据,如下是只需给定json的jsonpath结...
**我想勤问一下 通过sentry 来控制hive2 对用户 的权限控制 ,从网上查询都是创建角色 但是我通过beeline 执行show relos; 会出现报错 **

 + " then 'YES' else 'NO' end ");
编译后 comone.contains("a") 变成 contains(COMONE,"a"),而不是bollean类型。如何才能返回bollean类型?
本地跑MR说连接不上


哪位大佬能否帮解答一下,感谢感谢
shadeio.poi.ss.formula.FormulaParseException: Specified named range 'BIG' does not exist in the current workbook.
在hive 中连续两次使用ctrl+c命令,结果发现hive直接连不上了,是要重启hive吗?哪位大佬解答一下啊
下午,按照cdh6.3.2的安装视频和文档,一步步安装到步骤parcel安装,下载分发后,在解压时,只有worker-1节点报错:Src file /opt/cloudera/parcels/.flood/CDH-6.3.2-1.cdh6.3.2.p0.1605554-el7.parcel/CDH-6.3.2-1.cdh6.3.2.p0.1605554-el7.parcel does not exist!...
DataStreamSource scanJobStreamSource = KafkaUtil.getStreamSource(env, prop.getProperty("bootstrap.servers"), prop.getProperty("group.id"),"kuai2", new PoJoDeserializationSchema(ScanInfo.class,false));
scanJobStreamSource.map(new ScanInfoJobMapfunc...
本测试仅有kafkasource->map->print,三种算子。
1.将source/map/print的并行度均设为2,即kafkasource(2)->map(2)->print(2)。由于并行度一致,flink会将以上3个subtask合并为一个subtask放在slot里,共有2个subtask。
图1.1为并行度一致时代码输出结果
![file]...
```
public class JobCodeKeyProcessFunction extends KeyedProcessFunction<String,ScanWrapInfo, JobInfo> {
private static Jedis jedis = null;
private static ValueState<Double> weight = null;
private static ValueState<Double> volume = nul...
memstore只有128m,有一条130m的数据怎么存进去?
图一:
例如:用cos列除以总计列得到如下结果
图二:
已经有如图一的DF,该使用什么方式来做呢?

# spark thriftserver
### 1.启动服务
```shell
#启动thriftserver服务 如果报端口被占用,说明有人已经启动过
/usr/local/spark/sbin/start-thriftserver.sh --master yarn --queue hainiu
#启动beelie, 连接 op.hadoop 的thriftserver 服务
/usr/local/...
# spark Streaming
### 1.DStream 无状态转换操作
#### OLDDStream -> NEWDStream(当前批次和历史数据无关)
| 转换 | 描述 |
| -------------------------------- | --...
# Flink
## 启动
### 1.在yarn上启动jobManager
指定dirver端找到多个依赖的jar包
```shell
flink run -m yarn-cluster -yt /home/hadoop/spark_news_jars -yjm 1024 -ytm 1024 -yn 2 -ys 3 -yqu root.hainiu -ynm hainiuFlinkStreamingWordCount \
$(ll...
kylin启动正常,导入官网数据业务正常,执行kylin的build报错
报错信息:Caused by: org.apache.kylin.job.exception.ExecuteException: java.io.IOException: OS command error exit with return code: 4, error message: Cannot find hadoop installation: $HADOOP_H...




我用的是 **hwangins...
一、出错信息
[图片]
二、
```
//通过这个配置对象对连接池进行相关参数的配置(如最大连接数,最大空数等)
public static JedisPoolConfig PoolConfig(){
JedisPool...