@青牛 老师,MySQL中存储的该字段是定义成json类型的,但是导入到hive里面(在hive里面定义成string),查询出来就乱码了
这是原始在mysql中的数据
@青牛 老师,是导入内部表吗?自己不建表及字段?
@青牛 老师 如果遇到这样的问题,我把cm的数据库drop删掉再重新初始化可以吗?会不会对关键集群数据造成影响? 初始化数据库:
cd /opt/cloudera-manager/cm-5.15.0/share/cmf/schema/
./scm_prepare_database.sh mysql -hmaster.bd.dp -uroot -p密码 --scm-host master.bd.dp cm scm 密码
阿里云的机器确实联网了 我重新搭建了一遍集群好了 出现这个问题特别奇怪
感谢青牛老师,问题已解决,哈哈😃
谢谢
@青牛 老师,可否提供下具体的文档操作步骤呢?感谢
嗯嗯,这样是必须的,试过了,结果是得先在hive中把表创建好,之后可以在spark-sql中操作此表。再spaqk-sql中创建再操作的时候会出现这个错误。
@青牛 老师,我删除了一些压缩包和文件就可以了,如何修理挂盘呢?这是什么意思啊?感谢解答
已解决!
@青牛 青牛老师,可否分享个链接,我参照配置一下,感谢!!!
@青牛 青牛老师,我的hdfs-site.xml只配置了dfs.replication让文件副本数为2,我一共开了2台从机,1个主机,这样可以吗?文件副本数有没有什么要求?
@青牛 青牛老师,是每台机器上都要配置hadoop_home外的hadoop_hdfs_home,hadoop_conf_dir这些吗?
问题已解决,是jdk路径问题!!!
@青牛
当telnet ip 2181后显示这个,这是怎么回事呢?