spark sql 操作mysql
问各位大佬一个问题,在通过spark sql 先删除后插入mysql过程中,造成死锁!有什么解决办法没有啊?代码如下:
//先删除表数据,再插入
JdbcUtil.deleteByKey(url, prop, rawTable, "time", month)
dfRawMonthlyActiveUsers.write.mode(SaveMode.Append).jdbc(url, rawTable, prop)
问各位大佬一个问题,在通过spark sql 先删除后插入mysql过程中,造成死锁!有什么解决办法没有啊?代码如下:
//先删除表数据,再插入
JdbcUtil.deleteByKey(url, prop, rawTable, "time", month)
dfRawMonthlyActiveUsers.write.mode(SaveMode.Append).jdbc(url, rawTable, prop)