@maxy 2.2还是可以使用SQLContext的,只是不建议使用而已,未来版本会抛弃。
你的代码我这里是没有问题的哦,给你个参照,你看看是不是那里写错了?
package com.hainiu.spark.sql
import org.apache.spark.SparkConf
import org.apache.spark.sql.{Dataset, SparkSession}
object SqlMysql_session {
def main(args: Array[String]): Unit = {
val conf = new SparkConf()
conf.setAppName("sqlmysql").setMaster("local")
val spark = SparkSession.builder().appName("SparkSQLDemo").config(conf).getOrCreate()
val data: Dataset[_] = spark.read.format("jdbc")
.option("driver", "com.mysql.jdbc.Driver")
.option("url", "jdbc:mysql://localhost:3306/hainiutest")
.option("dbtable", "hainiu_web_seed")
.option("user", "hainiu")
.option("password", "12345678").load
data.createOrReplaceTempView("temp")
val row: Dataset[_] = spark.sql("select * from temp")
row.show()
}
}