要是用Spark SQL,首先得先创建一个SQL Context 对象,或者是它的子类对象,比如HiveContext的对象:
Java版本:
JavaSparkContext sc = ...;
SQLContext sqlContext = new SQLContext(sc);
Scala 版本:
val sc:SparkContext = ...
val sqlContext = new SQLContext(sc)
import sqlContext.implicits._
要是用Spark SQL,首先得先创建一个SQL Context 对象,或者是它的子类对象,比如HiveContext的对象:
Java版本:
JavaSparkContext sc = ...;
SQLContext sqlContext = new SQLContext(sc);
Scala 版本:
val sc:SparkContext = ...
val sqlContext = new SQLContext(sc)
import sqlContext.implicits._
本文标题:Spark SQL - SQLDataFrame的使用
本文链接:https://www.haomeiwen.com/subject/towwuqtx.html
网友评论