4.开启spark服务:sh $SPARK_HOME/sbin/start-all.sh 5.进入spark-shell:spark-shell 6.scala操作hive(spark-sql) scala>val conf=new SparkConf().setAppName("SparkHive").setMaster("local") //可忽略,已经自动创建了 scala>val sc=new SparkContext(conf) //可忽略,已经自动创建了 scala>val sqlConte...
在Spark Shell中,我们可以使用Spark SQL读取Hive表的数据: // 导入Spark SQL的隐式转换importspark.implicits._// 读取Hive中的数据valusersDF=spark.sql("SELECT * FROM users")// 显示数据usersDF.show() 1. 2. 3. 4. 5. 6. 7. 8. 说明:这段代码首先导入了Spark SQL的隐式转换功能,然后通过SQL语...