首先需要创建一个SparkSession,这是与Spark交互的入口点: importorg.apache.spark.sql.SparkSessionvalspark=SparkSession.builder().appName("Spark MySQL Connection").master("local[*]")// 本地模式,可根据实际情况调整.getOrCreate() 1. 2. 3. 4. 5. 6. 2.2 读取数据 然后使用read方法结合format("jdbc...
$ --driver-class-path /root/spark-3.0.1-bin-hadoop2.7/usr/share/java/mysql-connector-java.jar 上面命令中,在一行的末尾加入斜杠\,是为了告诉spark-shell,命令还没有结束。6、执行命令连接数据库,读取数据并显示 scala > import org.apache.spark.sql.SQLContext scala > val sqlContext = new SQL...
$ --driver-class-path /root/spark-3.0.1-bin-hadoop2.7/usr/share/java/mysql-connector-java.jar 上面命令中,在一行的末尾加入斜杠\,是为了告诉spark-shell,命令还没有结束。 6、执行命令连接数据库,读取数据并显示 scala > import org.apache.spark.sql.SQLContext scala > val sqlContext = new SQLConte...
$ --driver-class-path /root/spark-3.0.1-bin-hadoop2.7/usr/share/java/mysql-connector-java.jar 上面命令中,在一行的末尾加入斜杠\,是为了告诉spark-shell,命令还没有结束。 6、执行命令连接数据库,读取数据并显示 scala > import org.apache.spark.sql.SQLContext scala > val sqlContext = new SQLConte...