1 最直接的方式
scala> val jdbcDF = spark.read.format("jdbc")
.option("url", "jdbc:mysql://hadoop1:3306/rdd")-------mysql 接口和库名
.option("dbtable", "rddtable")-----两张表名
.option("user", "root")----登陆的权限和用户名,照着写即可
.option("password", "cc123456")----登陆密码
.load()
结果:
jdbcDF: org.apache.spark.sql.DataFrame = [id: int, name: string]
准备工作是你的有要连接mysql的库名,表名,并且要准备好数据。
2)我们连起来执行一下啊
scala> val jdbcDF = spark.read.format("jdbc").option("url", "jdbc:mysql://hadoop1:3306/rdd").option("dbtable", "rddtable").option("user", "root").option("password", "cc123456").load()
jdbcDF: org.apache.spark.sql.DataFrame = [id: int, name: string]
3)我们做一下查询,看看结果如何
scala> jdbcDF.show
+---+----+
| id|name|
+---+----+
| 1|adsg|
| 2|sdaf|
| 23| sdf|
+---+----+
原文地址:https://www.cnblogs.com/markecc121/p/11643500.html