日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 运维知识 > 数据库 >内容正文

数据库

pyspark报错java.lang.ClassNotFoundException: com.mysql.cj.jdbc.Driver

發布時間:2023/12/31 数据库 37 豆豆
生活随笔 收集整理的這篇文章主要介紹了 pyspark报错java.lang.ClassNotFoundException: com.mysql.cj.jdbc.Driver 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

完整報錯如下:

Traceback (most recent call last):File "<stdin>", line 6, in <module>File "/home/appleyuchi/bigdata/spark-2.3.1-bin-hadoop2.7/python/pyspark/sql/readwriter.py", line 703, in saveself._jwrite.save()File "/home/appleyuchi/bigdata/spark-2.3.1-bin-hadoop2.7/python/lib/py4j-0.10.7-src.zip/py4j/java_gateway.py", line 1257, in __call__File "/home/appleyuchi/bigdata/spark-2.3.1-bin-hadoop2.7/python/pyspark/sql/utils.py", line 63, in decoreturn f(*a, **kw)File "/home/appleyuchi/bigdata/spark-2.3.1-bin-hadoop2.7/python/lib/py4j-0.10.7-src.zip/py4j/protocol.py", line 328, in get_return_value py4j.protocol.Py4JJavaError: An error occurred while calling o92.save. : java.lang.ClassNotFoundException: com.mysql.cj.jdbc.Driverat java.net.URLClassLoader.findClass(URLClassLoader.java:381)at java.lang.ClassLoader.loadClass(ClassLoader.java:424)at java.lang.ClassLoader.loadClass(ClassLoader.java:357)at org.apache.spark.sql.execution.datasources.jdbc.DriverRegistry$.register(DriverRegistry.scala:45)at org.apache.spark.sql.execution.datasources.jdbc.JDBCOptions$$anonfun$6.apply(JDBCOptions.scala:79)at org.apache.spark.sql.execution.datasources.jdbc.JDBCOptions$$anonfun$6.apply(JDBCOptions.scala:79)at scala.Option.foreach(Option.scala:257)at org.apache.spark.sql.execution.datasources.jdbc.JDBCOptions.<init>(JDBCOptions.scala:79)at org.apache.spark.sql.execution.datasources.jdbc.JDBCOptions.<init>(JDBCOptions.scala:35)at org.apache.spark.sql.execution.datasources.jdbc.JdbcRelationProvider.createRelation(JdbcRelationProvider.scala:60)at org.apache.spark.sql.execution.datasources.SaveIntoDataSourceCommand.run(SaveIntoDataSourceCommand.scala:45)at org.apache.spark.sql.execution.command.ExecutedCommandExec.sideEffectResult$lzycompute(commands.scala:70)at org.apache.spark.sql.execution.command.ExecutedCommandExec.sideEffectResult(commands.scala:68)at org.apache.spark.sql.execution.command.ExecutedCommandExec.doExecute(commands.scala:86)at org.apache.spark.sql.execution.SparkPlan$$anonfun$execute$1.apply(SparkPlan.scala:131)at org.apache.spark.sql.execution.SparkPlan$$anonfun$execute$1.apply(SparkPlan.scala:127)at org.apache.spark.sql.execution.SparkPlan$$anonfun$executeQuery$1.apply(SparkPlan.scala:155)at org.apache.spark.rdd.RDDOperationScope$.withScope(RDDOperationScope.scala:151)at org.apache.spark.sql.execution.SparkPlan.executeQuery(SparkPlan.scala:152)at org.apache.spark.sql.execution.SparkPlan.execute(SparkPlan.scala:127)at org.apache.spark.sql.execution.QueryExecution.toRdd$lzycompute(QueryExecution.scala:80)at org.apache.spark.sql.execution.QueryExecution.toRdd(QueryExecution.scala:80)at org.apache.spark.sql.DataFrameWriter$$anonfun$runCommand$1.apply(DataFrameWriter.scala:654)at org.apache.spark.sql.DataFrameWriter$$anonfun$runCommand$1.apply(DataFrameWriter.scala:654)at org.apache.spark.sql.execution.SQLExecution$.withNewExecutionId(SQLExecution.scala:77)at org.apache.spark.sql.DataFrameWriter.runCommand(DataFrameWriter.scala:654)at org.apache.spark.sql.DataFrameWriter.saveToV1Source(DataFrameWriter.scala:273)at org.apache.spark.sql.DataFrameWriter.save(DataFrameWriter.scala:267)at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:62)at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43)at java.lang.reflect.Method.invoke(Method.java:498)at py4j.reflection.MethodInvoker.invoke(MethodInvoker.java:244)at py4j.reflection.ReflectionEngine.invoke(ReflectionEngine.java:357)at py4j.Gateway.invoke(Gateway.java:282)at py4j.commands.AbstractCommand.invokeMethod(AbstractCommand.java:132)at py4j.commands.CallCommand.execute(CallCommand.java:79)at py4j.GatewayConnection.run(GatewayConnection.java:238)at java.lang.Thread.run(Thread.java:748)

解決方案:

mv mysql-connector-java-8.0.20.jar $SPARK_HOME/jars/

驅動文件mysql-connector-java-8.0.20.jar是從maven倉庫下載的:

https://mvnrepository.com/artifact/mysql/mysql-connector-java/8.0.20

?

注意,這個報錯的設置,需要搞清楚當前spark是什么mode,如果盲目照搬stackoverflow和百度,你會發現無效!

該結論的依據來自[1]中的表格.

spark-defaults.conf中設置如下:

spark.driver.extraClassPath ? = /home/appleyuchi/bigdata/apache-hive-3.0.0-bin/lib/mysql-connector-java-8.0.20.jar
spark.executor.extraClassPath = /home/appleyuchi/bigdata/apache-hive-3.0.0-bin/lib/mysql-connector-java-8.0.20.jar

spark.jars = /home/appleyuchi/bigdata/apache-hive-3.0.0-bin/lib/mysql-connector-java-8.0.20.jar

?

測試方法如下:

①pyspark --master yarn(然后在交互是模式中輸入交互式代碼)

②spark-submit --master yarn --deploy-mode cluster 源碼.py

#----------------------------------------------------------附錄-------------------------------------------------------------------------------------------------

源碼.py

import pandas as pd from pyspark.sql import SparkSession from pyspark import SparkContext from pyspark.sql import SQLContextdef map_extract(element):file_path, content = elementyear = file_path[-8:-4]return [(year, i) for i in content.split("\n") if i]spark = SparkSession\.builder\.appName("PythonTest")\.getOrCreate()res = spark.sparkContext.wholeTextFiles('hdfs://Desktop:9000/user/mercury/names',minPartitions=40) \.map(map_extract) \.flatMap(lambda x: x) \.map(lambda x: (x[0], int(x[1].split(',')[2]))) \.reduceByKey(lambda x,y:x+y)df = res.toDF(["key","num"]) #把已有數據列改成和目標mysql表的列的名字相同 # print(dir(df)) df.printSchema() print(df.show()) df.printSchema()df.write.format("jdbc").options(url="jdbc:mysql://Desktop:3306/leaf",driver="com.mysql.cj.jdbc.Driver",dbtable="spark",user="appleyuchi",password="appleyuchi").mode('append').save()

Reference:

[1]Spark Shell Add Multiple Drivers/Jars to Classpath using spark-defaults.conf
[2]Spark Configuration

[3]py4j.protocol.Py4JJavaError: An error occurred while calling o90.save(官方bug,目前沒有解決)

總結

以上是生活随笔為你收集整理的pyspark报错java.lang.ClassNotFoundException: com.mysql.cj.jdbc.Driver的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。

主站蜘蛛池模板: 国产一区亚洲二区 | 狠狠爱五月婷婷 | 久久免费视频精品 | 日韩视频在线观看一区二区三区 | 国产草草草 | 91视频免费视频 | 亚洲在线资源 | 黄色三级网络 | 亚洲av久久久噜噜噜熟女软件 | 国产又粗又深又猛又爽又在线观看 | 5d肉蒲团之性战奶水 | 国产欧美三区 | 成人午夜福利视频 | 亚洲风情第一页 | 国产伦视频 | 日韩成人精品一区 | 精品无码久久久久久久久果冻 | 亚洲图片在线播放 | 国产又大又黄的视频 | 亚洲精品成人区在线观看 | 日韩成人在线播放 | 极品久久久久 | 最新色视频 | 色偷偷91 | 波多野结衣av中文字幕 | 美腿丝袜亚洲色图 | 在线免费观看亚洲视频 | 成人片在线免费看 | www.五月婷婷 | 人人色网 | 成人小视频免费在线观看 | 青青草av | 一区二区三区亚洲精品 | 黄色网页入口 | www日韩精品 | 蜜臀久久99精品久久久久宅男 | 你懂的视频网站 | 翔田千里一区二区三区av | 暖暖av在线 | 日本一区二区黄色 | 亚洲国产综合视频 | 亚洲成年网站 | 日本韩国欧美一区二区三区 | 久久久久久国产精品免费播放 | 夜夜高潮夜夜爽国产伦精品 | 激情视频在线观看免费 | 成人激情开心网 | 欧美乱插 | porn国产| 国产精品久久久久久久免费 | av在线电影院 | 深田咏美在线x99av | 福利一二区 | 99色图| 成人av福利 | 黄视频网站在线观看 | 色香影院| 男男肉耽高h彩漫 | 国产一级理论 | 日韩av在线看免费观看 | 亚洲第九十七页 | 久久噜噜 | 高潮喷水一区二区三区 | 亚洲日本网站 | 国产精品毛片一区二区在线看 | 国产一级在线免费观看 | 一个人在线观看免费视频www | 毛片无码免费无码播放 | 日本欧美在线视频 | 亚洲av无一区二区三区怡春院 | 麻豆自拍偷拍 | 爱爱免费视频网站 | 毛片免费全部无码播放 | www.av88| 国产欧美一区在线观看 | 日本久久高清视频 | 亚洲欧洲一二三区 | 91视频播放器 | 国产成人在线网站 | 国产精品三级在线 | 国产freexxxx性播放麻豆 | 亚洲制服丝袜一区 | 狼干综合| 久久国产视频网站 | 亚洲一级理论片 | 精品乱码一区二区三区 | 国产精品一区在线看 | 成人在线一区二区三区 | 久久久久久9 | 亚洲成人av电影网站 | 亚洲成人精品av | 一个人在线免费观看www | 亚洲图片视频小说 | 久久视频免费在线观看 | 亚洲久草 | 欧美特黄一级大片 | 亚洲精品成人无码熟妇在线 | 变态另类一区二区 | 长篇乱肉合集乱500小说日本 |