日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

spark出现task不能序列化错误的解决方法 org.apache.spark.SparkException: Task not serializable

發布時間:2024/1/17 编程问答 35 豆豆
生活随笔 收集整理的這篇文章主要介紹了 spark出现task不能序列化错误的解决方法 org.apache.spark.SparkException: Task not serializable 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

出現“task not serializable"這個錯誤,一般是因為在map、filter等的參數使用了外部的變量,但是這個變量不能序列化。特別是當引用了某個類(經常是當前類)的成員函數或變量時,會導致這個類的所有成員(整個類)都需要支持序列化。解決這個問題最常用的方法有:

?

  • 如果可以,將依賴的變量放到map、filter等的參數內部定義。這樣就可以使用不支持序列化的類;
  • 如果可以,將依賴的變量獨立放到一個小的class中,讓這個class支持序列化;這樣做可以減少網絡傳輸量,提高效率;
  • 如果可以,將被依賴的類中不能序列化的部分使用transient關鍵字修飾,告訴編譯器它不需要序列化。
  • 將引用的類做成可序列化的。
  • 以下這兩個沒試過。。
    • Make the NotSerializable object as a static and create it once per machine.
    • Call rdd.forEachPartition and create the NotSerializable object in there like this:

    ==================

    ref[1]:<http://databricks.gitbooks.io/databricks-spark-knowledge-base/content/troubleshooting/javaionotserializableexception.html>

    ?

    If you see this error:

    org.apache.spark.SparkException: Job aborted due to stage failure: Task not serializable: java.io.NotSerializableException: ...

    The above error can be triggered when you intialize a variable on the driver (master), but then try to use it on one of the workers. In that case, Spark Streaming will try to serialize the object to send it over to the worker, and fail if the object is not serializable. Consider the following code snippet:

    NotSerializable notSerializable = new NotSerializable(); JavaRDD<String> rdd = sc.textFile("/tmp/myfile");rdd.map(s -> notSerializable.doSomething(s)).collect();

    This will trigger that error. Here are some ideas to fix this error:

    • Serializable the class
    • Declare the instance only within the lambda function passed in map.
    • Make the NotSerializable object as a static and create it once per machine.
    • Call rdd.forEachPartition and create the NotSerializable object in there like this:
    rdd.forEachPartition(iter -> {NotSerializable notSerializable = new NotSerializable();// ...Now process iter });

    ?

    Pasted from:?<http://databricks.gitbooks.io/databricks-spark-knowledge-base/content/troubleshooting/javaionotserializableexception.html>

    ?

    另外, stackoverflow上http://stackoverflow.com/questions/25914057/task-not-serializable-exception-while-running-apache-spark-job?這個答的也很簡明易懂。

    創作挑戰賽新人創作獎勵來咯,堅持創作打卡瓜分現金大獎

    總結

    以上是生活随笔為你收集整理的spark出现task不能序列化错误的解决方法 org.apache.spark.SparkException: Task not serializable的全部內容,希望文章能夠幫你解決所遇到的問題。

    如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。