日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

什么是Apache Spark?这篇文章带你从零基础学起

發布時間:2025/3/15 编程问答 45 豆豆
生活随笔 收集整理的這篇文章主要介紹了 什么是Apache Spark?这篇文章带你从零基础学起 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.


導讀:Apache Spark是一個強大的開源處理引擎,最初由Matei Zaharia開發,是他在加州大學伯克利分校的博士論文的一部分。Spark的第一個版本于2012年發布。


Apache Spark是快速、易于使用的框架,允許你解決各種復雜的數據問題,無論是半結構化、結構化、流式,或機器學習、數據科學。它也已經成為大數據方面最大的開源社區之一,擁有來自250多個組織的超過1000個貢獻者,以及遍布全球570多個地方的超過30萬個Spark Meetup社區成員。


在本文中,我們將提供一個了解Apache Spark的切入點。我們將解釋Spark Job和API背后的概念。


作者:托馬茲·卓巴斯(Tomasz Drabas),丹尼·李(Denny Lee)

如需轉載請聯系大數據(ID:hzdashuju)




01 什么是Apache Spark


Apache Spark是一個開源的、強大的分布式查詢和處理引擎。它提供MapReduce的靈活性和可擴展性,但速度明顯更高:當數據存儲在內存中時,它比Apache Hadoop快100倍,訪問磁盤時高達10倍。


Apache Spark允許用戶讀取、轉換、聚合數據,還可以輕松地訓練和部署復雜的統計模型。Java、Scala、Python、R和SQL都可以訪問 Spark API。


Apache Spark可用于構建應用程序,或將其打包成為要部署在集群上的庫,或通過筆記本(notebook)(例如Jupyter、Spark-Notebook、Databricks notebooks和Apache Zeppelin)交互式執行快速的分析。


Apache Spark提供的很多庫會讓那些使用過Python的pandas或R語言的data.frame 或者data.tables的數據分析師、數據科學家或研究人員覺得熟悉。非常重要的一點是,雖然Spark DataFrame會讓pandas或data.frame、data.tables用戶感到熟悉,但是仍有一些差異,所以不要期望過高。具有更多SQL使用背景的用戶也可以用該語言來塑造其數據。


此外,Apache Spark還提供了幾個已經實現并調優過的算法、統計模型和框架:為機器學習提供的MLlib和ML,為圖形處理提供的GraphX和GraphFrames,以及Spark Streaming(DStream和Structured)。Spark允許用戶在同一個應用程序中隨意地組合使用這些庫。


Apache Spark可以方便地在本地筆記本電腦上運行,而且還可以輕松地在獨立模式下通過YARN或Apache Mesos于本地集群或云中進行部署。它可以從不同的數據源讀取和寫入,包括(但不限于)HDFS、Apache Cassandra、Apache HBase和S3:


▲資料來源:Apache Spark is the smartphone of Big Data

http://bit.ly/1QsgaNj



02 Spark作業和API


在本節中,我們將簡要介紹Apache Spark作業(job)和API


1. 執行過程


任何Spark應用程序都會分離主節點上的單個驅動進程(可以包含多個作業),然后將執行進程(包含多個任務)分配給多個工作節點,如下圖所示:



驅動進程會確定任務進程的數量和組成,這些任務進程是根據為指定作業生成的圖形分配給執行節點的。注意,任何工作節點都可以執行來自多個不同作業的多個任務。


Spark作業與一系列對象依賴相關聯,這些依賴關系是以有向無環圖(DAG)的方式組織的,例如從Spark UI生成的以下示例。基于這些,Spark可以優化調度(例如確定所需的任務和工作節點的數量)并執行這些任務。


有關DAG調度器的更多信息,請參考:

http://bit.ly/29WTiK8


2. 彈性分布式數據集


彈性分布式數據集(簡稱RDD)是不可變Java虛擬機(JVM)對象的分布式集合,Apache Spark就是圍繞著RDD而構建的。我們使用Python時,尤為重要的是要注意Python數據是存儲在這些JVM對象中的。


這些對象允許作業非常快速地執行計算。對RDD的計算依據緩存和存儲在內存中的模式進行:與其他傳統分布式框架(如Apache Hadoop)相比,該模式使得計算速度快了一個數量級。


同時,RDD會給出一些粗粒度的數據轉換(例如map(...)、reduce(...)和filter(...)),保持Hadoop平臺的靈活性和可擴展性,以執行各種各樣的計算。RDD以并行方式應用和記錄數據轉換,從而提高了速度和容錯能力。


通過注冊這些轉換,RDD提供數據沿襲——以圖形形式給出的每個中間步驟的祖先樹。這實際上保護RDD免于數據丟失——如果一個RDD的分區丟失,它仍然具有足夠的信息來重新創建該分區,而不是簡單地依賴復制。


更多數據沿襲信息參見:

http://ibm.co/2ao9B1t


RDD有兩組并行操作:轉換(返回指向新RDD的指針)和動作(在運行計算后向驅動程序返回值)。


請參閱Spark編程指南,獲取最新的轉換和動作列表:

?http://spark.apache.org/docs/latest/programming-guide.html#rdd-operations


某種意義上來說,RDD轉換操作是惰性的,因為它們不立即計算其結果。只有動作執行了并且需要將結果返回給驅動程序時,才會計算轉換。該延遲執行會產生更多精細查詢:針對性能進行優化的查詢。


這種優化始于Apache Spark的DAGScheduler——面向階段的調度器,使用如上面截圖中所示的階段進行轉換。由于具有單獨的RDD轉換和動作,DAGScheduler可以在查詢中執行優化,包括能夠避免shuffle數據(最耗費資源的任務)。


有關DAGScheduler和優化(特別是窄或寬依賴關系)的更多信息,有一個很好的參考是《Effective Transformations》第5章:


https://smile.amazon.com/High-Performance-Spark-Practices-Optimizing/dp/1491943203


3. DataFrame


DataFrame像RDD一樣,是分布在集群的節點中的不可變的數據集合。然而,與RDD不同的是,在DataFrame中,數據是以命名列的方式組織的。


如果你熟悉Python的pandas或者R的data.frames,這是一個類似的概念。


DataFrame旨在使大型數據集的處理更加容易。它們允許開發人員對數據結構進行形式化,允許更高級的抽象。在這個意義上來說,DataFrame與關系數據庫中的表類似。DataFrame提供了一個特定領域的語言API來操作分布式數據,使Spark可以被更廣泛的受眾使用,而不只是專門的數據工程師。


DataFrame的一個主要優點是,Spark引擎一開始就構建了一個邏輯執行計劃,而且執行生成的代碼是基于成本優化程序確定的物理計劃。與Java或者Scala相比,Python中的RDD是非常慢的,而DataFrame的引入則使性能在各種語言中都保持穩定。


4. Catalyst優化器


Spark SQL是Apache Spark最具技術性的組件之一,因為它支持SQL查詢和DataFrame API。Spark SQL的核心是Catalyst優化器。優化器基于函數式編程結構,并且旨在實現兩個目的:簡化向Spark SQL添加新的優化技術和特性的條件,并允許外部開發人員擴展優化器(例如,添加數據源特定規則,支持新的數據類型等等):



詳細信息,請查看Deep Dive into Spark SQL’s Catalyst Optimizer :

http://bit.ly/271I7Dk

和Apache Spark DataFrames:?

Simple and Fast Analysis of Structured Data?

http://bit.ly/29QbcOV


6. 鎢絲計劃


Tungsten(鎢絲)是Apache Spark執行引擎項目的代號。該項目的重點是改進Spark算法,使它們更有效地使用內存和CPU,使現代硬件的性能發揮到極致。


該項目的工作重點包括:


  • 顯式管理內存,以消除JVM對象模型和垃圾回收的開銷。

  • 設計利用內存層次結構的算法和數據結構。

  • 在運行時生成代碼,以便應用程序可以利用現代編譯器并優化CPU。

  • 消除虛擬函數調度,以減少多個CPU調用。

  • 利用初級編程(例如,將即時數據加載到CPU寄存器),以加速內存訪問并優化Spark的引擎,以有效地編譯和執行簡單循環。


更多詳細信息,請參考Project Tungsten:?

Bringing Apache Spark Closer to Bare Metal?

https://databricks.com/blog/2015/04/28/project-tungstenbringing-spark-closer-to-bare-metal.html

Deep Dive into Project Tungsten: Bringing Spark Closer to Bare Metal [SSE 2015 Video and Slides

https://spark-summit.org/2015/events/deep-dive-into-project-tungsten-bringing-spark-closerto-bare-metal/

Apache Spark as a Compiler: Joining a Billion Rows per Second on a Laptop?

https://databricks.com/blog/2016/05/23/apache-sparkas-a-compiler-joining-a-billion-rows-per-second-on-alaptop.html


本文摘編自《PySpark實戰指南:利用Python和Spark構建數據密集型應用并規模化部署》,經出版方授權發布。


延伸閱讀《PySpark實戰指南

點擊上圖了解及購買

轉載請聯系微信:DoctorData


推薦語:Pyspark的實用參考指南,深度挖掘Python+Spark的強大功能。?


長按識別下方小程序碼

發現更多好書




據統計,99%的大咖都完成了這個神操作



更多精彩


在公眾號后臺對話框輸入以下關鍵詞

查看更多優質內容!


PPT?|?報告?|?讀書?|?書單?|?干貨?

大數據?|?揭秘?|?Python?|?可視化

人工智能?|?機器學習?|?深度學習?|?神經網絡

AI?|?1024?|?段子?|?區塊鏈?|?數學


猜你想看


  • 如果數據有質量,地球將成黑洞?

  • 干貨:一文看懂網絡爬蟲實現原理與技術(值得收藏)

  • 一文了解人臉識別:從實現方法到應用場景都講明白了

  • 8本前沿技術書,助力這屆「青年人」將科幻變成現實



Q:?關于Spark,你還想了解哪方面內容?

歡迎留言與大家分享

覺得不錯,請把這篇文章分享給你的朋友

轉載 / 投稿請聯系:baiyu@hzbook.com

更多精彩,請在后臺點擊“歷史文章”查看

點擊閱讀原文,了解更多

新人創作打卡挑戰賽發博客就能抽獎!定制產品紅包拿不停!

總結

以上是生活随笔為你收集整理的什么是Apache Spark?这篇文章带你从零基础学起的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。