日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

MaxCompute中如何通过logview诊断慢作业

發布時間:2024/8/23 编程问答 35 豆豆
生活随笔 收集整理的這篇文章主要介紹了 MaxCompute中如何通过logview诊断慢作业 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

簡介: MaxCompute致力于批量結構化數據的存儲和計算,提供海量數據倉庫的解決方案及分析建模服務,在MaxCompute執行sql任務的時候有時候作業會很慢,本文通過查看logview排查具體任務慢的原因

在這里把任務跑的慢的問題劃分為以下幾類

  • 資源不足導致的排隊(一般是包年包月項目)
  • 數據傾斜,數據膨脹
  • 用戶自身邏輯導致的運行效率低下
  • 一、資源不足

    一般的SQL任務會占用CPU、Memory這兩個維度的資源,logview如何查看參考鏈接

    1.1 查看作業耗時和執行的階段

    1.2 提交任務的等待

    如果提交任務以后一直顯示“Job Queueing...”則有可能是由于其他人的任務占用了資源組的資源,使得自己的任務在排隊。

    在SubStatusHistory中看Waiting for scheduling就是等待的時間

    1.3 任務提交后的資源不足

    這里還有另一種情況,雖然任務可以提交成功,但是由于所需的資源較大,當前的資源組不能同時啟動所有的實例,導致出現了任務雖然有進度,但是執行并不快的情況。這種可以通過logview中的latency chart功能觀察到。latency chart可以在detail中點擊相應的task看到

    上圖顯示的是一個資源充足的任務運行狀態,可以看到藍色部分的下端都是平齊的,表示幾乎在同一時間啟動了所有的實例。

    而這個圖形的下端呈現階梯向上的形態,表示任務的實例是一點一點的調度起來的,運行任務時資源并不充足。如果任務的重要性較高,可以考慮增加資源,或者調高任務的優先級。

    1.4資源不足的原因

    1.通過cu管家查看cu是否占滿,點到對應的任務點,找到對應時間看作業提交的情況

    ?按cpu占比進行排序

    (1)某個任務占用cu特別大,找到大任務看logview是什么原因造成(小文件過多、數據量確實需要這么多資源)。

    (2)cu占比均勻說明是同時提交多個大任務把cu資源直接打滿。

    ?

    2.由于小文件過多導致cu占慢

    map階段的并行度是根據輸入文件的分片大小,從而間接控制每個Map階段下Worker的數量。默認是256m。如果是小文件會當作一個塊讀取如下圖map階段m1每個task的i/o bytes都只有1m或者幾十kb,所以造成2500多個并行度瞬間把資源打滿,說明該表下文件過多需要合并小文件

    合并小文件https://help.aliyun.com/knowledge_detail/150531.html?spm=a2c4g.11186623.6.1198.60ea4560Hr5H8d#section-5nj-hoa-d7f

    3.數據量大導致資源占滿

    可以增加購買資源,如果是臨時作業可以加set odps.task.quota.preference.tag=payasyougo;參數,可以讓指定作業臨時跑到按量付費大資源池,

    1.5任務并行度如何調節

    MaxCompute的并行度會根據輸入的數據和任務復雜度自動推測執行,一般不需要調節,理想情況并行度越大速度處理越快但是對于包年包月資源組可能會把資源組占滿,導致任務都在等待資源這種情況會導致任務變慢

    map階段并行度

    odps.stage.mapper.split.size :修改每個Map Worker的輸入數據量,即輸入文件的分片大小,從而間接控制每個Map階段下Worker的數量。單位MB,默認值為256 MB

    reduce的并行度

    odps.stage.reducer.num :修改每個Reduce階段的Worker數量

    odps.stage.num:修改MaxCompute指定任務下所有Worker的并發數,優先級低于odps.stage.mapper.split.sizeodps.stage.reducer.memodps.stage.joiner.num屬性。

    odps.stage.joiner.num:修改每個Join階段的Worker數量。

    二、數據傾斜

    數據傾斜

    【特征】task 中大多數 instance 都已經結束了,但是有某幾個 instance 卻遲遲不結束(長尾)。如下圖中大多數(358個)instance 都結束了,但是還有 18 個的狀態是 Running,這些 instance 運行的慢,可能是因為處理的數據多,也可能是這些instance 處理特定數據慢。

    ?解決方法:https://help.aliyun.com/document_detail/102614.html?spm=a2c4g.11186623.6.1160.28c978569uyE9f

    三、邏輯問題

    這里指用戶的SQL或者UDF邏輯低效,或者沒有使用最優的參數設定。表現出來的現象時一個Task的運行時間很長,而且每個實例的運行時間也比較均勻。這里的情況更加多種多樣,有些是確實邏輯復雜,有些則有較大的優化空間。

    數據膨脹

    【特征】task 的輸出數據量比輸入數據量大很多。

    比如 1G 的數據經過處理,變成了 1T,在一個 instance 下處理 1T 的數據,運行效率肯定會大大降低。輸入輸出數據量體現在 Task 的 I/O Record 和 I/O Bytes 這兩項:

    ?解決方法:確認業務邏輯確實需要這樣,增大對應階段并行度

    UDF執行效率低

    【特征】某個 task 執行效率低,且該 task 中有用戶自定義的擴展。甚至是 UDF 的執行超時報錯:“Fuxi job failed - WorkerRestart errCode:252,errMsg:kInstanceMonitorTimeout, usually caused by bad udf performance”。

    首先確定udf位置,點看慢的fuxi task, 可以看到operator graph 中是否包含udf,例如下圖說明有java 的udf。

    ?

    ?通過查看logview 中fuxi instance 的stdout 可以查看該operator 運行速度,正常情況 Speed(records/s) 在百萬或者十萬級別。

    ?解決方法:檢查udf邏輯盡量使用內置函數

    原文鏈接

    本文為阿里云原創內容,未經允許不得轉載。

    總結

    以上是生活随笔為你收集整理的MaxCompute中如何通过logview诊断慢作业的全部內容,希望文章能夠幫你解決所遇到的問題。

    如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。