什么流读取MultipartFile_深入理解并运用Node中的IO模型流
在 NodeJs 中,流隨處可見,讀/寫文件流,HTTP請求/返回流,stdin/stdout流。理解并運用好流會讓你的Node更具力量。
Stream
- lib/_stream_readable.js
- lib/_stream_writable.js
- lib/_stream_tranform.js
- lib/_stream_duplex.js
流主要有可讀 Readable,可寫流 Writable,雙工可讀可寫流 Duplex, Transform 流就是繼承 Duplex 的。
通過pipe管道,可讀流可以pipe到一個或多個可寫流。
看源碼能發現里面涉及了一堆狀態控制的代碼,什么時候讀,什么時候寫,什么時候暫停讀。
大部分情況下程序面對的問題。通常都可以抽象成一個輸入/輸出的問題,中間可能會包含轉換。
實際問題怎么運用流呢。
讀取大文件
小文件可以一次性讀到內存,但如果一個 10G 的文件呢?ReadLine 模塊很好用但是你知道背后怎么實現的嗎。
試試怎么用 stream.Transform 來自己實現一個readLine
通過實現一個消費/可寫流我們就可以來對大文件進行處理,比如說實現一個 word count 計數器, 從文件導入到數據庫。
而不用擔心需要一次性讀取整個文件到內存里out of memory這種問題。
通過繼承 strean 模塊我們也不需要過多的去考慮什么時候該讀,什么時候因為寫的壓力大(背壓),該停止讀,讓整個讀寫流有序的運行。
你只需要專注于實現你自己的 write read transform
Spark, Strom 的實時計算流也是這樣的,大任務分解成小任務,只需要專注于自己業務邏輯的 map,reduce
單機爬蟲
再舉個栗子, 它的輸入可能是一堆 URL、輸出是結構化的數據。需要寫入到關系型數據庫。
- 可以把 URL 數據獲取抽象成一個可讀流,
- 爬取過程,數據提取抽象成一個 transform 流
- 寫入數據庫抽象成一個可寫流,
只需要約定好每個過程輸出的數據模型,就可以在每個過程實現各種目的不一樣的流。
- 如數據源,可以是讀取文件,MYQL,分布式列隊
- 抓取轉換流,可以是普通的 HTTP爬蟲,Puppeteer 可渲染性爬蟲
- 數據存儲流,可以寫文件,MYQL,或者HDFS
read > transform > write
這樣程序看起來是不是特別簡潔?
URL 讀取流
const把 URL 的變成結構化數據的轉換流
constmysql 入庫寫入流
// mysql表模型是不是簡潔明了?
在Node中異步流隨處可見,誰讓它基因就是這樣呢。
參考:
- https://nodejs.org/api/stream.html
- https://www.barretlee.com/blog/2017/06/06/dive-to-nodejs-at-stream-module/
- https://nodejs.org/en/docs/guides/backpressuring-in-streams/
總結
以上是生活随笔為你收集整理的什么流读取MultipartFile_深入理解并运用Node中的IO模型流的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 苹果手机怎么关闭腾讯视频自动续费
- 下一篇: mac json格式化工具_简洁好用的工