50-100G大文件的处理办法
生活随笔
收集整理的這篇文章主要介紹了
50-100G大文件的处理办法
小編覺得挺不錯(cuò)的,現(xiàn)在分享給大家,幫大家做個(gè)參考.
文章目錄
- 1. 使用分布式框架處理,如上次介紹的spark
- 2. 使用pandas chunk, 不比單機(jī)版的spark慢
- 3. 使用dask pandas , 分布式的pandas
1. 使用分布式框架處理,如上次介紹的spark
這種情況下集群才有優(yōu)勢(shì),local單機(jī)版只能使用8G內(nèi)存,rdd的優(yōu)勢(shì)也沒發(fā)揮出來,好在是多patition和多任務(wù)。
2. 使用pandas chunk, 不比單機(jī)版的spark慢
import pandas as pd df_chunk = pd.read_json('F://total.json', chunksize=1000000, lines=True,encoding='utf-8') chunk_list = [] # append each chunk df here i =1 #%% # Each chunk is in df format for chunk in df_chunk:# perform data filtering# chunk_filter = chunk_preprocessing(chunk)# Once the data filtering is done, append the chunk to list# chunk_list.append(chunk_filter)chunk_list.append(chunk)print("當(dāng)前chunnk:{}".format(i))i += 1# concat the list into dataframe df_concat = pd.concat(chunk_list)每塊100萬跑滿16G內(nèi)存。上述方法用到list,也就是處理后的數(shù)據(jù)list不能超過你電腦的內(nèi)存,有局限性。
3. 使用dask pandas , 分布式的pandas
import dask import dask.dataframe as dd from dask.distributed import Client client = Client(processes=False, threads_per_worker=4, n_workers=4, memory_limit='12GB') #%% df = dd.read_csv("F://total2.csv", blocksize=25e6,encoding='utf-8',dtype='object') #%% for i in df.columns:print("{}".format(df.head(1)[i]))#%% logs = 'Mismatched dtypes found in `pd.read_csv`/`pd.read_table`.\n\n+----------------------------------+--------+----------+\n| Column | Found | Expected |\n+----------------------------------+--------+----------+\n| check.0.reportorphone | object | float64 |\n| damagetypecode | object | float64 |\n| lossmain.0.handlercode | object | float64 |\n| lossmain.0.repairbrandcode | object | float64 |\n| lossmain.0.repairbrandname | object | float64 |\n| lossmain.0.repairfactorycode | object | float64 |\n| lossmain.0.repairfactoryname | object | float64 |\n| lossthirdparty.0.insurecomcode | object | float64 |\n| lossthirdparty.0.losscarkindname | object | float64 |\n| lossthirdparty.0.thirdcarlinker | object | float64 |\n| lossthirdparty.0.vinno | object | float64 |\n| phonenumber | object | int64 |\n| prplcitemcar.0.brandid | object | float64 |\n| prplcitemcar.0.brandname1 ' print(logs)上述log錯(cuò)誤的接解決方法:dtype=‘object’
與50位技術(shù)專家面對(duì)面20年技術(shù)見證,附贈(zèng)技術(shù)全景圖總結(jié)
以上是生活随笔為你收集整理的50-100G大文件的处理办法的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: spark搭建和使用,处理massive
- 下一篇: pandas读取大文件csv容易出现的错