日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程语言 > python >内容正文

python

python 文件分割 按大小_python处理分隔大文件

發布時間:2023/12/19 python 28 豆豆
生活随笔 收集整理的這篇文章主要介紹了 python 文件分割 按大小_python处理分隔大文件 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

4個.sql格式的文件,2G大小,直接插入mysql數據中,文件太大了,導入不進去。

太大的文件用python處理也很麻煩,處理不了,只能先分隔成小文件處理。

文件中數據格式:其中values里面的數據才是需要的。

insert into posdata_track_12_1 (SEQID, HOSTID, HOSTNO, POS_TIME, POS_DATAFMT, POS_LAT, POS_LONG, POS_SPEED, POS_ANGLE, POS_STARS, POS_SIGLEVEL, GATENO, REC_TIME, SAVEDTOHISREC, POSDESCRIPTION, ACCSTATUS, GPSCHANNALTYPE, HIGHBEAMSTATUS, LOWBEAMSTATUS, LEFTTURNSTATUS, RIGHTTURNSTATUS, BRAKESTATUS)

values (7, 8, 'aa', to_date('05-12-2016 17:16:35', 'dd-mm-yyyy hh24:mi:ss'), 0, 31.991888, 118.751997, 0, 209, -1, '00', 22, to_date('05-12-2016 23:14:00', 'dd-mm-yyyy hh24:mi:ss'), 0, '*', -1, 1, 1, 1, 1, 1, 1);

insert into posdata_track_12_1 (SEQID, HOSTID, HOSTNO, POS_TIME, POS_DATAFMT, POS_LAT, POS_LONG, POS_SPEED, POS_ANGLE, POS_STARS, POS_SIGLEVEL, GATENO, REC_TIME, SAVEDTOHISREC, POSDESCRIPTION, ACCSTATUS, GPSCHANNALTYPE, HIGHBEAMSTATUS, LOWBEAMSTATUS, LEFTTURNSTATUS, RIGHTTURNSTATUS, BRAKESTATUS)

values (4, 5, 'bb', to_date('05-12-2016 23:14:08', 'dd-mm-yyyy hh24:mi:ss'), 0, 32.146457, 118.866008, 3, 335, -1, '00', 21, to_date('05-12-2016 23:14:12', 'dd-mm-yyyy hh24:mi:ss'), 0, '*', -1, 1, 1, 1, 1, 1, 1);

第一步 :把文件每個大文件分成很多個100M左右的小文件,單獨建文件夾

在 linux 下 ,分隔文件語句有2種寫法,按照行分隔和按照大小分隔。

為了避免某一行數據被拆分掉導致數據出錯,要按照行分隔,但是按行分隔,不知道多好行合適,一般100M合適。那么先按照大小分隔一次,看每個100M的文件是多好行,然后按照這么多行分隔即可。

按大小分隔語句:split -b 102400k 7.sql ? ?#表示每個大文件被分隔成 100M,分成多少個是系統自動分的

按行分隔,假設上面語句得到每個文件是 50萬行,那么 語句為:split -l 500000 ? 7.sql

這樣就實現了 每個小文件100M,且不會出現某一行被分開的情況。分隔后的文件是系統自動命名的,

第二步,用python處理文件

因為只有4個大文件,所以建立4個文件夾,每個文件夾里面放每個大文件分隔出來得小文件。

一個文件夾一個的處理。假設第一個文件夾是 7m_sql,最終輸出了data_out文件。程序中先獲取這個文件夾下面的所有文件,再循環處理每個文件,最后統一輸出到一個文件中。

因為.sql文件中有很多“insert into。。。”等插入表結構的臟數據,所以要去掉這些數據,好在他們是一行的。這個處理完了,就可以了,輸出的是文件,直接導入hive即可。

還要注意一點是,剛開始文件從window系統傳過來的,程序可能會格式亂碼報錯。要知道源文件是什么編碼的格式,不知道的話,就試ascii,gbk,gbk2312,utf8等格式。我這個是gbk2312的格式。

import os

import copy

import codecs

os.chdir('/Users/a/Desktop/7m_sql')

wk_dir="/Users/a/Desktop/7m_sql"

def get_filename(wk_dir):

file_name=[]

fi=[]

for root,dirs,files in os.walk(wk_dir):

fi=files

for j in range(len(fi)):

#if fi[j][-3:] in ('xls','XLS') :

file_name.append(fi[j])

if '.DS_Store' in file_name:

file_name.remove('.DS_Store')

return file_name

file_name_lt=get_filename(wk_dir)

print file_name_lt

data_lt=[]

for t in file_name_lt:

print t

f_in = codecs.open(t,'r','gb2312')

for i in f_in.readlines():

#print i#.decode('utf8')

if i[:6]=="values":

a=i.replace('values','').replace('to_date(','').replace(', \'dd-mm-yyyy hh24:mi:ss\'','') \

.replace('(','').replace(')','').replace(';','').replace('\'','').strip()

#print a

b=a.split(',')

#print b

data_lt.append(b)

f_in.close()

f_out=codecs.open('data_out','w','utf-8')

for j in data_lt:

f_out.write('|'.join(j)+'\n')

總結

以上是生活随笔為你收集整理的python 文件分割 按大小_python处理分隔大文件的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。