python 基础之文件读操作
生活随笔
收集整理的這篇文章主要介紹了
python 基础之文件读操作
小編覺(jué)得挺不錯(cuò)的,現(xiàn)在分享給大家,幫大家做個(gè)參考.
創(chuàng)建一個(gè)名為‘塵曦’的文件內(nèi)容如下
Hadoop是一個(gè)由Apache基金會(huì)所開(kāi)發(fā)的分布式系統(tǒng)基礎(chǔ)架構(gòu)。 用戶(hù)可以在不了解分布式底層細(xì)節(jié)的情況下,開(kāi)發(fā)分布式程序。充分利用集群的威力進(jìn)行高速運(yùn)算和存儲(chǔ)。 [1] Hadoop實(shí)現(xiàn)了一個(gè)分布式文件系統(tǒng)(Hadoop Distributed File System),簡(jiǎn)稱(chēng)HDFS。HDFS有高容錯(cuò)性的特點(diǎn),并且設(shè)計(jì)用來(lái)部署在低廉的(low-cost)硬件上;而且它提供高吞吐量(high throughput)來(lái)訪(fǎng)問(wèn)應(yīng)用程序的數(shù)據(jù),適合那些有著超大數(shù)據(jù)集(large data set)的應(yīng)用程序。HDFS放寬了(relax)POSIX的要求,可以以流的形式訪(fǎng)問(wèn)(streaming access)文件系統(tǒng)中的數(shù)據(jù)。 Hadoop的框架最核心的設(shè)計(jì)就是:HDFS和MapReduce。HDFS為海量的數(shù)據(jù)提供了存儲(chǔ),而MapReduce則為海量的數(shù)據(jù)提供了計(jì)算文件讀操作
x=open('塵曦','r',encoding='utf8')#定義文件對(duì)象及字符集 cx=x.read()#讀取文件 print(cx) x.close()#關(guān)閉文件測(cè)試
D:\python\python.exe D:/untitled/dir/for.py Hadoop是一個(gè)由Apache基金會(huì)所開(kāi)發(fā)的分布式系統(tǒng)基礎(chǔ)架構(gòu)。 用戶(hù)可以在不了解分布式底層細(xì)節(jié)的情況下,開(kāi)發(fā)分布式程序。充分利用集群的威力進(jìn)行高速運(yùn)算和存儲(chǔ)。 [1] Hadoop實(shí)現(xiàn)了一個(gè)分布式文件系統(tǒng)(Hadoop Distributed File System),簡(jiǎn)稱(chēng)HDFS。HDFS有高容錯(cuò)性的特點(diǎn),并且設(shè)計(jì)用來(lái)部署在低廉的(low-cost)硬件上;而且它提供高吞吐量(high throughput)來(lái)訪(fǎng)問(wèn)應(yīng)用程序的數(shù)據(jù),適合那些有著超大數(shù)據(jù)集(large data set)的應(yīng)用程序。HDFS放寬了(relax)POSIX的要求,可以以流的形式訪(fǎng)問(wèn)(streaming access)文件系統(tǒng)中的數(shù)據(jù)。 Hadoop的框架最核心的設(shè)計(jì)就是:HDFS和MapReduce。HDFS為海量的數(shù)據(jù)提供了存儲(chǔ),而MapReduce則為海量的數(shù)據(jù)提供了計(jì)算Process finished with exit code 0讀取文件前9個(gè)字符
x=open('塵曦','r',encoding='utf8')#定義文件對(duì)象及字符集 cx=x.read(9)#讀取文件的前9個(gè)字符 print(cx) x.close()#關(guān)閉文件測(cè)試
D:\python\python.exe D:/untitled/dir/for.py Hadoop是一個(gè)Process finished with exit code 0寫(xiě)文件操作
h=open('塵曦','r',encoding='utf8')# 先讀 ch=h.read() print(ch) h.close() x=open('塵曦','w',encoding='utf8')#定義文件的操作對(duì)象及字符集,w寫(xiě);注意它寫(xiě)之前把文件清空 x.write('fghgfhh') x.close()print('修改成功') c=open('塵曦','r',encoding='utf8')#改完后去讀,查看內(nèi)容 cc = c.read() print(cc) c.close()
測(cè)試
Hadoop是一個(gè)由Apache基金會(huì)所開(kāi)發(fā)的分布式系統(tǒng)基礎(chǔ)架構(gòu)。 用戶(hù)可以在不了解分布式底層細(xì)節(jié)的情況下,開(kāi)發(fā)分布式程序。充分利用集群的威力進(jìn)行高速運(yùn)算和存儲(chǔ)。 [1] Hadoop實(shí)現(xiàn)了一個(gè)分布式文件系統(tǒng)(Hadoop Distributed File System),簡(jiǎn)稱(chēng)HDFS。HDFS有高容錯(cuò)性的特點(diǎn),并且設(shè)計(jì)用來(lái)部署在低廉的(low-cost)硬件上;而且它提供高吞吐量(high throughput)來(lái)訪(fǎng)問(wèn)應(yīng)用程序的數(shù)據(jù),適合那些有著超大數(shù)據(jù)集(large data set)的應(yīng)用程序。HDFS放寬了(relax)POSIX的要求,可以以流的形式訪(fǎng)問(wèn)(streaming access)文件系統(tǒng)中的數(shù)據(jù)。 Hadoop的框架最核心的設(shè)計(jì)就是:HDFS和MapReduce。HDFS為海量的數(shù)據(jù)提供了存儲(chǔ),而MapReduce則為海量的數(shù)據(jù)提供了計(jì)算 修改成功 fghgfhh新建一個(gè)文件與文件追加操作
c = open('塵曦-2','w',encoding='utf8') c.write('哈哈哈') c.write('塵曦')查看新文件
哈哈哈塵曦查看打開(kāi)的文件句柄
c = open('塵曦-2','w',encoding='utf8') print(c.fileno()) #打印文件句柄 c.write('哈哈哈') c.write('塵曦')測(cè)試
D:\python\python.exe D:/untitled/dir/for.py 3Process finished with exit code 0對(duì)文件追加內(nèi)容
d = open('塵曦','r',encoding='utf8') xd = d.read() print(xd) f = open('塵曦','a',encoding='utf8') f.write('\n chenxi hahqa') f.write('\n dff') f.close() x = open('塵曦','r',encoding='utf8') cx = x.read() print(cx) x.close()測(cè)試
D:\python\python.exe D:/untitled/dir/for.py Hadoop是一個(gè)由Apache基金會(huì)所開(kāi)發(fā)的分布式系統(tǒng)基礎(chǔ)架構(gòu)。 用戶(hù)可以在不了解分布式底層細(xì)節(jié)的情況下,開(kāi)發(fā)分布式程序。充分利用集群的威力進(jìn)行高速運(yùn)算和存儲(chǔ)。 [1] Hadoop實(shí)現(xiàn)了一個(gè)分布式文件系統(tǒng)(Hadoop Distributed File System),簡(jiǎn)稱(chēng)HDFS。HDFS有高容錯(cuò)性的特點(diǎn),并且設(shè)計(jì)用來(lái)部署在低廉的(low-cost)硬件上;而且它提供高吞吐量(high throughput)來(lái)訪(fǎng)問(wèn)應(yīng)用程序的數(shù)據(jù),適合那些有著超大數(shù)據(jù)集(large data set)的應(yīng)用程序。HDFS放寬了(relax)POSIX的要求,可以以流的形式訪(fǎng)問(wèn)(streaming access)文件系統(tǒng)中的數(shù)據(jù)。 Hadoop的框架最核心的設(shè)計(jì)就是:HDFS和MapReduce。HDFS為海量的數(shù)據(jù)提供了存儲(chǔ),而MapReduce則為海量的數(shù)據(jù)提供了計(jì)算Hadoop是一個(gè)由Apache基金會(huì)所開(kāi)發(fā)的分布式系統(tǒng)基礎(chǔ)架構(gòu)。 用戶(hù)可以在不了解分布式底層細(xì)節(jié)的情況下,開(kāi)發(fā)分布式程序。充分利用集群的威力進(jìn)行高速運(yùn)算和存儲(chǔ)。 [1] Hadoop實(shí)現(xiàn)了一個(gè)分布式文件系統(tǒng)(Hadoop Distributed File System),簡(jiǎn)稱(chēng)HDFS。HDFS有高容錯(cuò)性的特點(diǎn),并且設(shè)計(jì)用來(lái)部署在低廉的(low-cost)硬件上;而且它提供高吞吐量(high throughput)來(lái)訪(fǎng)問(wèn)應(yīng)用程序的數(shù)據(jù),適合那些有著超大數(shù)據(jù)集(large data set)的應(yīng)用程序。HDFS放寬了(relax)POSIX的要求,可以以流的形式訪(fǎng)問(wèn)(streaming access)文件系統(tǒng)中的數(shù)據(jù)。 Hadoop的框架最核心的設(shè)計(jì)就是:HDFS和MapReduce。HDFS為海量的數(shù)據(jù)提供了存儲(chǔ),而MapReduce則為海量的數(shù)據(jù)提供了計(jì)算chenxi hahqadff以列表格式顯示
d = open('塵曦','r',encoding='utf8') print(d.readline()) print(d.readlines()) #以列表形式顯示所有內(nèi)容測(cè)試
D:\python\python.exe D:/untitled/dir/for.py Hadoop是一個(gè)由Apache基金會(huì)所開(kāi)發(fā)的分布式系統(tǒng)基礎(chǔ)架構(gòu)。['用戶(hù)可以在不了解分布式底層細(xì)節(jié)的情況下,開(kāi)發(fā)分布式程序。充分利用集群的威力進(jìn)行高速運(yùn)算和存儲(chǔ)。\n', '[1] Hadoop實(shí)現(xiàn)了一個(gè)分布式文件系統(tǒng)(Hadoop Distributed File System),簡(jiǎn)稱(chēng)HDFS。HDFS有高容錯(cuò)性的特點(diǎn),并且設(shè)計(jì)用來(lái)部署在低廉的(low-cost)硬件上;而且它提供高吞吐量(high throughput)來(lái)訪(fǎng)問(wèn)應(yīng)用程序的數(shù)據(jù),適合那些有著超大數(shù)據(jù)集(large data set)的應(yīng)用程序。HDFS放寬了(relax)POSIX的要求,可以以流的形式訪(fǎng)問(wèn)(streaming access)文件系統(tǒng)中的數(shù)據(jù)。\n', 'Hadoop的框架最核心的設(shè)計(jì)就是:HDFS和MapReduce。HDFS為海量的數(shù)據(jù)提供了存儲(chǔ),而MapReduce則為海量的數(shù)據(jù)提供了計(jì)算\n', '\n', ' chenxi hahqa\n', ' dff']正常查看
d = open('塵曦','r',encoding='utf8') for i in d.readlines():print(i.strip())測(cè)試
Hadoop是一個(gè)由Apache基金會(huì)所開(kāi)發(fā)的分布式系統(tǒng)基礎(chǔ)架構(gòu)。 用戶(hù)可以在不了解分布式底層細(xì)節(jié)的情況下,開(kāi)發(fā)分布式程序。充分利用集群的威力進(jìn)行高速運(yùn)算和存儲(chǔ)。 [1] Hadoop實(shí)現(xiàn)了一個(gè)分布式文件系統(tǒng)(Hadoop Distributed File System),簡(jiǎn)稱(chēng)HDFS。HDFS有高容錯(cuò)性的特點(diǎn),并且設(shè)計(jì)用來(lái)部署在低廉的(low-cost)硬件上;而且它提供高吞吐量(high throughput)來(lái)訪(fǎng)問(wèn)應(yīng)用程序的數(shù)據(jù),適合那些有著超大數(shù)據(jù)集(large data set)的應(yīng)用程序。HDFS放寬了(relax)POSIX的要求,可以以流的形式訪(fǎng)問(wèn)(streaming access)文件系統(tǒng)中的數(shù)據(jù)。 Hadoop的框架最核心的設(shè)計(jì)就是:HDFS和MapReduce。HDFS為海量的數(shù)據(jù)提供了存儲(chǔ),而MapReduce則為海量的數(shù)據(jù)提供了計(jì)算chenxi hahqa dff第三行打印的時(shí)候加一個(gè)字符串
d = open('塵曦','r',encoding='utf8') nu=0 for i in d.readlines():nu += 1if nu == 3:print(i.strip(),'chenxi')else:print(i.strip()) d.close()測(cè)試
Hadoop是一個(gè)由Apache基金會(huì)所開(kāi)發(fā)的分布式系統(tǒng)基礎(chǔ)架構(gòu)。 用戶(hù)可以在不了解分布式底層細(xì)節(jié)的情況下,開(kāi)發(fā)分布式程序。充分利用集群的威力進(jìn)行高速運(yùn)算和存儲(chǔ)。 [1] Hadoop實(shí)現(xiàn)了一個(gè)分布式文件系統(tǒng)(Hadoop Distributed File System),簡(jiǎn)稱(chēng)HDFS。HDFS有高容錯(cuò)性的特點(diǎn),并且設(shè)計(jì)用來(lái)部署在低廉的(low-cost)硬件上;而且它提供高吞吐量(high throughput)來(lái)訪(fǎng)問(wèn)應(yīng)用程序的數(shù)據(jù),適合那些有著超大數(shù)據(jù)集(large data set)的應(yīng)用程序。HDFS放寬了(relax)POSIX的要求,可以以流的形式訪(fǎng)問(wèn)(streaming access)文件系統(tǒng)中的數(shù)據(jù)。 chenxi Hadoop的框架最核心的設(shè)計(jì)就是:HDFS和MapReduce。HDFS為海量的數(shù)據(jù)提供了存儲(chǔ),而MapReduce則為海量的數(shù)據(jù)提供了計(jì)算chenxi hahqa dff原文
漫作年時(shí)別淚看。西窗蠟炬尚瀾。不堪重夢(mèng)十年間。 斗柄又垂天直北,客愁坐逼歲將闌。更無(wú)人解憶長(zhǎng)安。一行一行取文件內(nèi)容
d = open('塵曦','r',encoding='utf8') for i in d:print(i.strip()) d.close()測(cè)試
D:\python\python.exe D:/untitled/dir/for.py 漫作年時(shí)別淚看。西窗蠟炬尚瀾。不堪重夢(mèng)十年間。 斗柄又垂天直北,客愁坐逼歲將闌。更無(wú)人解憶長(zhǎng)安。原文
nihao chenxi haha woai ni 漫作年時(shí)別淚看。西窗蠟炬尚瀾。不堪重夢(mèng)十年間。 斗柄又垂天直北,客愁坐逼歲將闌。更無(wú)人解憶長(zhǎng)安。現(xiàn)在光標(biāo)所在字符下標(biāo);一個(gè)中文字符是三個(gè)
d = open('塵曦','r',encoding='utf8') print(d.tell()) print(d.read(4)) print(d.tell())測(cè)試
D :\python\python.exe D:/untitled/dir/for.py 0 niha 4Process finished with exit code 0調(diào)整光標(biāo)位置
d = open('塵曦','r',encoding='utf8') print(d.tell()) #查看當(dāng)前光標(biāo)所在位置 print(d.read(4)) # 讀取四個(gè)字符 print(d.tell()) #查看當(dāng)前光標(biāo)所在位置 print(d.read(5)) #從光標(biāo)所在的位置向后讀取5個(gè)字符 print(d.tell())# 顯示光標(biāo)所在位置 print(d.seek(0))#將光標(biāo)移至文件收字符 print(d.read(2))#從首字符向后讀取2個(gè)字符 print(d.tell())# 查看光標(biāo)所在位置測(cè)試
D:\python\python.exe D:/untitled/dir/for.py 0 niha 4 o che 9 0 ni 2
?
轉(zhuǎn)載于:https://www.cnblogs.com/rdchenxi/p/11119417.html
總結(jié)
以上是生活随笔為你收集整理的python 基础之文件读操作的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問(wèn)題。
- 上一篇: Samsara v2.0 高级技巧
- 下一篇: python阶乘函数_python 阶乘