python 基础之文件读操作
生活随笔
收集整理的這篇文章主要介紹了
python 基础之文件读操作
小編覺得挺不錯的,現在分享給大家,幫大家做個參考.
創建一個名為‘塵曦’的文件內容如下
Hadoop是一個由Apache基金會所開發的分布式系統基礎架構。 用戶可以在不了解分布式底層細節的情況下,開發分布式程序。充分利用集群的威力進行高速運算和存儲。 [1] Hadoop實現了一個分布式文件系統(Hadoop Distributed File System),簡稱HDFS。HDFS有高容錯性的特點,并且設計用來部署在低廉的(low-cost)硬件上;而且它提供高吞吐量(high throughput)來訪問應用程序的數據,適合那些有著超大數據集(large data set)的應用程序。HDFS放寬了(relax)POSIX的要求,可以以流的形式訪問(streaming access)文件系統中的數據。 Hadoop的框架最核心的設計就是:HDFS和MapReduce。HDFS為海量的數據提供了存儲,而MapReduce則為海量的數據提供了計算文件讀操作
x=open('塵曦','r',encoding='utf8')#定義文件對象及字符集 cx=x.read()#讀取文件 print(cx) x.close()#關閉文件測試
D:\python\python.exe D:/untitled/dir/for.py Hadoop是一個由Apache基金會所開發的分布式系統基礎架構。 用戶可以在不了解分布式底層細節的情況下,開發分布式程序。充分利用集群的威力進行高速運算和存儲。 [1] Hadoop實現了一個分布式文件系統(Hadoop Distributed File System),簡稱HDFS。HDFS有高容錯性的特點,并且設計用來部署在低廉的(low-cost)硬件上;而且它提供高吞吐量(high throughput)來訪問應用程序的數據,適合那些有著超大數據集(large data set)的應用程序。HDFS放寬了(relax)POSIX的要求,可以以流的形式訪問(streaming access)文件系統中的數據。 Hadoop的框架最核心的設計就是:HDFS和MapReduce。HDFS為海量的數據提供了存儲,而MapReduce則為海量的數據提供了計算Process finished with exit code 0讀取文件前9個字符
x=open('塵曦','r',encoding='utf8')#定義文件對象及字符集 cx=x.read(9)#讀取文件的前9個字符 print(cx) x.close()#關閉文件測試
D:\python\python.exe D:/untitled/dir/for.py Hadoop是一個Process finished with exit code 0寫文件操作
h=open('塵曦','r',encoding='utf8')# 先讀 ch=h.read() print(ch) h.close() x=open('塵曦','w',encoding='utf8')#定義文件的操作對象及字符集,w寫;注意它寫之前把文件清空 x.write('fghgfhh') x.close()print('修改成功') c=open('塵曦','r',encoding='utf8')#改完后去讀,查看內容 cc = c.read() print(cc) c.close()
測試
Hadoop是一個由Apache基金會所開發的分布式系統基礎架構。 用戶可以在不了解分布式底層細節的情況下,開發分布式程序。充分利用集群的威力進行高速運算和存儲。 [1] Hadoop實現了一個分布式文件系統(Hadoop Distributed File System),簡稱HDFS。HDFS有高容錯性的特點,并且設計用來部署在低廉的(low-cost)硬件上;而且它提供高吞吐量(high throughput)來訪問應用程序的數據,適合那些有著超大數據集(large data set)的應用程序。HDFS放寬了(relax)POSIX的要求,可以以流的形式訪問(streaming access)文件系統中的數據。 Hadoop的框架最核心的設計就是:HDFS和MapReduce。HDFS為海量的數據提供了存儲,而MapReduce則為海量的數據提供了計算 修改成功 fghgfhh新建一個文件與文件追加操作
c = open('塵曦-2','w',encoding='utf8') c.write('哈哈哈') c.write('塵曦')查看新文件
哈哈哈塵曦查看打開的文件句柄
c = open('塵曦-2','w',encoding='utf8') print(c.fileno()) #打印文件句柄 c.write('哈哈哈') c.write('塵曦')測試
D:\python\python.exe D:/untitled/dir/for.py 3Process finished with exit code 0對文件追加內容
d = open('塵曦','r',encoding='utf8') xd = d.read() print(xd) f = open('塵曦','a',encoding='utf8') f.write('\n chenxi hahqa') f.write('\n dff') f.close() x = open('塵曦','r',encoding='utf8') cx = x.read() print(cx) x.close()測試
D:\python\python.exe D:/untitled/dir/for.py Hadoop是一個由Apache基金會所開發的分布式系統基礎架構。 用戶可以在不了解分布式底層細節的情況下,開發分布式程序。充分利用集群的威力進行高速運算和存儲。 [1] Hadoop實現了一個分布式文件系統(Hadoop Distributed File System),簡稱HDFS。HDFS有高容錯性的特點,并且設計用來部署在低廉的(low-cost)硬件上;而且它提供高吞吐量(high throughput)來訪問應用程序的數據,適合那些有著超大數據集(large data set)的應用程序。HDFS放寬了(relax)POSIX的要求,可以以流的形式訪問(streaming access)文件系統中的數據。 Hadoop的框架最核心的設計就是:HDFS和MapReduce。HDFS為海量的數據提供了存儲,而MapReduce則為海量的數據提供了計算Hadoop是一個由Apache基金會所開發的分布式系統基礎架構。 用戶可以在不了解分布式底層細節的情況下,開發分布式程序。充分利用集群的威力進行高速運算和存儲。 [1] Hadoop實現了一個分布式文件系統(Hadoop Distributed File System),簡稱HDFS。HDFS有高容錯性的特點,并且設計用來部署在低廉的(low-cost)硬件上;而且它提供高吞吐量(high throughput)來訪問應用程序的數據,適合那些有著超大數據集(large data set)的應用程序。HDFS放寬了(relax)POSIX的要求,可以以流的形式訪問(streaming access)文件系統中的數據。 Hadoop的框架最核心的設計就是:HDFS和MapReduce。HDFS為海量的數據提供了存儲,而MapReduce則為海量的數據提供了計算chenxi hahqadff以列表格式顯示
d = open('塵曦','r',encoding='utf8') print(d.readline()) print(d.readlines()) #以列表形式顯示所有內容測試
D:\python\python.exe D:/untitled/dir/for.py Hadoop是一個由Apache基金會所開發的分布式系統基礎架構。['用戶可以在不了解分布式底層細節的情況下,開發分布式程序。充分利用集群的威力進行高速運算和存儲。\n', '[1] Hadoop實現了一個分布式文件系統(Hadoop Distributed File System),簡稱HDFS。HDFS有高容錯性的特點,并且設計用來部署在低廉的(low-cost)硬件上;而且它提供高吞吐量(high throughput)來訪問應用程序的數據,適合那些有著超大數據集(large data set)的應用程序。HDFS放寬了(relax)POSIX的要求,可以以流的形式訪問(streaming access)文件系統中的數據。\n', 'Hadoop的框架最核心的設計就是:HDFS和MapReduce。HDFS為海量的數據提供了存儲,而MapReduce則為海量的數據提供了計算\n', '\n', ' chenxi hahqa\n', ' dff']正常查看
d = open('塵曦','r',encoding='utf8') for i in d.readlines():print(i.strip())測試
Hadoop是一個由Apache基金會所開發的分布式系統基礎架構。 用戶可以在不了解分布式底層細節的情況下,開發分布式程序。充分利用集群的威力進行高速運算和存儲。 [1] Hadoop實現了一個分布式文件系統(Hadoop Distributed File System),簡稱HDFS。HDFS有高容錯性的特點,并且設計用來部署在低廉的(low-cost)硬件上;而且它提供高吞吐量(high throughput)來訪問應用程序的數據,適合那些有著超大數據集(large data set)的應用程序。HDFS放寬了(relax)POSIX的要求,可以以流的形式訪問(streaming access)文件系統中的數據。 Hadoop的框架最核心的設計就是:HDFS和MapReduce。HDFS為海量的數據提供了存儲,而MapReduce則為海量的數據提供了計算chenxi hahqa dff第三行打印的時候加一個字符串
d = open('塵曦','r',encoding='utf8') nu=0 for i in d.readlines():nu += 1if nu == 3:print(i.strip(),'chenxi')else:print(i.strip()) d.close()測試
Hadoop是一個由Apache基金會所開發的分布式系統基礎架構。 用戶可以在不了解分布式底層細節的情況下,開發分布式程序。充分利用集群的威力進行高速運算和存儲。 [1] Hadoop實現了一個分布式文件系統(Hadoop Distributed File System),簡稱HDFS。HDFS有高容錯性的特點,并且設計用來部署在低廉的(low-cost)硬件上;而且它提供高吞吐量(high throughput)來訪問應用程序的數據,適合那些有著超大數據集(large data set)的應用程序。HDFS放寬了(relax)POSIX的要求,可以以流的形式訪問(streaming access)文件系統中的數據。 chenxi Hadoop的框架最核心的設計就是:HDFS和MapReduce。HDFS為海量的數據提供了存儲,而MapReduce則為海量的數據提供了計算chenxi hahqa dff原文
漫作年時別淚看。西窗蠟炬尚瀾。不堪重夢十年間。 斗柄又垂天直北,客愁坐逼歲將闌。更無人解憶長安。一行一行取文件內容
d = open('塵曦','r',encoding='utf8') for i in d:print(i.strip()) d.close()測試
D:\python\python.exe D:/untitled/dir/for.py 漫作年時別淚看。西窗蠟炬尚瀾。不堪重夢十年間。 斗柄又垂天直北,客愁坐逼歲將闌。更無人解憶長安。原文
nihao chenxi haha woai ni 漫作年時別淚看。西窗蠟炬尚瀾。不堪重夢十年間。 斗柄又垂天直北,客愁坐逼歲將闌。更無人解憶長安。現在光標所在字符下標;一個中文字符是三個
d = open('塵曦','r',encoding='utf8') print(d.tell()) print(d.read(4)) print(d.tell())測試
D :\python\python.exe D:/untitled/dir/for.py 0 niha 4Process finished with exit code 0調整光標位置
d = open('塵曦','r',encoding='utf8') print(d.tell()) #查看當前光標所在位置 print(d.read(4)) # 讀取四個字符 print(d.tell()) #查看當前光標所在位置 print(d.read(5)) #從光標所在的位置向后讀取5個字符 print(d.tell())# 顯示光標所在位置 print(d.seek(0))#將光標移至文件收字符 print(d.read(2))#從首字符向后讀取2個字符 print(d.tell())# 查看光標所在位置測試
D:\python\python.exe D:/untitled/dir/for.py 0 niha 4 o che 9 0 ni 2
?
轉載于:https://www.cnblogs.com/rdchenxi/p/11119417.html
總結
以上是生活随笔為你收集整理的python 基础之文件读操作的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: Samsara v2.0 高级技巧
- 下一篇: python阶乘函数_python 阶乘