日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程语言 > python >内容正文

python

python 基础之文件读操作

發布時間:2023/12/15 python 28 豆豆
生活随笔 收集整理的這篇文章主要介紹了 python 基础之文件读操作 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

創建一個名為‘塵曦’的文件內容如下

Hadoop是一個由Apache基金會所開發的分布式系統基礎架構。 用戶可以在不了解分布式底層細節的情況下,開發分布式程序。充分利用集群的威力進行高速運算和存儲。 [1] Hadoop實現了一個分布式文件系統(Hadoop Distributed File System),簡稱HDFS。HDFS有高容錯性的特點,并且設計用來部署在低廉的(low-cost)硬件上;而且它提供高吞吐量(high throughput)來訪問應用程序的數據,適合那些有著超大數據集(large data set)的應用程序。HDFS放寬了(relax)POSIX的要求,可以以流的形式訪問(streaming access)文件系統中的數據。 Hadoop的框架最核心的設計就是:HDFS和MapReduce。HDFS為海量的數據提供了存儲,而MapReduce則為海量的數據提供了計算

  文件讀操作

x=open('塵曦','r',encoding='utf8')#定義文件對象及字符集 cx=x.read()#讀取文件 print(cx) x.close()#關閉文件

  測試

D:\python\python.exe D:/untitled/dir/for.py Hadoop是一個由Apache基金會所開發的分布式系統基礎架構。 用戶可以在不了解分布式底層細節的情況下,開發分布式程序。充分利用集群的威力進行高速運算和存儲。 [1] Hadoop實現了一個分布式文件系統(Hadoop Distributed File System),簡稱HDFS。HDFS有高容錯性的特點,并且設計用來部署在低廉的(low-cost)硬件上;而且它提供高吞吐量(high throughput)來訪問應用程序的數據,適合那些有著超大數據集(large data set)的應用程序。HDFS放寬了(relax)POSIX的要求,可以以流的形式訪問(streaming access)文件系統中的數據。 Hadoop的框架最核心的設計就是:HDFS和MapReduce。HDFS為海量的數據提供了存儲,而MapReduce則為海量的數據提供了計算Process finished with exit code 0

  讀取文件前9個字符

x=open('塵曦','r',encoding='utf8')#定義文件對象及字符集 cx=x.read(9)#讀取文件的前9個字符 print(cx) x.close()#關閉文件

  測試

D:\python\python.exe D:/untitled/dir/for.py Hadoop是一個Process finished with exit code 0

  寫文件操作

h=open('塵曦','r',encoding='utf8')# 先讀 ch=h.read() print(ch) h.close() x=open('塵曦','w',encoding='utf8')#定義文件的操作對象及字符集,w寫;注意它寫之前把文件清空 x.write('fghgfhh') x.close()
print('修改成功') c=open('塵曦','r',encoding='utf8')#改完后去讀,查看內容 cc = c.read() print(cc) c.close()

  測試

Hadoop是一個由Apache基金會所開發的分布式系統基礎架構。 用戶可以在不了解分布式底層細節的情況下,開發分布式程序。充分利用集群的威力進行高速運算和存儲。 [1] Hadoop實現了一個分布式文件系統(Hadoop Distributed File System),簡稱HDFS。HDFS有高容錯性的特點,并且設計用來部署在低廉的(low-cost)硬件上;而且它提供高吞吐量(high throughput)來訪問應用程序的數據,適合那些有著超大數據集(large data set)的應用程序。HDFS放寬了(relax)POSIX的要求,可以以流的形式訪問(streaming access)文件系統中的數據。 Hadoop的框架最核心的設計就是:HDFS和MapReduce。HDFS為海量的數據提供了存儲,而MapReduce則為海量的數據提供了計算 修改成功 fghgfhh

  新建一個文件與文件追加操作

c = open('塵曦-2','w',encoding='utf8') c.write('哈哈哈') c.write('塵曦')

  查看新文件

哈哈哈塵曦

  查看打開的文件句柄

c = open('塵曦-2','w',encoding='utf8') print(c.fileno()) #打印文件句柄 c.write('哈哈哈') c.write('塵曦')

  測試

D:\python\python.exe D:/untitled/dir/for.py 3Process finished with exit code 0

  對文件追加內容

d = open('塵曦','r',encoding='utf8') xd = d.read() print(xd) f = open('塵曦','a',encoding='utf8') f.write('\n chenxi hahqa') f.write('\n dff') f.close() x = open('塵曦','r',encoding='utf8') cx = x.read() print(cx) x.close()

  測試

D:\python\python.exe D:/untitled/dir/for.py Hadoop是一個由Apache基金會所開發的分布式系統基礎架構。 用戶可以在不了解分布式底層細節的情況下,開發分布式程序。充分利用集群的威力進行高速運算和存儲。 [1] Hadoop實現了一個分布式文件系統(Hadoop Distributed File System),簡稱HDFS。HDFS有高容錯性的特點,并且設計用來部署在低廉的(low-cost)硬件上;而且它提供高吞吐量(high throughput)來訪問應用程序的數據,適合那些有著超大數據集(large data set)的應用程序。HDFS放寬了(relax)POSIX的要求,可以以流的形式訪問(streaming access)文件系統中的數據。 Hadoop的框架最核心的設計就是:HDFS和MapReduce。HDFS為海量的數據提供了存儲,而MapReduce則為海量的數據提供了計算Hadoop是一個由Apache基金會所開發的分布式系統基礎架構。 用戶可以在不了解分布式底層細節的情況下,開發分布式程序。充分利用集群的威力進行高速運算和存儲。 [1] Hadoop實現了一個分布式文件系統(Hadoop Distributed File System),簡稱HDFS。HDFS有高容錯性的特點,并且設計用來部署在低廉的(low-cost)硬件上;而且它提供高吞吐量(high throughput)來訪問應用程序的數據,適合那些有著超大數據集(large data set)的應用程序。HDFS放寬了(relax)POSIX的要求,可以以流的形式訪問(streaming access)文件系統中的數據。 Hadoop的框架最核心的設計就是:HDFS和MapReduce。HDFS為海量的數據提供了存儲,而MapReduce則為海量的數據提供了計算chenxi hahqadff

  以列表格式顯示

d = open('塵曦','r',encoding='utf8') print(d.readline()) print(d.readlines()) #以列表形式顯示所有內容

  測試

D:\python\python.exe D:/untitled/dir/for.py Hadoop是一個由Apache基金會所開發的分布式系統基礎架構。['用戶可以在不了解分布式底層細節的情況下,開發分布式程序。充分利用集群的威力進行高速運算和存儲。\n', '[1] Hadoop實現了一個分布式文件系統(Hadoop Distributed File System),簡稱HDFS。HDFS有高容錯性的特點,并且設計用來部署在低廉的(low-cost)硬件上;而且它提供高吞吐量(high throughput)來訪問應用程序的數據,適合那些有著超大數據集(large data set)的應用程序。HDFS放寬了(relax)POSIX的要求,可以以流的形式訪問(streaming access)文件系統中的數據。\n', 'Hadoop的框架最核心的設計就是:HDFS和MapReduce。HDFS為海量的數據提供了存儲,而MapReduce則為海量的數據提供了計算\n', '\n', ' chenxi hahqa\n', ' dff']

  正常查看

d = open('塵曦','r',encoding='utf8') for i in d.readlines():print(i.strip())

  測試

Hadoop是一個由Apache基金會所開發的分布式系統基礎架構。 用戶可以在不了解分布式底層細節的情況下,開發分布式程序。充分利用集群的威力進行高速運算和存儲。 [1] Hadoop實現了一個分布式文件系統(Hadoop Distributed File System),簡稱HDFS。HDFS有高容錯性的特點,并且設計用來部署在低廉的(low-cost)硬件上;而且它提供高吞吐量(high throughput)來訪問應用程序的數據,適合那些有著超大數據集(large data set)的應用程序。HDFS放寬了(relax)POSIX的要求,可以以流的形式訪問(streaming access)文件系統中的數據。 Hadoop的框架最核心的設計就是:HDFS和MapReduce。HDFS為海量的數據提供了存儲,而MapReduce則為海量的數據提供了計算chenxi hahqa dff

  第三行打印的時候加一個字符串

d = open('塵曦','r',encoding='utf8') nu=0 for i in d.readlines():nu += 1if nu == 3:print(i.strip(),'chenxi')else:print(i.strip()) d.close()

  測試

Hadoop是一個由Apache基金會所開發的分布式系統基礎架構。 用戶可以在不了解分布式底層細節的情況下,開發分布式程序。充分利用集群的威力進行高速運算和存儲。 [1] Hadoop實現了一個分布式文件系統(Hadoop Distributed File System),簡稱HDFS。HDFS有高容錯性的特點,并且設計用來部署在低廉的(low-cost)硬件上;而且它提供高吞吐量(high throughput)來訪問應用程序的數據,適合那些有著超大數據集(large data set)的應用程序。HDFS放寬了(relax)POSIX的要求,可以以流的形式訪問(streaming access)文件系統中的數據。 chenxi Hadoop的框架最核心的設計就是:HDFS和MapReduce。HDFS為海量的數據提供了存儲,而MapReduce則為海量的數據提供了計算chenxi hahqa dff

  原文

漫作年時別淚看。西窗蠟炬尚瀾。不堪重夢十年間。 斗柄又垂天直北,客愁坐逼歲將闌。更無人解憶長安。

  一行一行取文件內容

d = open('塵曦','r',encoding='utf8') for i in d:print(i.strip()) d.close()

  測試

D:\python\python.exe D:/untitled/dir/for.py 漫作年時別淚看。西窗蠟炬尚瀾。不堪重夢十年間。 斗柄又垂天直北,客愁坐逼歲將闌。更無人解憶長安。

  原文

nihao chenxi haha woai ni 漫作年時別淚看。西窗蠟炬尚瀾。不堪重夢十年間。 斗柄又垂天直北,客愁坐逼歲將闌。更無人解憶長安。

  現在光標所在字符下標;一個中文字符是三個

d = open('塵曦','r',encoding='utf8') print(d.tell()) print(d.read(4)) print(d.tell())

  測試

D :\python\python.exe D:/untitled/dir/for.py 0 niha 4Process finished with exit code 0

  調整光標位置

d = open('塵曦','r',encoding='utf8') print(d.tell()) #查看當前光標所在位置 print(d.read(4)) # 讀取四個字符 print(d.tell()) #查看當前光標所在位置 print(d.read(5)) #從光標所在的位置向后讀取5個字符 print(d.tell())# 顯示光標所在位置 print(d.seek(0))#將光標移至文件收字符 print(d.read(2))#從首字符向后讀取2個字符 print(d.tell())# 查看光標所在位置

  測試

D:\python\python.exe D:/untitled/dir/for.py 0 niha 4 o che 9 0 ni 2

  

?

轉載于:https://www.cnblogs.com/rdchenxi/p/11119417.html

總結

以上是生活随笔為你收集整理的python 基础之文件读操作的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。