日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程语言 > python >内容正文

python

Python3 中 爬网页 \uxxx 问题

發布時間:2025/7/14 python 52 豆豆
生活随笔 收集整理的這篇文章主要介紹了 Python3 中 爬网页 \uxxx 问题 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

   今天上午在沒事兒爬一下我自己的博客主頁文章練習下。在寫入的時候遇到的編碼問題,折騰了半天 ,記錄一下?

import urllib.request import timestr1 = urllib.request.urlopen('https://www.cnblogs.com/thelovelybugfly/').read().decode('utf-8') url = ['']*10 i = 0 title = str1.find(r'postTitle2') href = str1.find(r'href', title) html = str1.find(r'.html', title) while title != -1 and href != -1 and html != -1 and i < 40:url[i] = str1[href + 6:html + 5]print(url[i])title = str1.find(r'postTitle2', html)href = str1.find(r'href', title)html = str1.find(r'.html', title)i = i + 1 else:print("find over") j = 0 while j < 10:pagename = urllib.request.urlopen(url[j]).read().decode('utf-8')open(r'爬蟲文件/'+url[j][-13:], 'w+').write(pagename)print("downlanding artcle", url[j])j = j + 1time.sleep(2) else:print("download finish")

  

?  出現這個問題, 換了各種編碼還是沒解決, 后來 換成 如下 才解決,?

?

使用Python寫文件的時候,或者將網絡數據流寫入到本地文件的時候,大部分情況下會遇到:UnicodeEncodeError: ‘gbk’ codec can’t encode character ‘\xa0’ in position … 這個問題。 網絡上有很多類似的文件講述如何解決這個問題,但是無非就是encode,decode相關的,這是導致該問題出現的真正原因嗎?不是的。 很多時候,我們使用了decode和encode,試遍了各種編碼,utf8,utf-8,gbk,gb2312等等,該有的編碼都試遍了,可是編譯的時 候仍然出現:?UnicodeEncodeError: ‘gbk’ codec can’t encode character ‘\xa0’ in position XXX。 崩潰了。

? ? 在windows下面編寫python腳本,編碼問題很嚴重。

? ? 將網絡數據流寫入文件時時,我們會遇到幾個編碼:

? ? 1: #encoding=’XXX’ 這里(也就是python文件第一行的內容)的編碼是指該python腳本文件本身的編碼,無關緊要。只要XXX和文件本身的編碼相同就行了。 比如notepad++ “格式”菜單里面里可以設置各種編碼,這時需要保證該菜單里設置的編碼和encoding XXX相同就行了,不同的話會報錯

? ? 2:網絡數據流的編碼 比如獲取網頁,那么網絡數據流的編碼就是網頁的編碼。需要使用decode解碼成unicode編碼。

? ? 3:目標文件的編碼 要將網絡數據流的編碼寫入到新文件,那么我么需要指定新文件的編碼。寫文件代碼如:

f.write(txt)

?

,那么txt是一個字符串,它是通過decode解碼過的字符串。關鍵點就要來了:目標文件的編碼是導致標題所指問題的罪魁禍首。如果我們打開一個文件:

f = open("out.html","w")

,在windows下面,新文件的默認編碼是gbk,這樣的話,python解釋器會用gbk編碼去解析我們的網絡數據流txt,然而txt此時已經是decode過的unicode編碼,這樣的話就會導致解析不了,出現上述問題。 解決的辦法就是,改變目標文件的編碼:

f = open("out.html","w",encoding='utf-8')

?

? 總結:?

?python 編碼真的是一個頭疼的問題。?

轉載于:https://www.cnblogs.com/thelovelybugfly/p/10319587.html

總結

以上是生活随笔為你收集整理的Python3 中 爬网页 \uxxx 问题的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。