日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程语言 > python >内容正文

python

Python scrapy爬取京东,百度百科出现乱码,解决方案

發布時間:2025/3/19 python 31 豆豆
生活随笔 收集整理的這篇文章主要介紹了 Python scrapy爬取京东,百度百科出现乱码,解决方案 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

Python scrapy爬取京東 百度百科出現亂碼 解決方案

?

十分想念順店雜可。。。

?

抓取百度百科,出現亂碼

?

?

把頁面源碼下載下來之后,發現全是亂碼,瀏覽器打開

?

?

但是瀏覽器鏈接打開就沒有亂碼

?
?

以下是瀏覽器里面的源碼

?

?
?

到這一步說明我們下載網頁源碼,保存的時候出了問題找了好久,才知道是編碼問題,以下為解決方案

?

# -*- coding: utf-8 -*- # @Time : 2019/5/13 15:49 # @Author : 甄超鋒 # @Email : 4535@sohu.com # @File : asd.py # @Software: PyCharm import requestsurl = "https://baike.baidu.com/item/%E6%9D%8E%E5%B9%BC%E6%96%8C/7850567#1"headers = {"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64; rv:66.0) Gecko/20100101 Firefox/66.0","Host": "baike.baidu.com","Connection": "keep-alive", }response = requests.get(url=url, headers=headers) text_iso_by = bytes(response.text, encoding="ISO-8859-1") text_iso = text_iso_by.decode("utf-8") with open("1.html", "w", encoding="utf-8") as f:f.write(text_iso)

?

運行后用瀏覽器打開 1.html 文件,結果如下:

?

?

至此亂碼解決,喜歡請收藏,謝謝

?

pythonQQ交流群:785239887

?

轉載于:https://www.cnblogs.com/zhenchoafeng/p/10863725.html

總結

以上是生活随笔為你收集整理的Python scrapy爬取京东,百度百科出现乱码,解决方案的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。