日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

三十五、Scrapy 中的杂知识总结和代理池的编写

發布時間:2024/10/8 编程问答 39 豆豆
生活随笔 收集整理的這篇文章主要介紹了 三十五、Scrapy 中的杂知识总结和代理池的编写 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

@Author:Runsen

上次 用scrapy爬了騰訊招聘網站,有兩個job.json 和detail.json,針對一個item,其實有更簡單的處理方法。

今天講講scrapy 中的雜知識,做一個系統的總結

文章目錄

  • 保存信息
  • 日記的使用
  • Scrapy shell
  • UserAgentMiddleware

保存信息

crapy保存信息的最簡單的方法主要有四種,-o 輸出指定格式的文件,命令如下:

  • 默認json

scrapy crawl name -o 、spider.json

  • json lines格式,默認為Unicode編碼

scrapy crawl name -o spider..jl

  • csv 逗號表達式,可用Excel打開

scrapy crawl name -o spider..csv

  • xml格式

scrapy crawl name -o spider..xml

但是保存的編碼不對,必須在settings中加入
FEED_EXPORT_EN

總結

以上是生活随笔為你收集整理的三十五、Scrapy 中的杂知识总结和代理池的编写的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。