日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

Scrapy爬虫入门教程十 Feed exports(导出文件)

發布時間:2023/12/20 编程问答 29 豆豆
生活随笔 收集整理的這篇文章主要介紹了 Scrapy爬虫入门教程十 Feed exports(导出文件) 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

Python版本管理:pyenv和pyenv-virtualenv
Scrapy爬蟲入門教程一 安裝和基本使用
Scrapy爬蟲入門教程二 官方提供Demo
Scrapy爬蟲入門教程三 命令行工具介紹和示例
Scrapy爬蟲入門教程四 Spider(爬蟲)
Scrapy爬蟲入門教程五 Selectors(選擇器)
Scrapy爬蟲入門教程六 Items(項目)
Scrapy爬蟲入門教程七 Item Loaders(項目加載器)
Scrapy爬蟲入門教程八 交互式 shell 方便調試
Scrapy爬蟲入門教程九 Item Pipeline(項目管道)
Scrapy爬蟲入門教程十 Feed exports(導出文件)
Scrapy爬蟲入門教程十一 Request和Response(請求和響應)
Scrapy爬蟲入門教程十二 Link Extractors(鏈接提取器)

  • 導出文件
    • 序列化格式
      • JSON
      • JSON lines
      • CSV
      • XML
      • Pickle
      • Marshal
    • 存儲
    • 存儲URI參數
    • 存儲后端
      • 本地文件系統
      • FTP
      • S3
      • 標準輸出
    • 設置
      • FEED_URI
      • FEED_FORMAT
      • FEED_EXPORT_ENCODING
      • FEED_EXPORT_FIELDS
      • FEED_STORE_EMPTY
      • FEED_STORAGES_BASE
      • FEED_EXPORTERS
      • FEED_EXPORTERS_BASE

開發環境:
Python 3.6.0 版本 (當前最新)
Scrapy 1.3.2 版本 (當前最新)

導出文件

新版本0.10。

實現爬蟲時最常需要的特征之一是能夠正確地存儲所過濾的數據,并且經常意味著使用被過濾的數據(通常稱為“export feed”)生成要由其他系統消耗的“導出文件” 。

Scrapy使用Feed導出功能即時提供此功能,這允許您使用多個序列化格式和存儲后端來生成包含已抓取項目的Feed。

序列化格式

為了序列化抓取的數據,Feed導出使用項導出器。這些格式是開箱即用的:

  • JSON
  • JSON lines
  • CSV
  • XML

但您也可以通過FEED_EXPORTERS設置擴展支持的格式 。

JSON

  • FEED_FORMAT: json
  • 使用出口: JsonItemExporter
  • 如果您對大型Feed使用JSON,請參閱此警告。

JSON lines

  • FEED_FORMAT: jsonlines
  • 使用出口: JsonLinesItemExporter

CSV

  • FEED_FORMAT: csv
  • 使用出口: CsvItemExporter
  • 指定要導出的列及其順序使用 FEED_EXPORT_FIELDS。其他Feed導出程序也可以使用此選項,但它對CSV很重要,因為與許多其他導出格式不同,CSV使用固定標頭。

XML

  • FEED_FORMAT: xml
  • 使用出口: XmlItemExporter

Pickle

  • FEED_FORMAT: pickle
  • 使用出口: PickleItemExporter

Marshal

  • FEED_FORMAT: marshal
  • 使用出口: MarshalItemExporter

存儲

使用Feed導出時,您可以使用URI(通過FEED_URI設置)定義在哪里存儲Feed 。Feed導出支持由URI方案定義的多個存儲后端類型。

支持開箱即用的存儲后端包括:

  • 本地文件系統
  • FTP
  • S3(需要 botocore或 boto)
  • 標準輸出

如果所需的外部庫不可用,則某些存儲后端可能無法使用。例如,S3后端僅在安裝了botocore 或boto庫時可用(Scrapy僅支持boto到Python 2)。


存儲URI參數

存儲URI還可以包含在創建訂閱源時被替換的參數。這些參數是:

  • %(time)s - 在創建訂閱源時由時間戳替換
  • %(name)s - 被蜘蛛名替換

任何其他命名參數將替換為同名的spider屬性。例如, 在創建訂閱源的那一刻,%(site_id)s將被spider.site_id屬性替換。

這里有一些例子來說明:

  • 存儲在FTP中使用每個蜘蛛一個目錄:
    • ftp://user:password@ftp.example.com/scraping/feeds/%(name)s/%(time)s.json
  • 存儲在S3使用每個蜘蛛一個目錄:
    • s3://mybucket/scraping/feeds/%(name)s/%(time)s.json

存儲后端

本地文件系統

訂閱源存儲在本地文件系統中。

URI方案: file
示例URI: file:///tmp/export.csv
所需的外部庫:none
請注意,(僅)對于本地文件系統存儲,如果指定絕對路徑,則可以省略該方案/tmp/export.csv。這只適用于Unix系統。

FTP

訂閱源存儲在FTP服務器中。

  • URI方案: ftp
  • 示例URI: ftp://user:pass@ftp.example.com/path/to/export.csv
  • 所需的外部庫:none

S3

訂閱源存儲在Amazon S3上。

  • URI方案: s3
  • 示例URI:
    • s3://mybucket/path/to/export.csv
    • s3://aws_key:aws_secret@mybucket/path/to/export.csv
  • 所需的外部庫:botocore或boto

AWS憑證可以作為URI中的用戶/密碼傳遞,也可以通過以下設置傳遞:

  • AWS_ACCESS_KEY_ID
  • AWS_SECRET_ACCESS_KEY

標準輸出

Feed被寫入Scrapy進程的標準輸出。

  • URI方案: stdout
  • 示例URI: stdout:
  • 所需的外部庫:none

設置

這些是用于配置Feed導出的設置:

  • FEED_URI (強制性)
  • FEED_FORMAT
  • FEED_STORAGES
  • FEED_EXPORTERS
  • FEED_STORE_EMPTY
  • FEED_EXPORT_ENCODING
  • FEED_EXPORT_FIELDS

FEED_URI

默認: None

導出Feed的URI。請參閱支持的URI方案的存儲后端。

啟用Feed導出時需要此設置。

FEED_FORMAT

要用于Feed的序列化格式。有關可能的值,請參閱 序列化格式。

FEED_EXPORT_ENCODING

默認: None

要用于Feed的編碼。

如果取消設置或設置為None(默認),它使用UTF-8除了JSON輸出,\uXXXX由于歷史原因使用安全的數字編碼(序列)。

使用utf-8,如果你想UTF-8 JSON了。

FEED_EXPORT_FIELDS

默認: None

要導出的字段的列表,可選。示例:。FEED_EXPORT_FIELDS = [“foo”, “bar”, “baz”]

使用FEED_EXPORT_FIELDS選項定義要導出的字段及其順序。

當FEED_EXPORT_FIELDS為空或無(默認)時,Scrapy使用在Item蜘蛛正在產生的dicts 或子類中定義的字段。

如果導出器需要一組固定的字段(CSV導出格式為這種情況 ),并且FEED_EXPORT_FIELDS為空或無,則Scrapy會嘗試從導出的??數據中推斷字段名稱 - 當前它使用第一個項目中的字段名稱。

FEED_STORE_EMPTY

默認: False

是否導出空Feed(即,沒有項目的Feed)。

FEED_STORAGES
默認: {}

包含您的項目支持的其他Feed存儲后端的字典。鍵是URI方案,值是存儲類的路徑。

FEED_STORAGES_BASE

默認:

{'': 'scrapy.extensions.feedexport.FileFeedStorage','file': 'scrapy.extensions.feedexport.FileFeedStorage','stdout': 'scrapy.extensions.feedexport.StdoutFeedStorage','s3': 'scrapy.extensions.feedexport.S3FeedStorage','ftp': 'scrapy.extensions.feedexport.FTPFeedStorage', }

包含Scrapy支持的內置Feed存儲后端的字典。您可以通過分配其中None的URI方案 來禁用這些后端FEED_STORAGES。例如,要禁用內置FTP存儲后端(無替換),請將其放置在settings.py:

FEED_STORAGES = {'ftp': None, }

FEED_EXPORTERS

默認: {}

包含您的項目支持的其他導出器的字典。鍵是序列化格式,值是Item exporter類的路徑。

FEED_EXPORTERS_BASE

默認:

{'json': 'scrapy.exporters.JsonItemExporter','jsonlines': 'scrapy.exporters.JsonLinesItemExporter','jl': 'scrapy.exporters.JsonLinesItemExporter','csv': 'scrapy.exporters.CsvItemExporter','xml': 'scrapy.exporters.XmlItemExporter','marshal': 'scrapy.exporters.MarshalItemExporter','pickle': 'scrapy.exporters.PickleItemExporter', }

一個包含Scrapy支持的內置feed導出器的dict。您可以通過分配其中None的序列化格式來禁用任何這些導出器FEED_EXPORTERS。例如,要禁用內置的CSV導出器(無替換),請將其放置在settings.py:

FEED_EXPORTERS = {'csv': None, }

總結

以上是生活随笔為你收集整理的Scrapy爬虫入门教程十 Feed exports(导出文件)的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。

主站蜘蛛池模板: 交专区videossex另类 | 久久天堂网 | 国产激情精品一区二区三区 | 日韩女优在线视频 | 免费在线观看黄网站 | 成人超碰在线 | 成熟了的熟妇毛茸茸 | 日韩和的一区二区 | 女人私密又肥又大 | 日韩一级片 | 日韩激情av| 视频在线日韩 | 美女户外露出 | 特大黑人巨人吊xxxx | 亚洲激情图| 男女www| 国产精品视频一区二区三区, | 久久美女av | 在线观看亚洲天堂 | 97超碰国产精品无码蜜芽 | 16一17女人毛片 | www.呦呦| 欧美草逼网 | 中文字幕播放 | 久久99精品久久久久 | 天天爽天天爱 | 欧美日韩精品亚洲精品 | 伊人蕉久| 浮生影视在线观看免费 | 色呦呦在线观看视频 | 日本黄色一区二区 | 国产日韩精品视频 | 成年人的天堂 | av在线播放一区二区三区 | 久久神马| 亚洲综合欧美日韩 | 德国老妇性猛交 | 窝窝午夜看片 | 手机av在线免费 | 亚洲午夜av在线 | 香蕉视频一区二区三区 | 欧美一二三区视频 | 三年大全国语中文版免费播放 | 韩国激情呻吟揉捏胸视频 | 日韩欧美一区在线 | 国产精品九九九 | 疯狂做受xxxx高潮人妖 | 精品无码久久久久久久久果冻 | 成人国产免费视频 | 特级淫片aaaaaaa级附近的 | 中文字幕一区二区人妻 | 日本丰满肉感bbwbbwbbw | 国产老妇伦国产熟女老妇视频 | www一级片| 亚洲乱码电影 | 欧美成人免费在线观看 | 污污内射久久一区二区欧美日韩 | 日本午夜视频 | 女人毛片视频 | 99精品视频免费在线观看 | 丁五月 | 99久久精品久久久久久清纯 | 成年人免费在线视频 | 超碰97人人射妻 | 欧美在线网站 | 久久中文精品 | 在线免费一级片 | 日本午夜小视频 | 亚洲成人免费在线 | 中文无码一区二区三区在线观看 | 日本a一级片 | 成人片网址 | 亚洲精品久久一区二区三区777 | 日韩午夜激情 | 999一区二区三区 | 日韩一区二区视频在线播放 | 国产在线喷水 | 九九热精品在线观看 | 涩涩的视频在线观看 | 和漂亮岳做爰3中文字幕 | 免费看黄在线观看 | 亚洲欧美精品一区二区三区 | 免费看黄视频的网站 | 亚洲黄色av | 人人爽人人做 | 男男大尺度| 国产亚洲欧美在线 | 日韩精品第一页 | 无码任你躁久久久久久老妇 | 一二三不卡 | 三八激情网 | 毛片无遮挡高清免费观看 | 先锋影音av资源在线观看 | 天天高潮夜夜爽 | 国产1级片| 91社区视频 | 97人人在线 | 国产亚洲精品女人久久久久久 | 日日操夜夜操天天操 |