Scrapy保存到txt文件或者数据库里面
生活随笔
收集整理的這篇文章主要介紹了
Scrapy保存到txt文件或者数据库里面
小編覺得挺不錯的,現在分享給大家,幫大家做個參考.
首先要理解yield的作用。
在pipelines.py文件中定義了保存方法,但是一直沒有保存,為什么呢?
file = open("E:\\Scripy\\spidersitems.txt", "a")? # 以追加的方式打開文件,不存在則創建
??????? # 因為item中的數據是unicode編碼的,為了在控制臺中查看數據的有效性和保存,
??????? # 將其編碼改為utf-8
??????? item_string = str(item).decode("unicode_escape").encode('utf-8')
??????? file.write(item_string)
??????? file.write('\n')
??????? file.close()
??????? print item_string? #在控制臺輸出
??????? return item? # 會在控制臺輸出原item數據,可以選擇不寫
最后找到原因,Setting.py里面沒有配置,配置如下:
ITEM_PIPELINES = {
??? 'tutorial.pipelines.TutorialPipeline': 300,
}
這樣就可以將數據保存了。
總結
以上是生活随笔為你收集整理的Scrapy保存到txt文件或者数据库里面的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: jquery checked 操作多选
- 下一篇: Spark SQL来读取现有Hive中的