日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

spiders的使用

發布時間:2023/12/16 编程问答 21 豆豆
生活随笔 收集整理的這篇文章主要介紹了 spiders的使用 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

first_scrapy文件夾下的items.py:

import scrapy




class FirstScrapyItem(scrapy.Item):
? ? # define the fields for your item here like:
? ? # name = scrapy.Field()
? ? name = scrapy.Field()
? ? url = scrapy.Field()

? ? desc = scrapy.Field()

spiders文件夾下的first_spider.py:

import scrapy
from first_scrapy.items import FirstScrapyItem


class firstSpider(scrapy.Spider):
? ? name = "first"
#bu zhong yao
? ? allowed_domains = ["blog.eastmoney.com"]
? ? start_urls = [
? ? ? ? "http://blog.eastmoney.com/xuedaolaozu",
"http://blog.eastmoney.com/sg15837988958sg"

? ? ]

#東方財富網站



? ? def parse(self, response):
? ? ? ? #filename = response.url.split("/")[-1]
? ? ? ? #print 'Curent URL => ', filename
? ? ? ? #with open(filename, 'wb') as f:
? ? ? ? # ? f.write(response.body)

for sel in response.xpath('//div[@class="articleTit"]/span[@class="title"]'):
item = FirstScrapyItem()
? ? ? ? ? ? #item["name"] = sel.xpath('a/text()').extract().encode('utf-8')
item["name"] = sel.xpath('a/text()').extract()
? ? ? ? ? ? item["url"]= sel.xpath('a/@href').extract()
? #wei kong
? ? ? ? ? ? item["desc"] = sel.xpath('text()').extract()
yield item
? ? ? ? ? ??

總結

以上是生活随笔為你收集整理的spiders的使用的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。