日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 综合教程 >内容正文

综合教程

[python脚本]爬blackhat官网的paper

發布時間:2023/12/13 综合教程 24 生活家
生活随笔 收集整理的這篇文章主要介紹了 [python脚本]爬blackhat官网的paper 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

都知道blackhat上的人很牛X,自己參加不了,也只能找點人家的paper看看了。

反正沒有找到有集中打包下載的地方。都是這樣的https://www.blackhat.com/html/bh-eu-12/bh-eu-12-archives.html要想下載就要一個個點好麻煩。所以寫個蟲子,讓它自己爬。沒啥技術含量,直接在[python腳本]一個簡單的web爬蟲(1)這個上面改的·····想看paper的,自己爬吧。爬完后直接復制到迅雷下載就ok了。

eg:

  python spider.py -u https://www.blackhat.com/html/bh-eu-12/bh-eu-12-#-------coding:utf-8-------

#-------author:Scr@t-------
#----filename:spider.py----
import sys import urllib2 import re import HTMLParser class myparser(HTMLParser.HTMLParser): def __init__(self): HTMLParser.HTMLParser.__init__(self) def handle_starttag(self,tag,attrs): if (tag == 'a'): URL = '' for name,value in attrs: if (name == 'href'):
       for xx in ['pdf','ppt','pptx','zip','rar']:
        val = value.find(xx)#所要下載的文件類型--------這個地方有問題啊,為什么只匹配pdf,后面的不匹配呢,請大神指點下  if val != -1: fp.write(value + '\n') #下面是爬sebug上的paper時,用的 # URL = value[2:] # fp.write(sys.argv[2] + URL + '\n') if sys.argv[1] == '-u': content = (urllib2.urlopen(sys.argv[2])).read()#打開網址并讀取內容 fp = open("URL.list",'w') con = myparser() con.feed(content)#把content的內容,傳給myparser分析 else: print 'Usage:%s -u url'%sys.argv[0]

----------------------------------------------在窮無非討飯,不死終會出頭。

總結

以上是生活随笔為你收集整理的[python脚本]爬blackhat官网的paper的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。