第六讲 使用第三方库及简单网页
httplib2
爬蟲:從某個網(wǎng)站上下載一個網(wǎng)頁,并在自己的主機(jī)上自動打開瀏覽器瀏覽。
copy網(wǎng)上的代碼,運(yùn)行提示,***函數(shù)沒有定義,可能是因為沒有下載其使用的第三方函數(shù)庫并安裝
linux下安裝第三方函數(shù)庫
easy_install httplib2
eg:
>>>?import urllib---------urllib可以訪問公網(wǎng)的網(wǎng)頁
>>> import webbrowser as web---------------webbrowser是第三方的
>>> url="http://www.163.com"---------------要登錄的url
>>>?content=urllib.urlopen(url).read()-----獲取首頁
>>> open("robin.html").write(content)-如果文件存在則打開,不存在則新建,然后寫入變量內(nèi)容,存到本地,名字為robin.html
>>> web.open_new_tab('robin.html')------通過瀏覽器打開,瀏覽
web.open_new_tab('http://www.baidu.com')? 也可以獨立使用,調(diào)用瀏覽器
使用第三方函數(shù)庫的方法
module_name.method(參數(shù))
eg:urllib.urlopen().read()
????webbrowser.open_new_tab()
? ? ? 本文轉(zhuǎn)自Tenderrain 51CTO博客,原文鏈接:,http://blog.51cto.com/tenderrain/1620665如需轉(zhuǎn)載請自行聯(lián)系原作者
總結(jié)
以上是生活随笔為你收集整理的第六讲 使用第三方库及简单网页的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 移动端input 无法获取焦点的问题
- 下一篇: lucene、solr、nutch三者的