日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當(dāng)前位置: 首頁 > 编程语言 > python >内容正文

python

域名带后缀_[Python 爬虫]获取顶级域名及对应的 WHOIS Server 及 whoisservers.txt 下载...

發(fā)布時(shí)間:2025/3/11 python 26 豆豆
生活随笔 收集整理的這篇文章主要介紹了 域名带后缀_[Python 爬虫]获取顶级域名及对应的 WHOIS Server 及 whoisservers.txt 下载... 小編覺得挺不錯(cuò)的,現(xiàn)在分享給大家,幫大家做個(gè)參考.
使用 Python 爬蟲獲取頂級域名及對應(yīng)的 WHOIS Server 并保存可用于 WhoisCL.exe 的文件 whois-servers.txt。
環(huán)境:
  • Windows 10

  • Python 3.9.1

頂級域名列表https://www.iana.org/domains/root/db獲取頂級域名的 WHOIS Server點(diǎn)擊帶查詢的頂級域名,往下拉 WHOIS Server每個(gè)域名后綴對應(yīng)的 WHOIS Server 是不一樣的。安裝 beautifulsoup4 庫pip install beautifulsoup4安裝 requests 庫python -m pip install requests獲取頂級域名列表import requests
from bs4 import BeautifulSoup
iurl = 'https://www.iana.org/domains/root/db'
res = requests.get(iurl, timeout=600)
res.encoding = 'utf-8'
soup = BeautifulSoup(res.text, 'html.parser')
list1 = []
list2 = []
jsonStr = {}
for tag in soup.find_all('span', class_='domain tld'):
d_suffix = tag.get_text()
print(d_suffix)獲取頂級域名及對應(yīng)的 WHOIS Server 并保存可用于 WhoisCL.exe 的文件 whois-servers.txtimport requests
from bs4 import BeautifulSoup
import re
import time
iurl = 'https://www.iana.org/domains/root/db'
res = requests.get(iurl, timeout=600)
res.encoding = 'utf-8'
soup = BeautifulSoup(res.text, 'html.parser')
list1 = []
list2 = []
jsonStr = {}
for tag in soup.find_all('span', class_='domain tld'):
d_suffix = tag.get_text()
print(d_suffix)
list2.append(d_suffix)
n_suffix = d_suffix.split('.')[1]
new_url = iurl + '/' + n_suffix
server = ''
try:
res2 = requests.get(new_url, timeout=600)
res2.encoding = 'utf-8'
soup2 = BeautifulSoup(res2.text, 'html.parser') retxt = re.compile(r'WHOIS Server: (.*?)\n') arr = retxt.findall(res2.text) if len(arr) > 0: server = arr[0] list2.append(server) print(server) time.sleep(1) except Exception as e: print('超時(shí)') with open('whois-servers.txt', "a", encoding='utf-8') as my_file: my_file.write(n_suffix + " " + server+'\n')
print('抓取結(jié)束')

whois-servers.txt 在公眾號中回復(fù)

whois-servers.txt

總結(jié)

以上是生活随笔為你收集整理的域名带后缀_[Python 爬虫]获取顶级域名及对应的 WHOIS Server 及 whoisservers.txt 下载...的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網(wǎng)站內(nèi)容還不錯(cuò),歡迎將生活随笔推薦給好友。