日韩av黄I国产麻豆传媒I国产91av视频在线观看I日韩一区二区三区在线看I美女国产在线I麻豆视频国产在线观看I成人黄色短片

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

【日常】《中国统计年鉴》与《中国金融年鉴》数据表爬虫(附1985-2020所有Excel资源)

發布時間:2023/12/10 编程问答 34 豆豆
生活随笔 收集整理的這篇文章主要介紹了 【日常】《中国统计年鉴》与《中国金融年鉴》数据表爬虫(附1985-2020所有Excel资源) 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

序言

最近期末比較忙,掛個可能有用的資源:《中國金融年鑒》(1986-2019)和《中國統計年鑒》(1981-2020)的所有Excel表的資源。數據來源于中國知網的爬蟲(下面正文中有提及具體鏈接網址)。目前為止網上還沒有人提供完整的自1986年至今的年鑒數據,基本上只有特定年份的年鑒數據,而且還都是需要付費的。

鏈接:https://pan.baidu.com/s/13fjrInmjjxaNQRgS_Jv91w 提取碼:k5ir

好了需要資源的上面自取即可,后記里的廢話就不用看了。


目錄

  • 序言
  • 1 《中國統計年鑒》與《中國金融年鑒》Excel數據爬蟲
  • 2 關于爬蟲的一些細節說明及如何使用腳本處理獲得的Excel表
  • 后記(最近的一些感想)


1 《中國統計年鑒》與《中國金融年鑒》Excel數據爬蟲

  • 魚已經提供在上面了,下面是漁,不過筆者事先提醒,漁并不好學,建議自己去爬一遍就知道哪里比較坑了。
  • 不過第二部分里筆者也簡要說明了一下爬蟲的細節。

正在經歷史上最難期末,放個歷年《中國統計年鑒》和《中國金融年鑒》所有Excel表的爬蟲腳本:

# -*- coding: utf-8 -*- # @author: caoyang # @email: caoyang@163.sufe.edu.cnimport os import re import time import requestsfrom selenium import webdriver from selenium.webdriver.support.ui import WebDriverWait from selenium.webdriver.common.action_chains import ActionChainsfrom bs4 import BeautifulSoupdef get_cookie(url):options = webdriver.FirefoxOptions() options.add_argument("--headless") driver = webdriver.Firefox(options=options) driver.get(url)cookies = driver.get_cookies()driver.quit()def _cookie_to_string(cookies):string = ''for cookie in cookies:string += '{}={}; '.format(cookie['name'], cookie['value'])return string.strip()return _cookie_to_string(cookies)def download_chinese_statistical_yearbook(ybcode='N2020100004', year='2020', save_root='csyb', is_initial=True, ignore_caj=True):with open('system_csyb.log', 'w') as f:passheaders = {'User-Agent': 'User-Agent: Mozilla/5.0 (Windows NT 10.0; Win64; x64; rv:82.0) Gecko/20100101 Firefox/82.0'}query_url = 'https://data.cnki.net/Yearbook/PartialGetCatalogResult'excel_url = 'https://data.cnki.net/{}'.formatcaj_url = 'https://data.cnki.net/download/GetCajUrl'regex = r'<[^>]+>'cookies = get_cookie('https://data.cnki.net/trade/Yearbook/Single/{}?z=Z016'.format(ybcode))compiler = re.compile(regex, re.S)regular_interval = 15reset_interval = 300if not os.path.exists(save_root):os.mkdir(save_root)# year = ybcode[1:5]target_path = os.path.join(save_root, year)if not os.path.exists(target_path):os.mkdir(target_path)with open(os.path.join(target_path, 'log.txt'), 'w') as f:passformdata = {'ybcode': ybcode,'entrycode': '','page': '1','pagerow': '20'}response = requests.post(query_url, data=formdata, headers=headers)html = response.textsoup = BeautifulSoup(html, 'lxml')span = soup.find('span', class_='s_p_listl')for link in span.find_all('a'):onclick = link.attrs.get('onclick')if onclick is not None:lindex = onclick.find('\'')rindex = onclick.find('\'', lindex + 1)n_pages = int(onclick[lindex + 1:rindex])breakwith open('system_csyb.log', 'a') as f:f.write('正在處理{}年...\t{}\n'.format(year, time.strftime('%Y-%m-%d %H:%M:%S')))print('正在處理{}年...'.format(year))with open('system_csyb.log', 'a') as f:f.write('共計{}頁\t{}\n'.format(n_pages, time.strftime('%Y-%m-%d %H:%M:%S')))print('共計{}頁'.format(n_pages))for page in range(1, n_pages + 1):with open('system_csyb.log', 'a') as f:f.write(' - 第{}頁..\t{}\n'.format(page, time.strftime('%Y-%m-%d %H:%M:%S')))print(' - 第{}頁..'.format(page))if not page == '1': formdata = {'ybcode': ybcode,'entrycode': '','page': str(page),'pagerow': '20'}while True:try:response = requests.post(query_url, data=formdata, headers=headers)breakexcept:with open('system_csyb.log', 'a') as f:f.write(' 頁面訪問失敗...\t{}\n'.format(time.strftime('%Y-%m-%d %H:%M:%S')))print(' 頁面訪問失敗...')time.sleep(reset_interval) html = response.textsoup = BeautifulSoup(html, 'lxml')table = soup.find('table')for tr in table.find_all('tr'):tds = tr.find_all('td')assert len(tds) == 3title = compiler.sub('', str(tds[0])).replace('\n', '').replace('\t', '').replace(' ', '').replace('\r', '')page_range = compiler.sub('', str(tds[1])).replace('\n', '').replace('\t', '').replace(' ', '')for _link in tds[2].find_all('a'):href = _link.attrs['href']if href.startswith('/download/excel'): # excelfilecode = href[href.find('=')+1:]while True:_headers = headers.copy()_headers['Cookie'] = cookiestry:with open('system_csyb.log', 'a') as f:f.write(' + 下載{}...\t{}\n'.format(title, time.strftime('%Y-%m-%d %H:%M:%S')))print(' + 下載{}...'.format(title))response = requests.get(excel_url(href), headers=_headers)print(' ' + str(response.status_code))try:html = response.textsoup = BeautifulSoup(html, 'lxml')if str(soup.find('title').string)=='中國經濟社會大數據研究平臺':with open('system_csyb.log', 'a') as f:f.write(' 重置cookie...\t{}\n'.format(time.strftime('%Y-%m-%d %H:%M:%S')))print(' 重置cookie...')cookies = get_cookie('https://data.cnki.net/trade/Yearbook/Single/{}?z=Z016'.format(ybcode))else:breakexcept:breakexcept:with open('system_csyb.log', 'a') as f:f.write(' 失敗...\t{}\n'.format(time.strftime('%Y-%m-%d %H:%M:%S')))print(' 失敗...')time.sleep(reset_interval)cookies = get_cookie('https://data.cnki.net/trade/Yearbook/Single/{}?z=Z016'.format(ybcode))time.sleep(regular_interval)with open(os.path.join(target_path, '{}.xls'.format(filecode)), 'wb') as f:f.write(response.content)with open(os.path.join(target_path, 'log.txt'), 'a') as f:f.write('{}\t{}\t{}.xls\n'.format(title, page_range, filecode))else: # cajif ignore_caj:continuefilecode = _link.attrs['fn']pagerange = _link.attrs['pg']disk = _link.attrs['disk']_formdata = {'filecode': filecode,'pagerange': pagerange,'disk': disk,}while True:_headers = headers.copy()_headers['Cookie'] = cookies try: with open('system_csyb.log', 'a') as f:f.write(' + 下載{}的資源鏈接...\t{}\n'.format(title, time.strftime('%Y-%m-%d %H:%M:%S')))print(' + 下載{}的資源鏈接...'.format(title)) response = requests.post(caj_url, headers=_headers, data=_formdata)breakexcept:with open('system_csyb.log', 'a') as f:f.write(' 失敗...\t{}\n'.format(time.strftime('%Y-%m-%d %H:%M:%S')))print(' 失敗...')time.sleep(reset_interval) cookies = get_cookie('https://data.cnki.net/trade/Yearbook/Single/{}?z=Z016'.format(ybcode)) resource_url = response.json()['url']while True:try:with open('system_csyb.log', 'a') as f:f.write(' + 下載{}...\t{}\n'.format(title, time.strftime('%Y-%m-%d %H:%M:%S')))print(' + 下載{}...'.format(title))response = requests.get(resource_url, headers=headers)if str(response.status_code) == '200':break else:with open('system_csyb.log', 'a') as f:f.write(' 重置cookie...\t{}\n'.format(time.strftime('%Y-%m-%d %H:%M:%S')))print(' 重置cookie...')time.sleep(reset_interval)cookies = get_cookie('https://data.cnki.net/trade/Yearbook/Single/{}?z=Z016'.format(ybcode))except:with open('system_csyb.log', 'a') as f:f.write(' 失敗...\t{}\n'.format(time.strftime('%Y-%m-%d %H:%M:%S')))print(' 失敗...')time.sleep(regular_interval)cookies = get_cookie('https://data.cnki.net/trade/Yearbook/Single/{}?z=Z016'.format(ybcode))time.sleep(regular_interval)with open(os.path.join(target_path, '{}.caj'.format(filecode)), 'wb') as f:f.write(response.content)with open(os.path.join(target_path, 'log.txt'), 'a') as f:f.write('{}\t{}\t{}.caj\n'.format(title, page_range, filecode))# Find urls of yearif is_initial:url = 'https://data.cnki.net/trade/Yearbook/Single/{}?z=Z016'.format(ybcode)response = requests.get(url, headers=headers)html = response.textsoup = BeautifulSoup(html, 'lxml')div = soup.find('div', class_='s_year clearfix')links = []ybcodes = []for link in div.find_all('a'):class_ = link.attrs.get('class')if class_ is None: # not currenthref = link.attrs.get('href')ybcode = href.split('/')[-1].split('?')[0]links.append(href)ybcodes.append(ybcode)with open('ybcode_csyb.txt', 'w') as f:for ybcode in ybcodes:f.write(f'{ybcode}\n')# for ybcode in ybcodes:# download_chinese_statistical_yearbook(ybcode=ybcode, is_initial=False)def download_chinese_financial_yearbook(ybcode='N2020070552', year='2019', save_root='cfyb', is_initial=True, ignore_caj=True):with open('system_cfyb.log', 'w') as f:passheaders = {'User-Agent': 'User-Agent: Mozilla/5.0 (Windows NT 10.0; Win64; x64; rv:82.0) Gecko/20100101 Firefox/82.0'}query_url = 'https://data.cnki.net/Yearbook/PartialGetCatalogResult'excel_url = 'https://data.cnki.net/{}'.formatcaj_url = 'https://data.cnki.net/download/GetCajUrl'regex = r'<[^>]+>'cookies = '''ASP.NET_SessionId=qgfddbtpp2yw1yik5xpie3mo; Ecp_ClientId=2210524115702029814; Ecp_LoginStuts={"IsAutoLogin":false,"UserName":"SH0013","ShowName":"%e4%b8%8a%e6%b5%b7%e8%b4%a2%e7%bb%8f%e5%a4%a7%e5%ad%a6","UserType":"bk","BUserName":"","BShowName":"","BUserType":"","r":"6dHmNy"}; c_m_LinID=LinID=WEEvREcwSlJHSldSdmVqMDh6a1dpNjgzOEtGdzBoZVNMWk5Nc0RUeDFBOD0=$9A4hF_YAuvQ5obgVAqNKPCYcEjKensW4IQMovwHtwkF4VYPoHbKxJw!!&ot=05/24/2021 12:16:44; LID=WEEvREcwSlJHSldSdmVqMDh6a1dpNjgzOEtGdzBoZVNMWk5Nc0RUeDFBOD0=$9A4hF_YAuvQ5obgVAqNKPCYcEjKensW4IQMovwHtwkF4VYPoHbKxJw!!; c_m_expire=2021-05-24 12:16:44; SID=009026; Hm_lvt_911066eb2f53848f7d902db7bb8ac4d7=1621828625; Hm_lpvt_911066eb2f53848f7d902db7bb8ac4d7=1621828625'''cookies = '''ASP.NET_SessionId=pdbekustghjjz2neuam5etnt; Ecp_ClientId=5210524165003078186; Ecp_LoginStuts={\"IsAutoLogin\":false,\"UserName\":\"SH0013\",\"ShowName\":\"%e4%b8%8a%e6%b5%b7%e8%b4%a2%e7%bb%8f%e5%a4%a7%e5%ad%a6\",\"UserType\":\"bk\",\"BUserName\":\"\",\"BShowName\":\"\",\"BUserType\":\"\",\"r\":\"087ZRr\"}; c_m_LinID=LinID=WEEvREcwSlJHSldSdmVqelcxUzhJV1VTdGVGdmpHd1JmTGx6Sjd5N1Yzcz0=$9A4hF_YAuvQ5obgVAqNKPCYcEjKensW4IQMovwHtwkF4VYPoHbKxJw!!&ot=05/24/2021 17:09:30; LID=WEEvREcwSlJHSldSdmVqelcxUzhJV1VTdGVGdmpHd1JmTGx6Sjd5N1Yzcz0=$9A4hF_YAuvQ5obgVAqNKPCYcEjKensW4IQMovwHtwkF4VYPoHbKxJw!!; c_m_expire=2021-05-24 17:09:30; SID=009024; Hm_lvt_911066eb2f53848f7d902db7bb8ac4d7=1621846228; Hm_lpvt_911066eb2f53848f7d902db7bb8ac4d7=1621846228'''cookies = '''ASP.NET_SessionId=mow1jjxmf3yl0kudfyxajmzc; Ecp_ClientId=2210524182003926881; Ecp_LoginStuts={\"IsAutoLogin\":false,\"UserName\":\"SH0013\",\"ShowName\":\"%e4%b8%8a%e6%b5%b7%e8%b4%a2%e7%bb%8f%e5%a4%a7%e5%ad%a6\",\"UserType\":\"bk\",\"BUserName\":\"\",\"BShowName\":\"\",\"BUserType\":\"\",\"r\":\"4ZXI5N\"}; c_m_LinID=LinID=WEEvREcwSlJHSldSdmVqMDh6a1dpNjgzOEtnL01TODdZeGZBQjFVNFFhVT0=$9A4hF_YAuvQ5obgVAqNKPCYcEjKensW4IQMovwHtwkF4VYPoHbKxJw!!&ot=05/24/2021 18:39:44; LID=WEEvREcwSlJHSldSdmVqMDh6a1dpNjgzOEtnL01TODdZeGZBQjFVNFFhVT0=$9A4hF_YAuvQ5obgVAqNKPCYcEjKensW4IQMovwHtwkF4VYPoHbKxJw!!; c_m_expire=2021-05-24 18:39:44; SID=009026; Hm_lvt_911066eb2f53848f7d902db7bb8ac4d7=1621851606; Hm_lpvt_911066eb2f53848f7d902db7bb8ac4d7=1621852178'''cookies = '''ASP.NET_SessionId=x2uuxyelllkb01vne0bg1fcz; Ecp_ClientId=1210524220405317104; Ecp_LoginStuts={\"IsAutoLogin\":false,\"UserName\":\"SH0013\",\"ShowName\":\"%e4%b8%8a%e6%b5%b7%e8%b4%a2%e7%bb%8f%e5%a4%a7%e5%ad%a6\",\"UserType\":\"bk\",\"BUserName\":\"\",\"BShowName\":\"\",\"BUserType\":\"\",\"r\":\"CoZFit\"}; c_m_LinID=LinID=WEEvREcwSlJHSldSdmVqM1BLVW9SQVR4WDNESDFyZmdtZks1OWNYNFlMRT0=$9A4hF_YAuvQ5obgVAqNKPCYcEjKensW4IQMovwHtwkF4VYPoHbKxJw!!&ot=05/24/2021 22:23:34; LID=WEEvREcwSlJHSldSdmVqM1BLVW9SQVR4WDNESDFyZmdtZks1OWNYNFlMRT0=$9A4hF_YAuvQ5obgVAqNKPCYcEjKensW4IQMovwHtwkF4VYPoHbKxJw!!; c_m_expire=2021-05-24 22:23:34; SID=009025; Hm_lvt_911066eb2f53848f7d902db7bb8ac4d7=1621865075; Hm_lpvt_911066eb2f53848f7d902db7bb8ac4d7=1621865075'''cookies = '''ASP.NET_SessionId=nl5mpjvzy2az5kamdhek0ydq; Ecp_ClientId=3210525133102568069; Ecp_LoginStuts={\"IsAutoLogin\":false,\"UserName\":\"SH0013\",\"ShowName\":\"%e4%b8%8a%e6%b5%b7%e8%b4%a2%e7%bb%8f%e5%a4%a7%e5%ad%a6\",\"UserType\":\"bk\",\"BUserName\":\"\",\"BShowName\":\"\",\"BUserType\":\"\",\"r\":\"ubJVB4\"}; c_m_LinID=LinID=WEEvREcwSlJHSldSdmVqMVc3M1dGdk5Xa2hFYzh2WjV6Y2cvSUZzR3FPbz0=$9A4hF_YAuvQ5obgVAqNKPCYcEjKensW4IQMovwHtwkF4VYPoHbKxJw!!&ot=05/25/2021 13:51:50; LID=WEEvREcwSlJHSldSdmVqMVc3M1dGdk5Xa2hFYzh2WjV6Y2cvSUZzR3FPbz0=$9A4hF_YAuvQ5obgVAqNKPCYcEjKensW4IQMovwHtwkF4VYPoHbKxJw!!; c_m_expire=2021-05-25 13:51:50; SID=009022; Hm_lvt_911066eb2f53848f7d902db7bb8ac4d7=1621920712; Hm_lpvt_911066eb2f53848f7d902db7bb8ac4d7=1621920726'''cookies = get_cookie('https://data.cnki.net/trade/Yearbook/Single/{}?z=Z016'.format(ybcode))compiler = re.compile(regex, re.S)regular_interval = 15reset_interval = 300if not os.path.exists(save_root):os.mkdir(save_root)# year = ybcode[1:5]target_path = os.path.join(save_root, year)if not os.path.exists(target_path):os.mkdir(target_path)with open(os.path.join(target_path, 'log.txt'), 'w') as f:passformdata = {'ybcode': ybcode,'entrycode': '','page': '1','pagerow': '20'}response = requests.post(query_url, data=formdata, headers=headers)html = response.textsoup = BeautifulSoup(html, 'lxml')span = soup.find('span', class_='s_p_listl')for link in span.find_all('a'):onclick = link.attrs.get('onclick')if onclick is not None:lindex = onclick.find('\'')rindex = onclick.find('\'', lindex + 1)n_pages = int(onclick[lindex + 1:rindex])breakwith open('system_cfyb.log', 'a') as f:f.write('正在處理{}年...\t{}\n'.format(year, time.strftime('%Y-%m-%d %H:%M:%S')))print('正在處理{}年...'.format(year))with open('system_cfyb.log', 'a') as f:f.write('共計{}頁\t{}\n'.format(n_pages, time.strftime('%Y-%m-%d %H:%M:%S')))print('共計{}頁'.format(n_pages))for page in range(1, n_pages + 1):with open('system_cfyb.log', 'a') as f:f.write(' - 第{}頁..\t{}\n'.format(page, time.strftime('%Y-%m-%d %H:%M:%S')))print(' - 第{}頁..'.format(page))if not page == '1': formdata = {'ybcode': ybcode,'entrycode': '','page': str(page),'pagerow': '20'}while True:try:response = requests.post(query_url, data=formdata, headers=headers)breakexcept:with open('system_cfyb.log', 'a') as f:f.write(' 頁面訪問失敗...\t{}\n'.format(time.strftime('%Y-%m-%d %H:%M:%S')))print(' 頁面訪問失敗...')time.sleep(reset_interval) html = response.textsoup = BeautifulSoup(html, 'lxml')table = soup.find('table')for tr in table.find_all('tr'):tds = tr.find_all('td')assert len(tds) == 3title = compiler.sub('', str(tds[0])).replace('\n', '').replace('\t', '').replace(' ', '').replace('\r', '')page_range = compiler.sub('', str(tds[1])).replace('\n', '').replace('\t', '').replace(' ', '')for _link in tds[2].find_all('a'):href = _link.attrs['href']if href.startswith('/download/excel'): # excelfilecode = href[href.find('=')+1:]while True:_headers = headers.copy()_headers['Cookie'] = cookiestry:with open('system_cfyb.log', 'a') as f:f.write(' + 下載{}...\t{}\n'.format(title, time.strftime('%Y-%m-%d %H:%M:%S')))print(' + 下載{}...'.format(title))response = requests.get(excel_url(href), headers=_headers)print(' ' + str(response.status_code))try:html = response.textsoup = BeautifulSoup(html, 'lxml')if str(soup.find('title').string)=='中國經濟社會大數據研究平臺':with open('system_cfyb.log', 'a') as f:f.write(' 重置cookie...\t{}\n'.format(time.strftime('%Y-%m-%d %H:%M:%S')))print(' 重置cookie...')cookies = get_cookie('https://data.cnki.net/trade/Yearbook/Single/{}?z=Z016'.format(ybcode))else:breakexcept:breakexcept:with open('system_cfyb.log', 'a') as f:f.write(' 失敗...\t{}\n'.format(time.strftime('%Y-%m-%d %H:%M:%S')))print(' 失敗...')time.sleep(reset_interval)cookies = get_cookie('https://data.cnki.net/trade/Yearbook/Single/{}?z=Z016'.format(ybcode))time.sleep(regular_interval)with open(os.path.join(target_path, '{}.xls'.format(filecode)), 'wb') as f:f.write(response.content)with open(os.path.join(target_path, 'log.txt'), 'a') as f:f.write('{}\t{}\t{}.xls\n'.format(title, page_range, filecode))else: # cajif ignore_caj:continuefilecode = _link.attrs['fn']pagerange = _link.attrs['pg']disk = _link.attrs['disk']_formdata = {'filecode': filecode,'pagerange': pagerange,'disk': disk,}while True:_headers = headers.copy()_headers['Cookie'] = cookies try: with open('system_cfyb.log', 'a') as f:f.write(' + 下載{}的資源鏈接...\t{}\n'.format(title, time.strftime('%Y-%m-%d %H:%M:%S')))print(' + 下載{}的資源鏈接...'.format(title)) response = requests.post(caj_url, headers=_headers, data=_formdata)breakexcept:with open('system_cfyb.log', 'a') as f:f.write(' 失敗...\t{}\n'.format(time.strftime('%Y-%m-%d %H:%M:%S')))print(' 失敗...')time.sleep(reset_interval) cookies = get_cookie('https://data.cnki.net/trade/Yearbook/Single/{}?z=Z016'.format(ybcode)) resource_url = response.json()['url']while True:try:with open('system_cfyb.log', 'a') as f:f.write(' + 下載{}...\t{}\n'.format(title, time.strftime('%Y-%m-%d %H:%M:%S')))print(' + 下載{}...'.format(title))response = requests.get(resource_url, headers=headers)if str(response.status_code) == '200':break else:with open('system_cfyb.log', 'a') as f:f.write(' 重置cookie...\t{}\n'.format(time.strftime('%Y-%m-%d %H:%M:%S')))print(' 重置cookie...')time.sleep(reset_interval)cookies = get_cookie('https://data.cnki.net/trade/Yearbook/Single/{}?z=Z016'.format(ybcode))except:with open('system_cfyb.log', 'a') as f:f.write(' 失敗...\t{}\n'.format(time.strftime('%Y-%m-%d %H:%M:%S')))print(' 失敗...')time.sleep(regular_interval)cookies = get_cookie('https://data.cnki.net/trade/Yearbook/Single/{}?z=Z016'.format(ybcode))time.sleep(regular_interval)with open(os.path.join(target_path, '{}.caj'.format(filecode)), 'wb') as f:f.write(response.content)with open(os.path.join(target_path, 'log.txt'), 'a') as f:f.write('{}\t{}\t{}.caj\n'.format(title, page_range, filecode))# Find urls of yearif is_initial:url = 'https://data.cnki.net/trade/Yearbook/Single/{}?z=Z016'.format(ybcode)response = requests.get(url, headers=headers)html = response.textsoup = BeautifulSoup(html, 'lxml')div = soup.find('div', class_='s_year clearfix')links = []ybcodes = []for link in div.find_all('a'):class_ = link.attrs.get('class')if class_ is None: # not currenthref = link.attrs.get('href')ybcode = href.split('/')[-1].split('?')[0]links.append(href)ybcodes.append(ybcode)with open('ybcode_cfyb.txt', 'w') as f:for ybcode in ybcodes:f.write(f'{ybcode}\n')for ybcode in ybcodes:download_chinese_financial_yearbook(ybcode=ybcode, is_initial=False) if __name__ == '__main__':'''with open('ybcode_csyb.txt', 'r') as f:lines = f.read().splitlines() for line in lines:ybcode, year = line.split()# if int(year) > 1999:# continuedownload_chinese_statistical_yearbook(ybcode=ybcode, year=year, is_initial=False)'''with open('ybcode_cfyb.txt', 'r') as f:lines = f.read().splitlines() for line in lines:ybcode, year = line.split()#if int(year) > 1994:# continuedownload_chinese_financial_yearbook(ybcode=ybcode, year=year, save_root='cfyb', is_initial=False, ignore_caj=True)

數據源來自中國知網,附本爬蟲的數據源:

  • 中國金融年鑒@CNKI
  • 中國統計年鑒@CNKI

因為筆者所在區域具有知網下載的權限,所以沒有知網下載權限的拿到這個爬蟲也沒什么意義,注意到每次爬蟲之前都會調用Selenium驅動瀏覽器去獲取Cookies,以獲取下載權限,由于知網Cookies時效很短,一旦失效下載得到的就是知網首頁的HTML,所以需要編寫邏輯去監測Cookies的有效性,一旦失效就需要繼續調用Selenium重新獲取Cookies。此外爬取速度盡可能地慢一些,代碼中兩次下載之間間隔151515秒,以《中國統計年鑒》為例,截至本文發布共計393939年,每年差不多有600600600張Excel表,所以基本上需要兩三天時間才能全部下完。

2 關于爬蟲的一些細節說明及如何使用腳本處理獲得的Excel表

筆者鑒于時間有限不想多提爬蟲的思路,這里主要記錄幾個細節(坑點):

  • 代碼中的ignore_caj=True即自動過濾caj鏈接的下載,事實上caj的下載相對會復雜一些,需要先做一個POST請求獲取資源鏈接,而excel的下載鏈接直接就寫在頁面源代碼上了。之所以選擇不下載caj文件有兩個原因,其一是caj文件確實沒什么用,有用的數據都寫在excel中了,重要的是另一個原因,就是caj的POST請求獲取資源鏈接很容易造成Cookie不可用,導致需要頻繁切換Cookie,太費時間,相對excel下載鏈接就很穩定,一般來說Cookie用上整整一天都不會失效。

  • 爬蟲主體僅為requests,瀏覽器驅動selenium只用作更新Cookie,所以資源耗用是比較小的。

  • 注意上述鏈接中的頁面源代碼上是有<iframe>標簽的,所以下載鏈接并不能直接在頁面源代碼中找到,需要監聽抓包取得<iframe>標簽下內容對應的URL。

  • 這里有一個問題,就是從上述數據源獲取得到的Excel表全部都是受保護的,其實只是不能去編輯這些Excel,正常使用Office或是WPS依然可以打開讀取(只讀模式),如果想要解除保護,需要在審閱菜單下輸入密碼:


  • 其實這也不影響使用,因為本來也不需要修改這些Excel表格,但是如果是使用pandas.read_excel或是xlrd.open_workbook都會發生報錯:

    xlrd.biffh.XLRDError: Workbook is encrypted

    筆者暫時沒有測試openpyxl.load_workbook在受保護的Excel上的讀取情況,原因是openpyxl只能支持.xlsx格式的文件讀取。因為年鑒數據的Excel表數量實在是太多了,如果想要批量地找一類數據,不借助腳本而是手動去復制數據實在是太蠢,最后終于找到了一種可行的方案,即使用win32com.client模塊下的DispatchEx方法:

    from win32com.client import DispatchEx excel = DispatchEx('Excel.Application') demo = excel.Workbooks.Open('N2018070031000595.xls') sheet = demo.WorkSheets(1) print(sheet.Cells(1,1).Value) demo.Close(True)

    本質是調用Office程序來讀取,在任務管理器中會出現Excel的進程,所以demo.Close關閉進程就非常重要,否則計算機很容易會因為打開過多的Excel而內存爆炸。缺點是這個模塊沒有提供什么現成的結構性數據處理方法,所以取值只能借助sheet.Cells來原始的取值,代碼量會比較高。

    筆者主要是在取各個省份的金融經濟數據表,獲取分省份的貸款余額,存款余額,生產總值,價格指數等信息,腳本如下:

    # -*- coding: utf-8 -*- # @author: caoyang # @email: caoyang@163.sufe.edu.cnimport re import os import sysimport time import xlrd import numpy import pandas import openpyxl from win32com.client import DispatchEx # 全局變量 CURRENT_DIR = os.getcwd() CFYB_DIR = 'cfyb' CSYB_DIR = 'csyb' TEMP_DIR = 'temp' LOG_FILE = 'log.txt' PROVINCE = ['北京', '天津', '上海', '重慶', '河北', '山西','遼寧', '吉林', '黑龍江', '江蘇', '浙江', '安徽','福建', '江西', '山東', '河南', '湖北', '湖南','廣東', '海南', '四川', '貴州', '云南', '陜西','甘肅', '青海', '臺灣', '內蒙古', '廣西', '西藏','寧夏', '新疆', '香港', '澳門', ]INT_COMPILER = re.compile(r'[^\d]') # 整型數正則 FLOAT_COMPILER = re.compile(r'[^\d | .]') # 浮點數正則# 獲取分省份的金融經濟信息:以貸款余額為主 def get_loan_by_province():def _get_province_by_title(_title): # 根據數據表名稱提取對應省份名for _province in PROVINCE:if _province in _title:return _provincedef _format_cell_value(_cell_value, dtype=str): # 標準化單元格的值if str(_cell_value) == 'None':return Noneif dtype == int:return INT_COMPILER.sub('', str(_cell_value).replace(' ', ''))if dtype == float:return FLOAT_COMPILER.sub('', str(_cell_value).replace(' ', ''))return str(_cell_value).replace(' ', '')def _get_dataframe_from_sheet(_sheet):_data_dict = {'year': [], # 年份'gdp': [], # 國內生產總值'cpi': [], # 價格指數'deposit': [], # 總存款余額'individual_deposit': [], # 個人存款余額'unit_deposit': [], # 單位存款余額'finance_deposit': [], # 財政存款余額'loan': [], # 總貸款余額'short_loan': [], # 短期貸款余額'long_loan': [], # 長期貸款余額}_flags = { # 對應_data_dict中的每一個字段用一個flag記錄它是否被找到'year': True, # 年份'gdp': True, # 國內生產總值'cpi': True, # 價格指數'deposit': True, # 總存款余額'individual_deposit': True, # 個人存款余額'unit_deposit': True, # 單位存款余額'finance_deposit': True, # 財政存款余額'loan': True, # 總貸款余額'short_loan': True, # 短期貸款余額'long_loan': True, # 長期貸款余額}_row = 0_MAX_ROW = 100while _row < _MAX_ROW: # 遍歷每一行_row += 1 # 行號遞進_cell_value = _format_cell_value(_sheet.Cells(_row, 1)) # 提取每一行第一列的單元格值if _cell_value is None: # 跳過空值的單元格continueif _flags['year'] and '項目' in _cell_value: # year: 【項目】所在行可以提取年份print('year: ' + _cell_value)_flags['year'] = False # 已經找到【項目】所在行_column = 1while True: # 遍歷【項目】所在行的每一列:取得年份_column += 1 # 列號遞進_year_string = _format_cell_value(_sheet.Cells(_row, _column), dtype=int)if _year_string is None: # 遇到空單元格值即可退出搜索break_data_dict['year'].append(_year_string) # 將當前年份添加到字典中_num_year = len(_data_dict['year']) # 記錄一共有多少年份continueif _flags['gdp'] and '生產總值' in _cell_value: # gdp: 國內生產總值if _flags['year']: # 偶然發現有的表里沒有【項目】,用國內生產總值的上一行修正_flags['year'] = False # 已經找到【項目】所在行_column = 1while True: # 遍歷【項目】所在行的每一列:取得年份_column += 1 # 列號遞進_year_string = _format_cell_value(_sheet.Cells(_row - 1, _column), dtype=float)if _year_string is None: # 遇到空單元格值即可退出搜索break_data_dict['year'].append(_year_string) # 將當前年份添加到字典中_num_year = len(_data_dict['year']) # 記錄一共有多少年份 print('gdp: ' + _cell_value)_flags['gdp'] = False # 已經找到【國內生產總值】所在行for _column in range(2, 2 + _num_year):_gdp_string = _format_cell_value(_sheet.Cells(_row, _column), dtype=float)_data_dict['gdp'].append(_gdp_string)continue if _flags['cpi'] and '價格指數' in _cell_value: # cpi: 消費者價格指數print('cpi: ' + _cell_value)_flags['cpi'] = False # 已經找到【消費者價格指數】所在行for _column in range(2, 2 + _num_year):_cpi_string = _format_cell_value(_sheet.Cells(_row, _column), dtype=float)_data_dict['cpi'].append(_cpi_string)continueif _flags['deposit'] and ('存款' in _cell_value and \'銀行' in _cell_value): # deposit: 總存款余額print('deposit: ' + _cell_value)_flags['deposit'] = False # 已經找到【總存款余額】所在行for _column in range(2, 2 + _num_year):_deposit_string = _format_cell_value(_sheet.Cells(_row, _column), dtype=float)_data_dict['deposit'].append(_deposit_string)continueif _flags['individual_deposit'] and ('存款' in _cell_value and \('城鄉' in _cell_value or '儲蓄' in _cell_value)): # individual_deposit:個人存款余額print('individual deposit: ' + _cell_value)_flags['individual_deposit'] = False # 已經找到【個人存款余額】所在行for _column in range(2, 2 + _num_year):_individual_deposit_string = _format_cell_value(_sheet.Cells(_row, _column), dtype=float)_data_dict['individual_deposit'].append(_individual_deposit_string)continue if _flags['unit_deposit'] and ('存款' in _cell_value and \('企' in _cell_value or '單位' in _cell_value)): # unit_deposit: 單位存款余額print('unit deposit: ' + _cell_value)_flags['unit_deposit'] = False # 已經找到【單位存款余額】所在行for _column in range(2, 2 + _num_year):_unit_deposit_string = _format_cell_value(_sheet.Cells(_row, _column), dtype=float)_data_dict['unit_deposit'].append(_unit_deposit_string)continue if _flags['finance_deposit'] and ('存款' in _cell_value and ('財政' in _cell_value)): # finance_deposit: 財政存款余額print('finance deposit: ' + _cell_value)_flags['finance_deposit'] = False # 已經找到【財政存款余額】所在行for _column in range(2, 2 + _num_year):_finance_deposit_string = _format_cell_value(_sheet.Cells(_row, _column), dtype=float)_data_dict['finance_deposit'].append(_finance_deposit_string)continue if _flags['loan'] and ('貸款' in _cell_value and \'銀行' in _cell_value): # loan: 總貸款余額print('loan: ' + _cell_value)_flags['loan'] = False # 已經找到【總貸款余額】所在行for _column in range(2, 2 + _num_year):_loan_string = _format_cell_value(_sheet.Cells(_row, _column), dtype=float)_data_dict['loan'].append(_loan_string)continue if _flags['short_loan'] and ('貸款' in _cell_value and \('短期' in _cell_value or '流動' in _cell_value)):# short_loan: 短期貸款余額print('short loan: ' + _cell_value)_flags['short_loan'] = False # 已經找到【短期貸款余額】所在行for _column in range(2, 2 + _num_year):_short_loan_string = _format_cell_value(_sheet.Cells(_row, _column), dtype=float)_data_dict['short_loan'].append(_short_loan_string)continue if _flags['long_loan'] and ('貸款' in _cell_value and \('長期' in _cell_value or '固定' in _cell_value)):# long_loan: 長期貸款余額print('long loan: ' + _cell_value)_flags['long_loan'] = False # 已經找到【長期貸款余額】所在行for _column in range(2, 2 + _num_year):_long_loan_string = _format_cell_value(_sheet.Cells(_row, _column), dtype=float)_data_dict['long_loan'].append(_long_loan_string)continuefor key in _flags: # 沒有找到數據的字段置空if _flags[key]:for _ in range(_num_year):_data_dict[key].append(None)_dataframe = pandas.DataFrame(_data_dict, columns=list(_data_dict.keys()))print(_flags)# print(_data_dict)# print(_dataframe)return _dataframeapplication = DispatchEx('Excel.Application') # 啟動Excel程序for year in os.listdir(os.path.join(CURRENT_DIR, CFYB_DIR)): # 遍歷中國金融年鑒下所有年份print(f'======={year}=======')# if year < 2017:# continuelog_df = pandas.read_csv(os.path.join(CFYB_DIR, year, LOG_FILE), header=None, sep='\t', encoding='gbk') # 讀取爬蟲時的log表log_df.columns = ['title', 'pagerange', 'filename'] # 為log表添加表頭result_df = log_df[log_df['title'].map(lambda x: sum([province in x for province in PROVINCE]) > 0 \and ('主要金融經濟統計' in x or '主要經濟金融統計' in x))].reset_index(drop=True) # 篩選分地區的Excel表dataframes = []if result_df.shape[0] == 0:continuefor i in range(result_df.shape[0]): # 遍歷每一行title = result_df.loc[i, 'title'] # 獲取Excel表的名稱filename = result_df.loc[i, 'filename'] # 獲取Excel表的文件名province = _get_province_by_title(title) # 根據Excel表的名稱提取對應的省份print(title, filename)excel = application.Workbooks.Open(os.path.join(CURRENT_DIR, CFYB_DIR, year, filename)) # 打開Excel表sheet = excel.WorkSheets(1) # 取出其中第一張sheetdataframe = _get_dataframe_from_sheet(sheet)dataframe['province'] = provinceexcel.Close(True)dataframes.append(dataframe)df_concat = pandas.concat(dataframes, ignore_index=True)df_concat.to_csv(f'loan_by_area_{year}.csv', index=False, header=True, sep='\t')if __name__ == '__main__':get_loan_by_province()

    這個腳本寫得很硬,很多地方的邏輯寫得都非常硬,因為這些表每年的格式還不太一樣,同一年份下不同省份的表格式也不太一樣,所以數據真的是很難找,僅供參考。


    后記(最近的一些感想)

    數罪當論,最近做了好多錯事。

    跟老媽聊了一點之后,覺得昨天既然見面了還是應該打個招呼,大大方方就就好了。但是真的見到面還是覺得有點尷尬,招呼不是很說得出口,本來就不怎么擅長打招呼,尤其是這種情境。

    實話說SSS確實變了很多,頭發留長了,也染了一些顏色,如果不是看正臉我應該是不太能一眼認出來了。

    兩年后在這個學校里,該走的人也該走完了,到那時也不由得自己再想些什么,讀博之路,長夜漫漫,可能還是要孤獨一些比較好,不然只會越走越長,誰知道呢?

    堅持日記和跑步,這是我生命中最重要的兩個信仰,前者讓我記住自己,后者再讓我忘掉自己。在記憶與遺忘中浮沉,也是一種人生之道。

    今年是我寫日記的第十個年頭,所有日記加起來約莫百萬余字,十幾本整整齊齊地排在我的書桌上。

    在2011年12月31日提筆開始寫第一篇日記時,我可能想不到自己會寫到這么久,但是對于我來說,一旦選擇堅持一件事情,很可能會堅持到自己力不能及為止,因為我覺得沒有什么是值得放棄的,如果還能抓得住的話。

    但是也許我只是不想再去抓什么東西了罷,或者確切地說,我只是不敢再去抓住什么東西了罷。

    總結

    以上是生活随笔為你收集整理的【日常】《中国统计年鉴》与《中国金融年鉴》数据表爬虫(附1985-2020所有Excel资源)的全部內容,希望文章能夠幫你解決所遇到的問題。

    如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。

    久久久久久久久久国产精品 | 超碰在线天天 | 午夜av片 | 欧美精品一区二区免费 | а天堂中文最新一区二区三区 | 欧美午夜理伦三级在线观看 | 国产精品午夜在线观看 | 黄污视频大全 | 精品999国产| 狠狠色丁香久久婷婷综 | 亚洲理论片在线观看 | 精品日韩av| 亚洲人天堂 | 色资源在线 | av超碰在线| 久久爱资源网 | 国产又粗又猛又黄 | 日本精品久久久久中文字幕 | 69国产精品成人在线播放 | 去看片 | 国产探花视频在线播放 | 激情久久久久久久久久久久久久久久 | 久久久综合 | 亚洲v欧美v国产v在线观看 | 国产精品美女网站 | 久久超| 在线视频区 | 欧美日韩精品在线视频 | 九九热av| 日韩av黄| 久久午夜免费视频 | 久久全国免费视频 | 国产美女视频免费观看的网站 | 偷拍精品一区二区三区 | 免费观看性生活大片 | 国产成人精品一区二区三区在线观看 | 日韩色综合网 | 色偷偷888欧美精品久久久 | 色婷婷欧美 | 日韩欧美视频免费观看 | 在线中文字母电影观看 | 久久观看最新视频 | 国产永久免费高清在线观看视频 | 国产精品午夜在线 | 国产精品99久久免费观看 | 国产小视频在线免费观看视频 | 五月婷婷六月丁香激情 | 成人黄色在线观看视频 | 天天爱天天射天天干天天 | 在线国产激情视频 | 99久久免费看 | 久草在线观看 | 日韩精品一区二区三区高清免费 | 国产色视频网站2 | 在线看片中文字幕 | av在线免费播放网站 | 免费看wwwwwwwwwww的视频 久久久久久99精品 91中文字幕视频 | 久久久久免费精品国产 | 91日韩精品 | 国产精品久久一区二区三区不卡 | 草在线| 国产亚洲精品久久久久动 | 日韩亚洲精品电影 | 日韩av免费一区二区 | a在线观看免费视频 | 日韩在线精品一区 | 日韩在线免费不卡 | 91天堂素人约啪 | a在线免费| 91中文字幕在线观看 | 国产精品二区三区 | 99久久99久国产黄毛片 | 蜜桃av综合网 | 97在线视频免费观看 | 欧美国产一区在线 | av青草 | 久久久久免费看 | 国产欧美精品一区aⅴ影院 99视频国产精品免费观看 | 99热免费在线 | 欧美aaa大片 | 国产婷婷在线观看 | 男女免费视频观看 | 免费观看av网站 | 成片免费观看视频999 | 麻豆视频大全 | 成人a免费 | 国产亚洲精品v | 97在线看| 国产高清av | 六月丁香激情综合色啪小说 | 亚洲黄色片在线 | 九九99视频 | 日韩极品在线 | 欧美一级欧美一级 | 在线看小早川怜子av | 在线国产能看的 | 久久国产精品99久久人人澡 | 免费av观看 | 欧美日韩国产精品一区二区三区 | 在线免费av播放 | 国产精品mv在线观看 | 日韩视频一区二区三区 | www免费网站在线观看 | 91av在线免费观看 | 最新国产精品拍自在线播放 | 日日夜夜免费精品视频 | 久久免费精品国产 | 人人看人人爱 | 香蕉影视 | 中文字幕精品一区二区三区电影 | 国产成人av综合色 | 久久久视屏 | 日本精品va在线观看 | 韩国在线视频一区 | 日韩在线视频观看 | 99久久日韩精品免费热麻豆美女 | 91社区国产高清 | 亚州日韩中文字幕 | 黄色软件在线观看视频 | www最近高清中文国语在线观看 | 久久超级碰 | 欧美精品二区 | 久久69精品久久久久久久电影好 | 精品视频免费在线 | 亚洲永久精品国产 | 93久久精品日日躁夜夜躁欧美 | 国产精品久久久久久久久婷婷 | 亚洲精品日韩在线观看 | 国产婷婷精品av在线 | 亚洲高清视频在线观看免费 | 手机在线欧美 | 人人藻人人澡人人爽 | 又长又大又黑又粗欧美 | 久久久久久久久爱 | 偷拍精偷拍精品欧洲亚洲网站 | 精一区二区| 亚洲成人网av| 免费电影播放 | 日韩欧美有码在线 | 一级国产视频 | 人人草人人草 | 色婷婷福利 | 香蕉视频91| 奇米影视8888在线观看大全免费 | 少妇bbbb | 免费网站看av片 | 69国产盗摄一区二区三区五区 | 日韩美一区二区三区 | 99久久精品日本一区二区免费 | 91热视频 | 国产99久久九九精品免费 | 99久久9 | 日韩精品一区二区三区在线视频 | 欧美最爽乱淫视频播放 | 亚洲综合一区二区精品导航 | 午夜精品久久久久久99热明星 | 在线欧美国产 | 操操操干干干 | 91精品婷婷国产综合久久蝌蚪 | 国产视频精品免费 | 一区二区三区精品在线视频 | 日本aaa在线观看 | 日韩理论电影网 | www.天天干 | av看片网| 99久久久国产精品免费观看 | 久久精品视频国产 | 国产999精品久久久久久麻豆 | 亚洲春色综合另类校园电影 | 免费亚洲视频在线观看 | 中文字幕亚洲不卡 | 99久久精品免费看国产麻豆 | 黄色小视频在线观看免费 | 日韩久久网站 | 99久热精品 | 免费精品国产 | 美女视频一区二区 | 亚洲精品777| 国产色视频网站 | 日本免费久久高清视频 | 97av视频| 日本特黄一级片 | 亚洲 欧美 91 | 中文字幕一区二区三区久久蜜桃 | 五月婷婷视频 | 在线视频精品 | 一色屋精品视频在线观看 | 精品视频区 | 亚洲国产日韩欧美 | 国产黄色一级大片 | 国产精品乱码久久久久 | 成人av直播 | 久久久久成 | 99精品免费久久久久久久久日本 | 中文字幕网址 | 亚洲精品观看 | 久久九九九九 | 色综合狠狠干 | 日本少妇视频 | 国产成人三级一区二区在线观看一 | 欧洲av在线 | 免费在线国产 | 一级成人免费 | 黄色免费网 | 成人性生交大片免费观看网站 | 国产视频中文字幕在线观看 | 丁香花中文在线免费观看 | 国产精品福利午夜在线观看 | 国产区高清在线 | 99草视频在线观看 | 国产高清视频色在线www | 国产资源精品 | 欧美伊人网 | 日韩av在线网站 | 亚洲最新av在线网站 | 色av男人的天堂免费在线 | 五月天狠狠操 | 国产 日韩 在线 亚洲 字幕 中文 | 999成人 | 国产福利av | 精品国产中文字幕 | 日韩激情视频 | 日本69hd | 日韩免费电影在线观看 | 成人av片免费观看app下载 | 888av| 精品美女久久久久久免费 | 久久成人一区二区 | 色综合久久五月 | 国产超碰在线观看 | 久久国精品| 看毛片网站| 久草视频在线免费播放 | 免费的成人av | 色全色在线资源网 | 国产精品成人免费精品自在线观看 | 啪啪av在线| 国产精品自在线拍国产 | japanesexxx乱女另类 | 亚洲国产成人在线播放 | 99综合久久 | 一区二区三区高清 | av天天澡天天爽天天av | 色欧美成人精品a∨在线观看 | 日韩av资源站 | 日韩一二三区不卡 | 国产在线欧美在线 | av高清一区二区三区 | 不卡精品视频 | 免费视频区 | 99热精品视| 性色av免费观看 | 超碰在97| 亚洲精品国产综合久久 | 久久情网 | 人人超碰免费 | 九九三级毛片 | 国产尤物一区二区三区 | 中文久久精品 | 在线观看一级 | 精品一区二区免费 | 在线看国产视频 | 日韩av免费在线看 | 激情六月婷婷久久 | 一级片视频在线 | 色综合久久精品 | 国产免费人成xvideos视频 | 日本午夜免费福利视频 | 18久久久久| 亚洲欧洲精品久久 | 免费福利视频导航 | 欧美一级专区免费大片 | 亚洲综合色激情五月 | 国产精品久久久 | 日韩网站免费观看 | 成人动漫精品一区二区 | 国产成人精品日本亚洲999 | 久久激情婷婷 | 精品在线播放 | 色中色亚洲 | 国产无遮挡又黄又爽在线观看 | 国产视频在线观看一区 | 在线亚洲小视频 | 亚洲蜜桃在线 | 91久久影院 | 国产精品午夜免费福利视频 | 91久久久久久久 | 久艹在线播放 | 久久特级毛片 | 狠狠操狠狠干天天操 | 在线免费观看黄色 | 中文字幕中文 | 美女黄网久久 | 亚洲区视频在线观看 | 奇米影视8888 | 2022久久国产露脸精品国产 | 成人欧美一区二区三区在线观看 | 欧美精品国产综合久久 | 婷婷色5月 | 国产精品18videosex性欧美 | 成人黄色资源 | 国产在线精品国自产拍影院 | 91精品啪| av中文在线| 狠狠88综合久久久久综合网 | 亚洲国产精品免费 | 久久99国产综合精品免费 | 日日夜夜91| 91精品免费在线 | 成人黄色电影在线播放 | 91看成人| 成人h动漫在线看 | 成人久久18免费网站 | 超碰在线人人爱 | 久久精品99 | 91精品天码美女少妇 | www.久久91| 日本婷婷色 | 国产日韩精品一区二区在线观看播放 | 色婷婷av一区二 | 精品久久久99 | 国产一级大片在线观看 | 一级黄色大片 | 午夜成人影视 | 91视频黄色 | 免费精品视频 | 色婷婷激婷婷情综天天 | 亚洲激情精品 | 国内精品久久久久影院一蜜桃 | 99视频在线精品免费观看2 | 日韩av中文在线 | 在线观看成年人 | 韩国av永久免费 | 亚洲高清视频在线观看免费 | 日本精品久久久一区二区三区 | 国产精品久久久久久久久久 | 99精品在线观看视频 | 免费日韩在线 | 中文字幕一区二区三区四区久久 | 99中文在线 | 九九综合九九 | 中文字幕在线影视资源 | 91天堂素人约啪 | 欧美综合久久 | 日本一区二区高清不卡 | 久久永久免费视频 | 精品久久精品久久 | 粉嫩av一区二区三区四区 | 天天综合婷婷 | 极品久久久 | 欧美日韩国产亚洲乱码字幕 | 色五月成人 | 探花视频免费观看高清视频 | 黄色av高清| 亚洲视频h | 亚洲精品美女在线观看播放 | 二区三区av| 伊人影院在线观看 | 婷婷深爱五月 | 午夜精品一区二区三区在线观看 | 久久免费av电影 | 激情视频免费在线观看 | 国产精品无av码在线观看 | 天天射天天干 | 国产美女视频免费 | 日日夜夜人人精品 | 欧美日韩国产一二三区 | 久久久久激情电影 | 麻豆一区二区 | 久久综合精品国产一区二区三区 | 开心色激情网 | 99精品在这里 | 日韩网站免费观看 | 久久你懂的 | 久久精彩| 麻豆超碰 | 精品一区在线看 | 99精品在线免费 | 天天操天天操天天干 | 91成人精品一区在线播放 | 欧美福利精品 | 国产不卡在线播放 | 亚洲日本一区二区在线 | 99理论片 | 免费 在线 中文 日本 | 丁香花五月 | 亚洲小视频在线 | zzijzzij亚洲成熟少妇 | 亚洲四虎在线 | 色婷婷免费视频 | 亚洲美女精品区人人人人 | 在线观看免费黄色 | 久久激情小说 | 久久天天躁狠狠躁夜夜不卡公司 | 四虎国产永久在线精品 | 999久久久欧美日韩黑人 | 99精品免费在线 | 亚洲天堂网在线视频观看 | 日韩视频在线播放 | 丁香婷婷综合激情 | 久久久久成人精品亚洲国产 | 中文字幕免费播放 | 97超在线| 99免在线观看免费视频高清 | 久久xxxx | 日韩在线免费 | wwwwwww黄 | 91视频免费国产 | 青青河边草观看完整版高清 | 人人讲下载 | 92av视频| 久久久久久亚洲精品 | 久久久久欧美精品 | www在线观看视频 | 国产精品视频在线看 | 黄色免费观看视频 | 综合网中文字幕 | 国产中的精品av小宝探花 | 午夜视频亚洲 | 在线观看日韩精品 | 在线综合 亚洲 欧美在线视频 | 99九九热只有国产精品 | 精品亚洲一区二区三区 | 激情欧美丁香 | 免费高清在线观看成人 | 91热精品| 日日爱夜夜爱 | 久草在线免费在线观看 | 国产一区二区免费 | 亚洲 中文字幕av | 午夜精品一区二区三区在线播放 | 日日躁天天躁 | 国产99久久久国产精品 | 国产一级高清视频 | 国产精品青草综合久久久久99 | a在线免费观看视频 | 久久不卡国产精品一区二区 | 99亚洲精品视频 | 亚洲午夜av久久乱码 | 天堂av网站 | 日韩中文字幕视频在线观看 | 一区二区在线电影 | 久久久黄色免费网站 | 黄色精品免费 | 精品视频免费 | 国产精品久久久久aaaa九色 | 日韩中文字幕免费视频 | 久久久久久久久福利 | 免费高清在线视频一区· | 91精品视频一区 | 黄色大全免费网站 | 日韩av电影手机在线观看 | 五月婷综合 | 美女网站在线观看 | 久久免费美女视频 | 欧美激情综合五月色丁香 | 81精品国产乱码久久久久久 | 少妇视频一区 | 六月丁香综合 | 69国产精品视频免费观看 | 日韩视频一二三区 | 黄色三级视频片 | 在线看小早川怜子av | 五月婷婷黄色网 | 日日干美女 | 久久99精品热在线观看 | 亚洲一级片免费观看 | 热久久在线视频 | 久久大视频 | 91av中文字幕 | 国产精品久久久久久久久久不蜜月 | 久久夜色精品亚洲噜噜国4 午夜视频在线观看欧美 | 免费性网站 | 日韩在线视频在线观看 | 久久1电影院 | 国模一区二区三区四区 | 国产精品一区二区美女视频免费看 | 国产欧美中文字幕 | 国产一区二区在线视频观看 | 99精品国产在热久久下载 | 在线va网站| 国产一区欧美一区 | 久久只精品99品免费久23小说 | 久久国内精品视频 | 国产高清在线a视频大全 | 国产又黄又硬又爽 | 色婷婷国产在线 | 超碰97人 | 在线中文视频 | 中文字幕日韩有码 | 胖bbbb搡bbbb擦bbbb | 波多野结衣在线中文字幕 | 国产日韩精品一区二区三区 | 奇米影音四色 | 麻豆视频免费看 | 久久精品中文字幕免费mv | 色网站在线| 日韩区欠美精品av视频 | 在线日韩精品视频 | 久人人 | 狠狠色丁香婷婷综合橹88 | 国产日韩中文在线 | 精品少妇一区二区三区在线 | 国产剧情在线一区 | 精品9999 | 日韩在线电影一区二区 | 国产精品久久久久9999 | 最近字幕在线观看第一季 | 成人禁用看黄a在线 | 国产精品美 | 日韩黄色免费电影 | 婷婷色狠狠 | av网站免费在线 | 日韩 在线观看 | 久久看视频 | 久草在线视频资源 | 久久成人18免费网站 | 国产xx在线| 极品美女被弄高潮视频网站 | 久久在线看 | 日韩视频一区二区在线 | 狠狠色丁香婷婷综合基地 | 日韩免费视频播放 | 国产精品片 | 久久久在线 | 国产香蕉视频在线观看 | 欧美国产日韩一区二区三区 | 精品国产免费观看 | 黄色三级免费网址 | 国产在线观看地址 | 99婷婷 | 99色视频在线 | 国产一级片一区二区三区 | 日韩福利在线观看 | 欧美日韩有码 | 久久精品韩国 | 在线观看中文字幕亚洲 | 免费高清无人区完整版 | www.色国产| 欧美成年网站 | 超碰在线官网 | 91亚洲狠狠婷婷综合久久久 | 精品国产一区二区三区久久久 | 日韩午夜网站 | 国产亚洲精品久久 | 在线最新av | 亚洲日本欧美在线 | 精品国产一区二区三区男人吃奶 | 亚洲1区 在线 | 一区二区三区韩国免费中文网站 | 精品国精品自拍自在线 | 在线看黄色的网站 | 中文成人字幕 | 国产黄色一级大片 | 天天干夜夜爱 | 国内综合精品午夜久久资源 | 97视频网址 | 国产综合婷婷 | 久久经典国产视频 | 亚洲天堂激情 | 高清一区二区三区av | 激情在线网址 | 主播av在线 | zzijzzij亚洲日本少妇熟睡 | 狠狠色丁香婷婷综合久久片 | 综合影视 | 成人午夜电影网 | 国产精品久久久av | 夜夜爽夜夜操 | 亚洲 欧洲av | 国产综合片 | 婷婷免费在线视频 | 五月激情六月丁香 | 欧美一级黄色视屏 | 久久视频这里只有精品 | 日本三级在线观看中文字 | 久久伦理 | 国产在线精品区 | 久久久影院官网 | 色中文字幕在线观看 | 国产小视频免费在线观看 | 天天干天天草天天爽 | 免费看黄的 | 91在线免费视频观看 | 日韩在线精品 | 亚洲黄色高清 | 天天色天天骑天天射 | 五月开心综合 | 看毛片的网址 | 亚洲精品黄网站 | 国产黄色免费观看 | 成人免费网站在线观看 | 国产最顶级的黄色片在线免费观看 | 欧美黄色软件 | 国产日韩欧美视频 | 欧美福利片在线观看 | 玖玖玖国产精品 | 免费毛片aaaaaa | 亚洲综合视频在线 | av免费看网站 | 国产精品久久 | 成人av免费在线看 | 高清免费在线视频 | 91看片成人 | 欧美精品一二三 | 久久精品免费播放 | 涩涩网站免费 | 狠狠干在线 | 亚洲精品国产麻豆 | 国产精品久久一卡二卡 | 久久久久免费 | 久久国产精品99久久久久久进口 | 九九99靖品| 麻花豆传媒mv在线观看 | 亚洲91精品在线观看 | 97国产精品久久 | 亚洲美女免费视频 | 夜夜操天天操 | 97超碰伊人| 免费在线播放av电影 | 亚洲三级国产 | 97色在线视频 | 亚洲精品在线电影 | 日韩天天操 | 亚洲国产色一区 | 中文字幕在线免费观看 | 国产在线精品国自产拍影院 | 婷婷激情综合 | 久久久99国产精品免费 | 99riav1国产精品视频 | 又黄又刺激的视频 | 国产人免费人成免费视频 | 日本少妇视频 | 中文字幕国产精品一区二区 | 国产精品一区专区欧美日韩 | 亚洲免费视频观看 | 色久天 | 国产亚洲亚洲 | www.亚洲精品视频 | 在线观看中文字幕一区二区 | 成人av免费网站 | 久久99国产精品二区护士 | 99热在线观看 | 怡红院av久久久久久久 | 欧美在线一级片 | 久久综合九色九九 | 成片免费 | 精品日韩在线一区 | 天天玩天天操天天射 | 亚洲手机天堂 | av大片网址 | 日日爱999 | 欧美在线99| 丁香婷婷综合激情五月色 | 国产永久免费观看 | 91久久精品日日躁夜夜躁国产 | 国产中文字幕一区二区三区 | 一区二区三区日韩在线 | 91亚洲成人 | av在线免费观看不卡 | 午夜私人影院 | 免费毛片一区二区三区久久久 | 久久久久看片 | 伊人久久av | 午夜视频亚洲 | 国产日韩欧美在线看 | 日日夜夜av | 在线免费三级 | 日韩欧美一区二区三区黑寡妇 | 国色天香永久免费 | 日韩大片在线免费观看 | 久草视频在线免费播放 | 日韩欧美国产免费播放 | 精品国偷自产在线 | 天天操天天插 | 日韩精品视频免费在线观看 | 日韩精品免费在线视频 | 综合色影院| 在线视频 亚洲 | 欧美久久久一区二区三区 | 三级视频日韩 | 91精彩在线视频 | 少妇精69xxtheporn | 婷婷亚洲五月 | 91精品国产欧美一区二区 | 五月香视频在线观看 | 成人理论电影 | 免费视频在线观看网站 | 亚洲成人黄色在线 | 久久男人中文字幕资源站 | 国产女人18毛片水真多18精品 | 丰满少妇在线观看资源站 | 日韩欧美在线观看一区 | 国产一级片直播 | 成人影视免费看 | 99精品视频网站 | 91av视频免费观看 | 日韩成人邪恶影片 | 欧美一区影院 | 日韩av不卡在线播放 | 中文字幕亚洲欧美日韩 | 免费观看的黄色片 | 日韩精品久久久久久久电影99爱 | 97超碰国产精品 | 正在播放 国产精品 | 99精品国产兔费观看久久99 | 六月丁香六月婷婷 | 亚洲高清视频在线 | 97超碰在线久草超碰在线观看 | 在线观看国产 | 午夜精品久久久久久久爽 | 一区二区三区高清不卡 | 久久久免费毛片 | 亚洲国产精品免费 | 国产成人精品一区二区在线观看 | 999ZYZ玖玖资源站永久 | 国产精品日韩欧美 | 在线看成人 | 国产不卡视频在线 | 欧美久久久久久久久中文字幕 | 丁香婷婷激情五月 | 网站在线观看你们懂的 | 尤物一区二区三区 | 免费三级网 | 亚洲午夜精品一区 | 亚洲人成人在线 | 国产日韩视频在线播放 | 亚洲精品午夜久久久 | 成人黄色小说在线观看 | 成人羞羞视频在线观看免费 | 国产一区二区在线影院 | 久久久久亚洲国产精品 | 亚洲三级在线 | 亚洲综合色站 | 成片免费观看视频 | 天天鲁天天干天天射 | 国内精品美女在线观看 | www免费在线观看 | 久久精品—区二区三区 | 岛国精品一区二区 | 国产激情小视频在线观看 | 国产精品va在线播放 | 字幕网资源站中文字幕 | 黄色精品一区 | 91精品视频免费在线观看 | 二区三区av | 久久人人97超碰国产公开结果 | 国产精品久久久久影视 | 免费高清看电视网站 | 国产精品欧美精品 | av看片网址 | 久久综合亚洲鲁鲁五月久久 | 日韩免费在线一区 | 天堂久色 | 国产在线a| 国产午夜三级一区二区三桃花影视 | av在线8| 黄色大全在线观看 | 免费手机黄色网址 | 亚洲精品视频在线看 | 亚洲精品小区久久久久久 | 久草爱视频 | 中文字幕免费久久 | 日韩精选在线 | 成人网看片 | 国产91在线免费视频 | 日韩高清一二区 | 中文字幕激情 | 国产精品久久久久久久免费观看 | 亚洲乱码国产乱码精品天美传媒 | 国产一区视频在线 | 亚洲视频在线播放 | 成年人视频免费在线播放 | 狠狠躁天天躁 | 成人在线视频在线观看 | 国产精品久久久久久久久久直播 | 久久久男人的天堂 | 国产一区视频在线播放 | 日韩最新在线视频 | 中文字幕国产一区二区 | av千婊在线免费观看 | 国产成人一区二区三区久久精品 | 一区二区三区免费在线观看 | 国产成人性色生活片 | www黄色av| 成人在线播放av | 久久久久国产精品厨房 | 国产视频综合在线 | www久草 | 91大神一区二区三区 | 日韩电影在线一区二区 | 91尤物在线播放 | 99久久精品视频免费 | 欧美大片mv免费 | 91丝袜美腿 | 午夜精品久久久久久久99无限制 | 色综合久久久久综合体桃花网 | 欧美精品一区二区在线观看 | 在线观看一级 | 国产精品黄网站在线观看 | 一区中文字幕电影 | 国产精品美女久久久久久久久久久 | 亚洲天堂视频在线 | 91精品网站在线观看 | 国产精品免费小视频 | 欧美激情在线网站 | 国产成人综合精品 | 九九九九精品九九九九 | 在线黄av| 免费av的网站| 综合天堂av久久久久久久 | 国产大陆亚洲精品国产 | 91精彩在线视频 | 免费看黄色91| 伊人超碰在线 | 亚洲精品国产自产拍在线观看 | 国产精品一区久久久久 | 亚洲精品视频第一页 | 天天操天天射天天爽 | 日韩黄色网络 | 亚洲,播放 | 亚洲美女视频在线 | 免费在线观看亚洲视频 | 玖玖在线免费视频 | 亚洲美女视频在线 | 日本动漫做毛片一区二区 | 九色精品免费永久在线 | 一区久久久 | 久久免费视频6 | 免费观看www小视频的软件 | 91在线看视频免费 | 丝袜美腿在线视频 | 国产婷婷精品av在线 | 狠狠躁夜夜躁人人爽超碰97香蕉 | 久久久www成人免费精品 | 国色天香在线 | 国产精品久久久久永久免费 | 色综合久久天天 | 久久久久国产成人免费精品免费 | 欧美日本啪啪无遮挡网站 | 69夜色精品国产69乱 | 精品在线不卡 | 五月婷婷视频在线 | 国产盗摄精品一区二区 | 最新真实国产在线视频 | 最新av免费在线 | 超碰午夜| 欧洲精品亚洲精品 | 免费在线 | 精品夜夜嗨av一区二区三区 | 免费av成人在线 | 91成人精品一区在线播放 | 日韩和的一区二在线 | 又长又大又黑又粗欧美 | 婷婷精品在线视频 | 美女视频久久黄 | 粉嫩av一区二区三区四区在线观看 | 久久高清免费视频 | 亚洲另类视频 | 91在线一区 | 国产 成人 久久 | 91cn国产在线 | 美女网站在线播放 | 欧美成人一二区 | 久久综合九色综合久久久精品综合 | 天天射综合网站 | 91视频麻豆视频 | 91精品国产自产在线观看永久 | 福利一区二区在线 | 久久免费的精品国产v∧ | 国产精品久久一 | 91视频网址入口 | 国产精品美女久久久网av | 久久久91精品国产 | 正在播放一区二区 | 国产专区日韩专区 | 99精品国产兔费观看久久99 | 久久视频这里有精品 | 一本一本久久a久久精品综合 | 大型av综合网站 | av高清影院 | 亚洲女欲精品久久久久久久18 | 久久人人爽av | 日本中文字幕电影在线免费观看 | 午夜久久网站 | 日韩视频a | 久久婷婷一区二区三区 | 国产精品毛片久久蜜 | 日韩二区三区在线 | 高清在线观看av | 91亚洲精品久久久久图片蜜桃 | 久久伊99综合婷婷久久伊 | 中文字幕亚洲国产 | 99精品免费在线观看 | 久久国色夜色精品国产 | 在线视频在线观看 | 国产高清精品在线观看 | 黄网av在线 | 日韩av在线免费播放 | 一区二区三区在线观看中文字幕 | 天堂网中文在线 | 国内久久久久久 | 免费h漫在线观看 | av丁香| 久久手机看片 | 青青草在久久免费久久免费 | 97电影在线| 国产精品久久久久久久免费观看 | 国产精品视频在线观看 | 很污的网站 | 日韩中文字幕a | 久久久久久久久久亚洲精品 | 欧美日韩网址 | 国产成人久久精品亚洲 | 国产99久久精品 | 亚洲 精品在线视频 | 日韩高清精品一区二区 | 人人射人人射 | 婷婷午夜天| 97色在线观看免费视频 | 天天操综 | 国产成人一区二区三区久久精品 | 免费一级黄色 | 毛片二区| 亚洲理论在线观看电影 | 亚洲电影网站 | 日韩网站视频 | 欧美精品乱码久久久久久 | 香蕉网在线播放 | 日韩系列在线 | 国产精品高清在线观看 | 欧美aa在线 | 精品伊人久久久 | 97精品国产手机 | 中文字幕一区2区3区 | www.久久免费| 天天色官网 | 亚洲免费视频观看 | 黄色在线观看网站 | 一区二区三区四区在线免费观看 | 久久一二三四 | 国产va饥渴难耐女保洁员在线观看 | 日韩精品视频在线免费观看 | 久久久穴 | 久久久久久久99精品免费观看 | 久草在线在线精品观看 | 一区二区欧美在线观看 | 日韩一区二区三区不卡 | 五月天激情综合 | 91在线播 | 久久久久久看片 | 国产精品1区2区在线观看 | wwwwwww色| 一区av在线播放 | 精品久久久久久久久亚洲 | 免费福利片2019潦草影视午夜 | 午夜av免费| 一区二区三区精品在线视频 | 国产99久久精品一区二区永久免费 | 99国产成+人+综合+亚洲 欧美 | 久操中文字幕在线观看 | 久久精品视频18 | 国产品久精国精产拍 | 99久久精品久久亚洲精品 | 日韩免费在线视频观看 | 国产高清在线免费视频 | 欧美一级电影片 | 99精品视频精品精品视频 | 不卡中文字幕在线 | 欧美激情va永久在线播放 | 中文字幕色网站 | 久久久视屏 | 日韩午夜一级片 | 国产专区视频在线观看 | 欧美国产大片 | 亚洲欧美综合精品久久成人 | 天天做天天爱天天爽综合网 | 精品国产一区二区三区不卡 | 亚洲精品免费在线观看 | 丁香五月亚洲综合在线 | 91视频在线免费下载 | 久久精品网站免费观看 | 天天摸日日摸人人看 | 国产精品国产三级国产aⅴ无密码 | 国产69精品久久久久99尤 | 国产伦理久久精品久久久久_ | 欧美另类高清 | 一区二区伦理电影 | 中文字幕在线观看一区 | 久草精品在线观看 | 国产91在线播放 | 亚洲理论在线观看 | 午夜999| 人人网人人爽 | 色综合久久中文字幕综合网 | 久久久久久高潮国产精品视 | 国产精品一区二区视频 | 夜夜操狠狠操 |