日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程语言 > python >内容正文

python

Python获取2019-nCoV疫情实时追踪数据

發布時間:2024/8/23 python 36 豆豆
生活随笔 收集整理的這篇文章主要介紹了 Python获取2019-nCoV疫情实时追踪数据 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

戳藍字“CSDN云計算”關注我們哦!

來源 | 三行科創

責編 |?Carol

出品 | CSDN云計算(ID:CSDNcloud)?

2019-nCoV新型冠狀病毒引發的肺炎牽動全國人民的心,無數無畏的英雄兒女逆行而上奔赴前線,作者也于2020年2月2號回上海了開啟居家辦公模式。2月3日上午部門開了電話會議后,晚上刷手機刷這刷著覺得也要像那些醫務人員一樣勇敢,為疫情做點什么,于是有了這次2019-nCoV項目,本項目包括如下三部分。

  • 第一部分 獲取疫情數據

  • 第二部分 地理可視化

  • 第三部分 病例數據規律探索

本篇主要講如何獲取實時疫情數據。

分析與操作

很多大型門戶網站和手機應用都開設了專門的疫情實時追蹤數據網站和功能,比較友好的有騰訊新聞,網易新聞,新浪新聞,三者網頁感官大體差不多,有疫情最新總數,疫情地圖,疫情病例曲線等,數據來源于國家及各地衛生健康委員會每日發布的信息,今天我們就以騰訊新聞為例來獲取疫情實時數據。

具體操作

1、打開目標網站

2、按住F12,進入開發者模式,再按Ctrl+R刷新

3、在NetWork下找到getOnsInfo?name=disease_h5列

4, 雙擊該條目,跳轉到一個類似于https://view.inews.qq.com/g2/getOnsInfo?name=disease_h5&callback=jQuery34106817348088859214_1580806762734&_=1580806762735網站,發現里面網站都是非常工整的json格式數據,即我們想要獲取的疫情數據,但是我們請求的url為https://view.inews.qq.com/g2/getOnsInfo?name=disease_h5即可,因為后面callback參數只是記錄你訪問的一個標識。

完整代碼

疫情數據找到了,接下來就是通過requests模塊訪問并獲取并加以整理數據的事情了。

# -*- coding: utf-8 -*- """ Created on Tue Feb 4 10:27:51 2020 project name:2019-nCoV @author: 帥帥de三叔 """ import json, csv, requests #導入請求模塊 def get_data(): #定義獲取數據并寫入csv文件里的函數url = "https://view.inews.qq.com/g2/getOnsInfo?name=disease_h5" #請求網址response=requests.get(url).json() #發出請求并json化處理#print(response) #測試一下是否獲取數據了data = json.loads(response['data']) #提取數據部分#print(data.keys()) #獲取數據組成部分['chinaTotal', 'chinaAdd', 'lastUpdateTime', 'areaTree', 'chinaDayList', 'chinaDayAddList']update_time=data["lastUpdateTime"]chinaDayList=data["chinaDayList"] #歷史數據 with open("每日病例.csv","w+",newline="") as csv_file:writer=csv.writer(csv_file)header=["date","confirm","suspect","dead","heal", "update_time"] #定義表頭writer.writerow(header)for i in range(len(chinaDayList)):data_row1=[chinaDayList[i]["date"],chinaDayList[i]["confirm"],chinaDayList[i]["suspect"],chinaDayList[i]["dead"],chinaDayList[i]["heal"], update_time]writer.writerow(data_row1) chinaDayAddList=data["chinaDayAddList"] #歷史新增數據 with open("每日新增病例.csv","w+",newline="") as csv_file:writer=csv.writer(csv_file)header=["date","confirm","suspect","dead","heal","update_time"] #定義表頭writer.writerow(header)for i in range(len(chinaDayAddList)):data_row2=[chinaDayAddList[i]["date"],chinaDayAddList[i]["confirm"],chinaDayAddList[i]["suspect"],chinaDayAddList[i]["dead"],chinaDayAddList[i]["heal"], update_time]writer.writerow(data_row2)areaTree=data["areaTree"] #各地方數據with open("全國各城市病例數據.csv","w+",newline="") as csv_file:writer=csv.writer(csv_file)header=["province", "city_name", "total_confirm", "total_suspect", "total_dead", "total_heal", "today_confirm", "today_suspect", "today_dead", "today_heal","update_time"]writer.writerow(header)china_data=areaTree[0]["children"] #中國數據for j in range(len(china_data)):province=china_data[j]["name"] #省份city_list=china_data[j]["children"] #該省份下面城市列表for k in range(len(city_list)): city_name=city_list[k]["name"] #城市名稱total_confirm=city_list[k]["total"]["confirm"] #總確認病例total_suspect=city_list[k]["total"]["suspect"] #總疑似病例total_dead=city_list[k]["total"]["dead"] #總死亡病例total_heal=city_list[k]["total"]["heal"] #總治愈病例today_confirm=city_list[k]["today"]["confirm"] #今日確認病例today_suspect=city_list[k]["total"]["suspect"] #今日疑似病例today_dead=city_list[k]["today"]["dead"] #今日死亡病例today_heal=city_list[k]["today"]["heal"] #今日治愈病例 print(province, city_name, total_confirm, total_suspect, total_dead, total_heal, today_confirm, today_suspect, today_dead, today_heal,update_time)data_row3=[province, city_name, total_confirm, total_suspect, total_dead, total_heal, today_confirm, today_suspect, today_dead, today_heal, update_time]writer.writerow(data_row3)if __name__=="__main__":get_data()

代碼解讀

這里主要用到json, csv, requests三個模塊,用requests發出請求,獲取返回的json格式數據,我們可以用data.keys()打印出數據構成,一共有’chinaTotal’, ‘chinaAdd’, ‘lastUpdateTime’, ‘areaTree’, ‘chinaDayList’ 和 ‘chinaDayAddList’ 6部分數據,分別對應中國疫情總數,當日新增疫情總數,最近一次更新時間,各地方疫情明細,歷史疫情總數和歷史新增總數,其中areaTree還包括海外數據,在厘清數據組成之后就需要把各部分數據分別弄下來,對于’chinaTotal’, ‘chinaAdd’, ‘lastUpdateTime’這三部分數據都只有一條數據,對后面的研究不大,故這次只準備獲取后面三部分’areaTree’, ‘chinaDayList’ 和 ‘chinaDayAddList’ ,采取了3次分別寫入csv文件中,并在每次寫入的時候增加了更新時間字段,使得字段完備。

數據截圖

后續

1、獲取數據后接下來工作是可視化了,有兩個方向,一個是pyecharts, 一個是basemap。

2、這里代碼每次獲取都是獲取三份數據,一份是每日總病例,一份是每日新增病例,這兩份都是全國匯總數據,第三份是全國各城市病例數據,這個有明細,如果要看地圖變遷的話需要不同日期的數據。

3、在探索病例曲線特征的時候,可以簡單的按照[時間序列擬合出logistic模型,求解模型參數,再對未來時日加以預測。

福利掃描添加小編微信,備注“姓名+公司職位”,入駐【CSDN博客】,加入【云計算學習交流群】,和志同道合的朋友們共同打卡學習! 推薦閱讀:GitHub 標星 14000+,阿里開源的 SEATA 如何應用到極致? Serverless 終結 Kubernetes? 享受夢幻技術盛宴,相約 Unite 2020 JavaScript 造就年薪超過 10 萬美元的開發者們! 只需1分鐘,這個網站用AI分離歌曲的人聲、伴奏和樂器聲 10 大趨勢帶你預見 DeFi 2020! 真香,朕在看了!

總結

以上是生活随笔為你收集整理的Python获取2019-nCoV疫情实时追踪数据的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。

主站蜘蛛池模板: 国产精品网友自拍 | 中文字幕综合 | 午夜免费网址 | 亚洲欧美综合久久 | 在线看日本 | 成人91视频| 国产精品成人va在线观看 | 日本一区二区视频免费 | 日韩中文字幕第一页 | 波多野结衣久久 | 一级黄色性视频 | 欧美福利视频在线 | av网站在线观看免费 | 亚洲激情a | 国产性av | a毛片大片 | 亚洲不卡影院 | 在线欧美激情 | 九九色视频 | 91私密视频 | 日本丰满熟妇hd | 下面一进一出好爽视频 | 国产在线免费视频 | 高跟鞋丝袜猛烈xxxx | 三级全黄做爰在线观看 | 91美女免费看 | 天堂资源在线观看 | 美女被草视频在线观看 | 中文亚洲av片在线观看 | 蜜桃网av | 亚洲91色| 精品一区二区毛片 | 日韩中文字幕免费 | 伊伊综合网| 日一区二区 | 日本熟妇人妻xxxxx | 亚洲天堂五月天 | 久久爱一区二区 | 精品乱人伦一区二区三区 | 日本高清视频一区二区三区 | 国产熟女精品视频 | 性视频黄色 | 东方影库av| 国产亚洲欧美一区二区三区 | 999国内精品永久免费视频 | 欧美a级片视频 | 久在线播放 | 狠狠操网址 | 欧美韩国日本在线 | 日韩电影在线一区二区 | 91在线观看视频 | 国产美女无遮挡免费视频 | 国产福利第一页 | 亚洲国产综合视频 | 国产一级片免费看 | 狼人伊人久久 | 女同在线观看 | 欧美乱视频| 国产视频首页 | 伊人成人在线观看 | 婷婷色中文 | 一久久久久 | 小毛片在线观看 | 九色蝌蚪9l视频蝌蚪9l视频 | 干欧美少妇 | 农村黄色片 | av在线综合网 | 成年人免费网站在线观看 | 波多野结衣视频在线看 | xxxxx黄色片 噜噜噜噜噜色 | 午夜精品福利一区二区 | 在线一区av | 午夜少妇影院 | 国产一二三区在线视频 | 99re这里只有精品首页 | 久久久久亚洲AV成人网人人小说 | 精精国产xxxx视频在线 | 精彩毛片 | 国产精品视频一区二区三区不卡 | 日本人jizz | 一级黄色a视频 | 日韩欧美在线看 | 911成人网| 青青青在线 | 涩涩视频免费看 | 美丽的姑娘在线观看 | 性高湖久久久久久久久aaaaa | 国产精品51麻豆cm传媒 | 一级做a爱片性色毛片 | 日韩精品视频网站 | 免费观看一区二区三区视频 | 美女隐私黄www网站动漫 | 伊人精品| 国产亚洲精品熟女国产成人 | 中文字幕亚洲精品在线观看 | www.av在线播放 | 射死你天天日 | 国产免费看黄 | 最新黄色av |