婷婷综合国产,91蜜桃婷婷狠狠久久综合9色 ,九九九九九精品,国产综合av

主頁 > 知識庫 > python爬取各省降水量及可視化詳解

python爬取各省降水量及可視化詳解

熱門標簽:打印谷歌地圖標注 電話外呼系統招商代理 京華圖書館地圖標注 淮安呼叫中心外呼系統如何 廣東旅游地圖標注 蘇州人工外呼系統軟件 看懂地圖標注方法 佛山通用400電話申請 電話機器人貸款詐騙

在具體數據的選取上,我爬取的是各省份降水量實時數據

話不多說,開始實操

正文 

1.爬取數據

  • 使用python爬蟲,爬取中國天氣網各省份24時整點氣象數據
  • 由于降水量為動態數據,以js形式進行存儲,故采用selenium方法經xpath爬取數據—ps:在進行數據爬取時,最初使用的方法是漂亮湯法(beautifulsoup)法,但當輸出爬取的內容(class = split>時,卻空空如也。在源代碼界面Ctrl+Shift+F搜索后也無法找到降水量,后查詢得知此為動態數據,無法用該方法進行爬取
  • 使用循環和分類的方式爬取省份不同、網址相似的降水量數據,順帶記錄數據對應的城市

f—string:

url_a= f'http://www.weather.com.cn/weather1dn/101{a}0101.shtml'

f-string 用大括號 {} 表示被替換字段,其中直接填入替換內容

將城市和降水量相對應后存入字典再打印

代碼:

from lxml import etree
from selenium import webdriver
import re
city = [''for n in range(34)]   #存放城市列表
rain = [''for n in range(34)]   #存放有關降雨量信息的數值
rain_item = []
driver = webdriver.Chrome(executable_path='chromedriver')   #使用chrome瀏覽器打開
for a in range(1,5):      #直轄市數據
    url_a= f'http://www.weather.com.cn/weather1dn/1010{a}0100.shtml'  #網址
    driver.get(url_a)    #打開網址
    rain_list = []
    city_list = []
    resp_text = driver.page_source
    page_html = etree.HTML(resp_text)
    city_list = page_html.xpath('/html/body/div[4]/div[2]/a')[0]    #通過xpath爬取城市名稱
    rain_list = page_html.xpath('//*[@id="weatherChart"]/div[2]/p[5]')[0]   #通過xpath爬取降雨量數據
    city[a-1] = city_list.text  #存入城市列表
    rain[a-1] = re.findall(r"\d+\.?\d*",rain_list.text)[0] #存入數值
for a in range(5,10):      #一位數字網址數據
    url_a= f'http://www.weather.com.cn/weather1dn/1010{a}0101.shtml'
    driver.get(url_a)
    rain_list = []
    city_list = []
    resp_text = driver.page_source
    page_html = etree.HTML(resp_text)
    city_list = page_html.xpath('/html/body/div[4]/div[2]/a')[0]    #通過xpath爬取城市名稱
    rain_list = page_html.xpath('//*[@id="weatherChart"]/div[2]/p[5]')[0]   #通過xpath爬取降雨量數據
    city[a-1] = city_list.text     #存入城市列表
    rain[a-1] = re.findall(r"\d+\.?\d*",rain_list.text)[0] #存入數值
for a in range(10,35):      #二位數字網址數據
    url_a= f'http://www.weather.com.cn/weather1dn/101{a}0101.shtml'
    driver.get(url_a)
    rain_list = []
    city_list = []
    resp_text = driver.page_source
    page_html = etree.HTML(resp_text)
    city_list = page_html.xpath('/html/body/div[4]/div[2]/a')[0]    #通過xpath爬取城市名稱
    rain_list = page_html.xpath('//*[@id="weatherChart"]/div[2]/p[5]')[0]   #通過xpath爬取降雨量數據
    city[a-1] = city_list.text  #存入城市列表
    rain[a-1] = re.findall(r"\d+\.?\d*",rain_list.text)[0] #存入數值
d = dict(zip(city,rain))  #將城市和降水量的列表合成為字典
for k,v in d.items():  #str轉float類型
    rain_item.append(float(v))
print(d)

在對爬取的內容進行處理時,可能會因為數據的類型而報錯,如爬下來的數據為str類型,而排序需要數字類型,故需要進行float類型轉化

使用該爬取方法,是模擬用戶打開網頁,并且會在電腦上進行顯示。在爬取實驗進行中途,中國天氣網進行了網址更新,原網址出現了部分城市數據無法顯示的問題,但當刷新界面后,數據可正常顯示,此時可采用模擬鼠標點擊刷新的方法避免錯誤。由于后續找到了新網址,故將這一方法省去。

2.數據可視化

  • 用Matplotlib庫函數繪制曲線,并輸出最大值及相應城市、最小值及相應城市、平均值和中位值
  • 數據的確定:medium分奇偶計算中位值所處排序后數據的位置(中位值);用sum求和后除于數據個數(平均值);max和min函數找到最值再由數值經循環找到對應的城市列表
  • 繪圖:使用plt函數繪制圖像,并注明橫縱坐標、所需注釋
  • 文本處理:在進行注釋時,plt函數所要求的格式為str類型,故需要進行類型轉換,同時添加適當文字說明

代碼:

#-*- codeing = utf-8 -*-
import matplotlib.pyplot as plt
from lxml import etree
from selenium import webdriver
import re
import matplotlib
matplotlib.rc("font",family='YouYuan')
city = [''for n in range(34)]   #存放城市列表
rain = [''for n in range(34)]   #存放有關降雨量信息的數值
driver = webdriver.Chrome(executable_path='chromedriver')   #使用chrome瀏覽器打開
for a in range(1,5):      #直轄市數據
    url_a= f'http://www.weather.com.cn/weather1dn/1010{a}0100.shtml'  #網址
    driver.get(url_a)    #打開網址
    rain_list = []
    city_list = []
    resp_text = driver.page_source
    page_html = etree.HTML(resp_text)
    city_list = page_html.xpath('/html/body/div[4]/div[2]/a')[0]    #通過xpath爬取城市名稱
    rain_list = page_html.xpath('//*[@id="weatherChart"]/div[2]/p[5]')[0]   #通過xpath爬取降雨量數據
    city[a-1] = city_list.text  #存入城市列表
    rain[a-1] = re.findall(r"\d+\.?\d*",rain_list.text)[0] #存入數值
for a in range(5,10):      #非直轄一位數字網址數據
    url_a= f'http://www.weather.com.cn/weather1dn/1010{a}0101.shtml'
    driver.get(url_a)
    rain_list = []
    city_list = []
    resp_text = driver.page_source
    page_html = etree.HTML(resp_text)
    city_list = page_html.xpath('/html/body/div[4]/div[2]/a')[0]    #通過xpath爬取城市名稱
    rain_list = page_html.xpath('//*[@id="weatherChart"]/div[2]/p[5]')[0]   #通過xpath爬取降雨量數據
    city[a-1] = city_list.text  #存入城市列表
    rain[a-1] = re.findall(r"\d+\.?\d*",rain_list.text)[0] #存入數值
for a in range(10,35):      #非直轄二位數字網址數據
    url_a= f'http://www.weather.com.cn/weather1dn/101{a}0101.shtml'
    driver.get(url_a)
    rain_list = []
    city_list = []
    resp_text = driver.page_source
    page_html = etree.HTML(resp_text)
    city_list = page_html.xpath('/html/body/div[4]/div[2]/a')[0]    #通過xpath爬取城市名稱
    rain_list = page_html.xpath('//*[@id="weatherChart"]/div[2]/p[5]')[0]   #通過xpath爬取降雨量數據
    city[a-1] = city_list.text  #存入城市列表
    rain[a-1] = re.findall(r"\d+\.?\d*",rain_list.text)[0] #存入數值
if len(rain)%2 == 0:        #尋找中值
    medium = int(len(rain)/2)
else:
    medium = int(len(rain)/2)+1
medium_text = "中位值:" + rain[medium]
d = dict(zip(city,rain))  #將城市和降水量的列表合成為字典
rain_item = []
city_min = []
city_max = []
for k,v in d.items():
    rain_item.append(float(v))
average_rain = sum(rain_item)/len(rain_item)
average_text = "平均值:"+ str(average_rain)
max_rain = max(rain_item)  #最大值
min_rain = min(rain_item)  #最小值
for k,v in d.items():
    if float(v) == min_rain:
        city_min.append(k)
min_text = "降雨量最小的城市:"+str(city_min)+" 最小值:"+str(min_rain)
for k,v in d.items():
    if float(v) ==max_rain:
        city_max.append(k)
max_text = "降雨量最大的城市:"+str(city_max)+" 最大值:"+str(max_rain)
plt.bar(range(len(d)), rain_item, align='center')
plt.xticks(range(len(d)), list(d.keys()))
plt.xlabel('城市',fontsize=20)
plt.ylabel('降水量',fontsize=20)
plt.text(0,12,average_text,fontsize=6)
plt.text(0,13,medium_text,fontsize=6)
plt.text(0,14,max_text,fontsize=6)
plt.text(0,15,min_text,fontsize=6)
plt.show()

2.運行界面

3.互動界面

使用tkinter庫進行GUI的構建使用button函數實現交互,調用編寫的get函數獲取對用戶輸入的內容進行獲取并使用循環進行遍歷處理,若城市輸入正確,則在界面上輸出當地的降水量代碼:

#-*- codeing = utf-8 -*-
from lxml import etree
from selenium import webdriver
import re
import matplotlib
matplotlib.rc("font",family='YouYuan')
from tkinter import *
import tkinter as tk
city = [''for n in range(34)]   #存放城市列表
rain = [''for n in range(34)]   #存放有關降雨量信息的數值
driver = webdriver.Chrome(executable_path='chromedriver')   #使用chrome瀏覽器打開
for a in range(1,5):      #直轄市數據
    url_a= f'http://www.weather.com.cn/weather1dn/1010{a}0100.shtml'  #網址
    driver.get(url_a)    #打開網址
    rain_list = []
    city_list = []
    resp_text = driver.page_source
    page_html = etree.HTML(resp_text)
    city_list = page_html.xpath('/html/body/div[4]/div[2]/a')[0]    #通過xpath爬取城市名稱
    rain_list = page_html.xpath('//*[@id="weatherChart"]/div[2]/p[5]')[0]   #通過xpath爬取降雨量數據
    city[a-1] = city_list.text  #存入城市列表
    rain[a-1] = re.findall(r"\d+\.?\d*",rain_list.text)[0] #存入數值
for a in range(5,10):      #非直轄一位數字網址數據
    url_a= f'http://www.weather.com.cn/weather1dn/1010{a}0101.shtml'
    driver.get(url_a)
    rain_list = []
    city_list = []
    resp_text = driver.page_source
    page_html = etree.HTML(resp_text)
    city_list = page_html.xpath('/html/body/div[4]/div[2]/a')[0]    #通過xpath爬取城市名稱
    rain_list = page_html.xpath('//*[@id="weatherChart"]/div[2]/p[5]')[0]   #通過xpath爬取降雨量數據
    city[a-1] = city_list.text  #存入城市列表
    rain[a-1] = re.findall(r"\d+\.?\d*",rain_list.text)[0] #存入數值
for a in range(10,35):      #非直轄二位數字網址數據
    url_a= f'http://www.weather.com.cn/weather1dn/101{a}0101.shtml'
    driver.get(url_a)
    rain_list = []
    city_list = []
    resp_text = driver.page_source
    page_html = etree.HTML(resp_text)
    city_list = page_html.xpath('/html/body/div[4]/div[2]/a')[0]    #通過xpath爬取城市名稱
    rain_list = page_html.xpath('//*[@id="weatherChart"]/div[2]/p[5]')[0]   #通過xpath爬取降雨量數據
    city[a-1] = city_list.text  #存入城市列表
    rain[a-1] = re.findall(r"\d+\.?\d*",rain_list.text)[0] #存入數值
d = dict(zip(city,rain))  #將城市和降水量的列表合成為字典
root=tk.Tk()
root.title('降水量查詢')
root.geometry('500x200')
def get():
    values = entry.get()
    for k,v in d.items():
        if k == values:
            label = Label(root, text= v+'mm')
            label.pack()
frame = Frame(root)
frame.pack()
u1 = tk.StringVar()
entry = tk.Entry(frame, width=20, textvariable=u1,  relief="sunken")
entry.pack(side="left")
frame1 = Frame(root)
frame1.pack()
btn1=Button(frame1, text="查詢", width=20, height=1, relief=GROOVE, command=lambda :get())
btn1.pack(side="left")
root.mainloop()

4.運行界面

 

寫在最后

在爬取天氣的過程中,僅發現中國天氣網有各省份降水量的數據,可見我國在數據開源方面還有很長的路要走

到此這篇關于python爬取各省降水量及可視化詳解的文章就介紹到這了,更多相關python爬取請搜索腳本之家以前的文章或繼續瀏覽下面的相關文章,希望大家以后多多支持腳本之家!

您可能感興趣的文章:
  • Python編寫可視化界面的全過程(Python+PyCharm+PyQt)
  • Python實現K-means聚類算法并可視化生成動圖步驟詳解
  • python數據分析之員工個人信息可視化
  • 關于Python可視化Dash工具之plotly基本圖形示例詳解
  • python用pyecharts實現地圖數據可視化
  • Python繪制K線圖之可視化神器pyecharts的使用
  • Python繪制詞云圖之可視化神器pyecharts的方法
  • python 可視化庫PyG2Plot的使用
  • Python數據分析之彩票的歷史數據
  • Python 數據分析之逐塊讀取文本的實現
  • Python數據分析庫pandas高級接口dt的使用詳解
  • Python Pandas數據分析工具用法實例
  • 用Python 爬取貓眼電影數據分析《無名之輩》
  • 大數據分析用java還是Python
  • python 數據分析實現長寬格式的轉換
  • PyCharm設置Ipython交互環境和宏快捷鍵進行數據分析圖文詳解
  • Python實戰之疫苗研發情況可視化

標簽:呼和浩特 股票 駐馬店 畢節 湖州 中山 衡水 江蘇

巨人網絡通訊聲明:本文標題《python爬取各省降水量及可視化詳解》,本文關鍵詞  python,爬取,各省,降水量,;如發現本文內容存在版權問題,煩請提供相關信息告之我們,我們將及時溝通與處理。本站內容系統采集于網絡,涉及言論、版權與本站無關。
  • 相關文章
  • 下面列出與本文章《python爬取各省降水量及可視化詳解》相關的同類信息!
  • 本頁收集關于python爬取各省降水量及可視化詳解的相關信息資訊供網民參考!
  • 推薦文章
    婷婷综合国产,91蜜桃婷婷狠狠久久综合9色 ,九九九九九精品,国产综合av
    蜜桃久久av一区| 岛国一区二区三区| 国产成人精品三级麻豆| 日本韩国欧美在线| 久久综合久久综合久久| 亚洲综合成人网| 国产精品一线二线三线精华| 欧美电影在线免费观看| 久久你懂得1024| 日韩电影在线免费观看| 99久久久国产精品| 久久这里只精品最新地址| 国产suv精品一区二区三区| 欧美影院午夜播放| 中文字幕欧美一| 国产精品一区免费在线观看| 欧美猛男男办公室激情| 亚洲精品一二三区| 不卡区在线中文字幕| 日韩欧美一区二区不卡| 日韩精品一区第一页| 欧美在线你懂得| 亚洲色图视频网| 成人中文字幕合集| 国产亚洲一本大道中文在线| 精品一区二区三区在线观看国产 | 91精品麻豆日日躁夜夜躁| 亚洲欧洲美洲综合色网| 夫妻av一区二区| 国产精品麻豆欧美日韩ww| 国产成人免费在线视频| 国产欧美综合在线观看第十页| 久国产精品韩国三级视频| 欧美伦理影视网| 免费成人美女在线观看.| 91精品国产91久久综合桃花| 日韩电影在线免费看| 91精品国产一区二区人妖| 日韩国产精品久久久久久亚洲| 日韩欧美国产成人一区二区| 久久精品国产久精国产爱| 精品福利视频一区二区三区| 国产在线日韩欧美| 久久久久久久综合狠狠综合| 成人动漫一区二区在线| 亚洲美女视频在线| 欧美三级视频在线观看| 香蕉成人伊视频在线观看| 日韩欧美国产三级电影视频| 经典三级视频一区| 国产精品久久久久精k8| 在线观看免费成人| 欧美96一区二区免费视频| 国产视频视频一区| 一本色道**综合亚洲精品蜜桃冫| 亚洲国产一区视频| 日韩女优毛片在线| 不卡高清视频专区| 丝袜亚洲另类丝袜在线| 久久综合视频网| 色又黄又爽网站www久久| 日本视频中文字幕一区二区三区| 26uuu欧美| 欧美影院一区二区三区| 国内精品免费**视频| 亚洲视频资源在线| 91精品婷婷国产综合久久性色| 国产一区二区精品久久91| 亚洲精品久久久蜜桃| 欧美成人艳星乳罩| 99久久99久久精品免费观看| 男男视频亚洲欧美| 亚洲欧洲av在线| 日韩视频一区二区三区在线播放| 欧美成人精品高清在线播放 | 麻豆国产欧美一区二区三区| 国产精品国产馆在线真实露脸| 欧美羞羞免费网站| 粉嫩av一区二区三区在线播放| 婷婷激情综合网| 国产精品激情偷乱一区二区∴| 日韩欧美国产三级| 欧美性猛片aaaaaaa做受| 成人自拍视频在线观看| 蜜乳av一区二区| 一区二区三区 在线观看视频| 国产亚洲综合在线| 日韩一卡二卡三卡四卡| 欧美日韩综合在线免费观看| 成人高清免费观看| 国产精品一区三区| 裸体歌舞表演一区二区| 天堂va蜜桃一区二区三区 | 久久99精品久久久久久动态图| 亚洲综合色在线| 亚洲国产精品激情在线观看| 欧美一级免费大片| 欧美色图免费看| 日本韩国一区二区三区视频| 岛国精品在线播放| 国产成人av福利| 国产一区二区三区四区五区美女| 理论电影国产精品| 日韩av一二三| 奇米一区二区三区av| 日韩av高清在线观看| 图片区小说区国产精品视频| 亚洲va欧美va国产va天堂影院| 91亚洲精品一区二区乱码| 成人亚洲一区二区一| 国产99久久久精品| 国产91色综合久久免费分享| 国产成人精品免费网站| 成人美女视频在线看| 成人av电影在线播放| 成人黄色av电影| 成人a级免费电影| 色呦呦一区二区三区| 欧美日韩国产综合一区二区三区| 欧美色倩网站大全免费| 欧美精品在线观看播放| 欧美精品1区2区| 欧美电影一区二区三区| 欧美日韩一区二区三区在线看| 911国产精品| 欧美丰满高潮xxxx喷水动漫| 欧美年轻男男videosbes| 欧美亚洲综合网| 国产成人综合在线观看| 不卡的av网站| 成人av动漫网站| 91猫先生在线| 日本福利一区二区| 日韩美女视频在线| 日韩欧美的一区| 26uuu色噜噜精品一区| 国产亚洲一本大道中文在线| 欧美一二三区精品| 日韩制服丝袜av| 韩国v欧美v日本v亚洲v| 国产精品白丝jk黑袜喷水| 不卡在线观看av| 日韩欧美国产系列| 久久久蜜桃精品| 亚洲视频精选在线| 亚洲国产精品一区二区www在线| 久久久久高清精品| 一区二区三区在线观看网站| 亚洲成人tv网| 亚洲综合清纯丝袜自拍| 久久精品国产**网站演员| 国产精品99久久不卡二区| 成人av在线一区二区三区| 欧美性猛交xxxx乱大交退制版| 国产亚洲欧美中文| 夜夜操天天操亚洲| 美女国产一区二区三区| 国产成人福利片| 日韩欧美国产精品| 国产精品伦理在线| 亚洲一区精品在线| 国内精品免费在线观看| 91影院在线观看| 欧美一级久久久| 成人欧美一区二区三区在线播放| 亚洲地区一二三色| 亚洲成人激情社区| www.亚洲精品| 日韩精品自拍偷拍| 亚洲三级理论片| 337p亚洲精品色噜噜| 国产精品久久久久久久久免费桃花 | 欧美在线色视频| 国产日韩av一区| 偷拍日韩校园综合在线| 99久久精品免费看国产| 欧美亚洲丝袜传媒另类| 亚洲人妖av一区二区| 国产精品综合二区| 欧美日产国产精品| 亚洲女人的天堂| 波多野结衣在线aⅴ中文字幕不卡| 欧美日韩三级视频| 最近日韩中文字幕| 国产成人免费在线观看不卡| 久久精品人人做人人爽97| 丝袜a∨在线一区二区三区不卡| eeuss鲁一区二区三区| 精品区一区二区| 国产伦精品一区二区三区免费迷 | 国产精品乱码人人做人人爱| 久久99深爱久久99精品| 欧美三级日韩在线| 亚洲精品视频在线观看免费 | 亚洲小少妇裸体bbw| 懂色一区二区三区免费观看| 欧美tickling挠脚心丨vk| 日韩av二区在线播放| 精品久久久久久久人人人人传媒 | 成人免费高清视频|