婷婷综合国产,91蜜桃婷婷狠狠久久综合9色 ,九九九九九精品,国产综合av

主頁 > 知識庫 > Python爬蟲設(shè)置Cookie解決網(wǎng)站攔截并爬取螞蟻短租的問題

Python爬蟲設(shè)置Cookie解決網(wǎng)站攔截并爬取螞蟻短租的問題

熱門標(biāo)簽:柳州正規(guī)電銷機(jī)器人收費 騰訊地圖標(biāo)注有什么版本 深圳網(wǎng)絡(luò)外呼系統(tǒng)代理商 400電話辦理費用收費 千呼ai電話機(jī)器人免費 鎮(zhèn)江人工外呼系統(tǒng)供應(yīng)商 申請辦個400電話號碼 高德地圖標(biāo)注字母 外呼系統(tǒng)前面有錄音播放嗎

我們在編寫Python爬蟲時,有時會遇到網(wǎng)站拒絕訪問等反爬手段,比如這么我們想爬取螞蟻短租數(shù)據(jù),它則會提示“當(dāng)前訪問疑似黑客攻擊,已被網(wǎng)站管理員設(shè)置為攔截”提示,如下圖所示。此時我們需要采用設(shè)置Cookie來進(jìn)行爬取,下面我們進(jìn)行詳細(xì)介紹。非常感謝我的學(xué)生承峰提供的思想,后浪推前浪??!

一. 網(wǎng)站分析與爬蟲攔截

當(dāng)我們打開螞蟻短租搜索貴陽市,反饋如下圖所示結(jié)果。

我們可以看到短租房信息呈現(xiàn)一定規(guī)律分布,如下圖所示,這也是我們要爬取的信息。

通過瀏覽器審查元素,我們可以看到需要爬取每條租房信息都位于dd>/dd>節(jié)點下。

很多人學(xué)習(xí)python,不知道從何學(xué)起。
很多人學(xué)習(xí)python,掌握了基本語法過后,不知道在哪里尋找案例上手。
很多已經(jīng)做案例的人,卻不知道如何去學(xué)習(xí)更加高深的知識。
那么針對這三類人,我給大家提供一個好的學(xué)習(xí)平臺,免費領(lǐng)取視頻教程,電子書籍,以及課程的源代碼!
QQ群:810735403

在定位房屋名稱,如下圖所示,位于div class="room-detail clearfloat">/div>節(jié)點下。

接下來我們寫個簡單的BeautifulSoup進(jìn)行爬取。

# -*- coding: utf-8 -*-
import urllib
import re
from bs4 import BeautifulSoup
import codecs
 
url = 'http://www.mayi.com/guiyang/?map=no'
response=urllib.urlopen(url)
contents = response.read()
soup = BeautifulSoup(contents, "html.parser")
print soup.title
print soup
#短租房名稱
for tag in soup.find_all('dd'):
 for name in tag.find_all(attrs={"class":"room-detail clearfloat"}):
 fname = name.find('p').get_text()
 print u'[短租房名稱]', fname.replace('\n','').strip()

但很遺憾,報錯了,說明螞蟻金服防范措施還是挺到位的。

二. 設(shè)置Cookie的BeautifulSoup爬蟲

添加消息頭的代碼如下所示,這里先給出代碼和結(jié)果,再教大家如何獲取Cookie。

# -*- coding: utf-8 -*-
import urllib2
import re
from bs4 import BeautifulSoup
 
#爬蟲函數(shù)
def gydzf(url):
 user_agent="Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/51.0.2704.103 Safari/537.36"
 headers={"User-Agent":user_agent}
 request=urllib2.Request(url,headers=headers)
 response=urllib2.urlopen(request)
 contents = response.read()
 soup = BeautifulSoup(contents, "html.parser")
 for tag in soup.find_all('dd'):
 #短租房名稱
 for name in tag.find_all(attrs={"class":"room-detail clearfloat"}):
 fname = name.find('p').get_text()
 print u'[短租房名稱]', fname.replace('\n','').strip()
 #短租房價格
 for price in tag.find_all(attrs={"class":"moy-b"}):
 string = price.find('p').get_text()
 fprice = re.sub("[¥]+".decode("utf8"), "".decode("utf8"),string)
 fprice = fprice[0:5]
 print u'[短租房價格]', fprice.replace('\n','').strip()
 #評分及評論人數(shù)
 for score in name.find('ul'):
 fscore = name.find('ul').get_text()
 print u'[短租房評分/評論/居住人數(shù)]', fscore.replace('\n','').strip()
 #網(wǎng)頁鏈接url
 url_dzf = tag.find(attrs={"target":"_blank"})
 urls = url_dzf.attrs['href']
 print u'[網(wǎng)頁鏈接]', urls.replace('\n','').strip()
 urlss = 'http://www.mayi.com' + urls + ''
 print urlss
 
#主函數(shù)
if __name__ == '__main__':
 i = 1
 while i10:
 print u'頁碼', i
 url = 'http://www.mayi.com/guiyang/' + str(i) + '/?map=no'
 gydzf(url)
 i = i+1
 else:
 print u"結(jié)束"

輸出結(jié)果如下圖所示:

頁碼 1
[短租房名稱] 大唐東原財富廣場--城市簡約復(fù)式民宿
[短租房價格] 298
[短租房評分/評論/居住人數(shù)] 5.0分·5條評論·二居·可住3人
[網(wǎng)頁鏈接] /room/851634765
http://www.mayi.com/room/851634765
[短租房名稱] 大唐東原財富廣場--清新檸檬復(fù)式民宿
[短租房價格] 568
[短租房評分/評論/居住人數(shù)] 2條評論·三居·可住6人
[網(wǎng)頁鏈接] /room/851634467
http://www.mayi.com/room/851634467
 
...
 
頁碼 9
[短租房名稱] 【高鐵北站公園旁】美式風(fēng)情+超大舒適安逸
[短租房價格] 366
[短租房評分/評論/居住人數(shù)] 3條評論·二居·可住5人
[網(wǎng)頁鏈接] /room/851018852
http://www.mayi.com/room/851018852
[短租房名稱] 大營坡(中大國際購物中心附近)北歐小清新三室
[短租房價格] 298
[短租房評分/評論/居住人數(shù)] 三居·可住6人
[網(wǎng)頁鏈接] /room/851647045
http://www.mayi.com/room/851647045

接下來我們想獲取詳細(xì)信息

這里作者主要是提供分析Cookie的方法,使用瀏覽器打開網(wǎng)頁,右鍵“檢查”,然后再刷新網(wǎng)頁。在“NetWork”中找到網(wǎng)頁并點擊,在彈出來的Headers中就隱藏這這些信息。

最常見的兩個參數(shù)是Cookie和User-Agent,如下圖所示:

然后在Python代碼中設(shè)置這些參數(shù),再調(diào)用Urllib2.Request()提交請求即可,核心代碼如下:

user_agent="Mozilla/5.0 (Windows NT 10.0; Win64; x64) ... Chrome/61.0.3163.100 Safari/537.36"
 cookie="mediav=%7B%22eid%22%3A%22387123...b3574ef2-21b9-11e8-b39c-1bc4029c43b8"
 headers={"User-Agent":user_agent,"Cookie":cookie}
 request=urllib2.Request(url,headers=headers)
 response=urllib2.urlopen(request)
 contents = response.read()
 soup = BeautifulSoup(contents, "html.parser")
 for tag1 in soup.find_all(attrs={"class":"main"}):

注意,每小時Cookie會更新一次,我們需要手動修改Cookie值即可,就是上面代碼的cookie變量和user_agent變量。完整代碼如下所示:

import urllib2
import re
from bs4 import BeautifulSoup
import codecs
import csv
 
c = open("ycf.csv","wb") #write 寫
c.write(codecs.BOM_UTF8)
writer = csv.writer(c)
writer.writerow(["短租房名稱","地址","價格","評分","可住人數(shù)","人均價格"])
 
#爬取詳細(xì)信息
def getInfo(url,fname,fprice,fscore,users):
 #通過瀏覽器開發(fā)者模式查看訪問使用的user_agent及cookie設(shè)置訪問頭(headers)避免反爬蟲,且每隔一段時間運行要根據(jù)開發(fā)者中的cookie更改代碼中的cookie
 user_agent="Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/61.0.3163.100 Safari/537.36"
 cookie="mediav=%7B%22eid%22%3A%22387123%22eb7; mayi_uuid=1582009990674274976491; sid=42200298656434922.85.130.130"
 headers={"User-Agent":user_agent,"Cookie":cookie}
 request=urllib2.Request(url,headers=headers)
 response=urllib2.urlopen(request)
 contents = response.read()
 soup = BeautifulSoup(contents, "html.parser")
 #短租房地址
 for tag1 in soup.find_all(attrs={"class":"main"}):
 print u'短租房地址:'
 for tag2 in tag1.find_all(attrs={"class":"desWord"}):
 address = tag2.find('p').get_text()
 print address
 #可住人數(shù)
 print u'可住人數(shù):'
 for tag4 in tag1.find_all(attrs={"class":"w258"}):
 yy = tag4.find('span').get_text()
 print yy
 fname = fname.encode("utf-8")
 address = address.encode("utf-8")
 fprice = fprice.encode("utf-8")
 fscore = fscore.encode("utf-8")
 fpeople = yy[2:3].encode("utf-8")
 ones = int(float(fprice))/int(float(fpeople))
 #存儲至本地
 writer.writerow([fname,address,fprice,fscore,fpeople,ones])
 
#爬蟲函數(shù)
def gydzf(url):
 user_agent="Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/51.0.2704.103 Safari/537.36"
 headers={"User-Agent":user_agent}
 request=urllib2.Request(url,headers=headers)
 response=urllib2.urlopen(request)
 contents = response.read()
 soup = BeautifulSoup(contents, "html.parser")
 for tag in soup.find_all('dd'):
 #短租房名稱
 for name in tag.find_all(attrs={"class":"room-detail clearfloat"}):
 fname = name.find('p').get_text()
 print u'[短租房名稱]', fname.replace('\n','').strip()
 #短租房價格
 for price in tag.find_all(attrs={"class":"moy-b"}):
 string = price.find('p').get_text()
 fprice = re.sub("[¥]+".decode("utf8"), "".decode("utf8"),string)
 fprice = fprice[0:5]
 print u'[短租房價格]', fprice.replace('\n','').strip()
 #評分及評論人數(shù)
 for score in name.find('ul'):
 fscore = name.find('ul').get_text()
 print u'[短租房評分/評論/居住人數(shù)]', fscore.replace('\n','').strip()
 #網(wǎng)頁鏈接url
 url_dzf = tag.find(attrs={"target":"_blank"})
 urls = url_dzf.attrs['href']
 print u'[網(wǎng)頁鏈接]', urls.replace('\n','').strip()
 urlss = 'http://www.mayi.com' + urls + ''
 print urlss
 getInfo(urlss,fname,fprice,fscore,user_agent)
 
#主函數(shù)
if __name__ == '__main__':
 i = 0
 while i33:
 print u'頁碼', (i+1)
 if(i==0):
 url = 'http://www.mayi.com/guiyang/?map=no'
 if(i>0):
 num = i+2 #除了第一頁是空的,第二頁開始按2順序遞增
 url = 'http://www.mayi.com/guiyang/' + str(num) + '/?map=no'
 gydzf(url)
 i=i+1
 
c.close()

輸出結(jié)果如下,存儲本地CSV文件:

同時,大家可以嘗試Selenium爬取螞蟻短租,應(yīng)該也是可行的方法。

到此這篇關(guān)于Python爬蟲設(shè)置Cookie解決網(wǎng)站攔截并爬取螞蟻短租的文章就介紹到這了,更多相關(guān)Python爬蟲爬取螞蟻短租內(nèi)容請搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關(guān)文章希望大家以后多多支持腳本之家!

您可能感興趣的文章:
  • Django操作cookie的實現(xiàn)
  • 利用Selenium添加cookie實現(xiàn)自動登錄的示例代碼(fofa)
  • 如何使用會話Cookie和Java實現(xiàn)JWT身份驗證
  • Python Selenium操作Cookie的實例方法
  • Http Cookie機(jī)制及Cookie的實現(xiàn)原理

標(biāo)簽:烏蘭察布 合肥 郴州 哈爾濱 平頂山 大慶 海南 烏蘭察布

巨人網(wǎng)絡(luò)通訊聲明:本文標(biāo)題《Python爬蟲設(shè)置Cookie解決網(wǎng)站攔截并爬取螞蟻短租的問題》,本文關(guān)鍵詞  Python,爬蟲,設(shè)置,Cookie,解決,;如發(fā)現(xiàn)本文內(nèi)容存在版權(quán)問題,煩請?zhí)峁┫嚓P(guān)信息告之我們,我們將及時溝通與處理。本站內(nèi)容系統(tǒng)采集于網(wǎng)絡(luò),涉及言論、版權(quán)與本站無關(guān)。
  • 相關(guān)文章
  • 下面列出與本文章《Python爬蟲設(shè)置Cookie解決網(wǎng)站攔截并爬取螞蟻短租的問題》相關(guān)的同類信息!
  • 本頁收集關(guān)于Python爬蟲設(shè)置Cookie解決網(wǎng)站攔截并爬取螞蟻短租的問題的相關(guān)信息資訊供網(wǎng)民參考!
  • 推薦文章
    婷婷综合国产,91蜜桃婷婷狠狠久久综合9色 ,九九九九九精品,国产综合av
    一本色道a无线码一区v| 极品少妇xxxx偷拍精品少妇| 亚洲色图都市小说| 在线观看91av| 国产精品免费视频一区| 亚洲精品国产一区二区精华液 | 在线精品视频免费观看| 免费成人在线观看| 国产婷婷色一区二区三区四区 | 亚洲欧美日韩电影| 97se亚洲国产综合自在线| 日韩和欧美一区二区三区| 天天综合日日夜夜精品| 337p亚洲精品色噜噜狠狠| 欧美视频中文字幕| 在线观看日韩电影| 九九精品视频在线看| 成人黄色免费短视频| 色综合色狠狠综合色| 欧美一区二区三区免费观看视频| 在线播放中文字幕一区| 91免费国产在线| 欧美综合久久久| 中文字幕在线观看一区| 国产成人一区在线| 午夜精品福利久久久| 日本国产一区二区| 综合久久久久久| 亚洲欧美日韩成人高清在线一区| 精品久久久久一区| 奇米色777欧美一区二区| 国产成人亚洲精品狼色在线 | 日韩女优制服丝袜电影| 亚洲欧美日韩在线播放| 成人黄色免费短视频| 中文字幕不卡在线| 911国产精品| 欧美绝品在线观看成人午夜影视| 日韩成人av影视| 在线播放视频一区| 国产一区二区导航在线播放| 欧美丝袜丝交足nylons图片| 青青草97国产精品免费观看| 欧美日韩高清影院| 一区二区三区欧美在线观看| 欧美日韩黄色一区二区| 久久久高清一区二区三区| 精品一二三四在线| 欧美电影免费观看高清完整版在线观看| 日韩av中文字幕一区二区| 久久久噜噜噜久久中文字幕色伊伊 | 亚洲国产日韩精品| 高清av一区二区| 欧美在线视频全部完| 三级成人在线视频| 麻豆一区二区99久久久久| 亚洲综合色自拍一区| 欧美日韩国产一二三| 国产精品色哟哟| 欧美吻胸吃奶大尺度电影 | 国产成人超碰人人澡人人澡| 亚洲欧美日韩在线播放| 日韩欧美专区在线| 欧美国产亚洲另类动漫| 亚洲视频资源在线| 3d成人动漫网站| 日本精品裸体写真集在线观看| 欧美午夜精品一区二区三区| 亚洲五月六月丁香激情| 久久久精品tv| 久久综合综合久久综合| 91在线一区二区三区| 亚洲成在线观看| 91精品欧美综合在线观看最新| 中文字幕不卡在线观看| 欧美激情中文不卡| 麻豆精品蜜桃视频网站| 51精品视频一区二区三区| 一区二区三区日韩精品视频| 91精品久久久久久久99蜜桃| 亚洲大型综合色站| 亚洲欧美日韩精品久久久久| 国产在线看一区| 国产传媒欧美日韩成人| 欧美日韩精品一区二区三区四区| av男人天堂一区| 久久看人人爽人人| 欧美日韩国产片| 在线观看亚洲精品视频| 91猫先生在线| 日本久久一区二区三区| 高清国产一区二区三区| 懂色av一区二区在线播放| 国产一区欧美日韩| 九一九一国产精品| 老司机精品视频线观看86| 日本在线不卡视频| 久久99热这里只有精品| 韩国av一区二区| 日韩中文字幕区一区有砖一区 | 欧美一区二区视频观看视频| a4yy欧美一区二区三区| 免费一区二区视频| 午夜久久久久久久久| 欧美久久久久中文字幕| 日韩高清一区二区| 天堂资源在线中文精品| 日本视频一区二区三区| 99re免费视频精品全部| 在线不卡欧美精品一区二区三区| 日韩欧美色综合| 亚洲成a人v欧美综合天堂| av一本久道久久综合久久鬼色| 激情文学综合网| 中文在线资源观看网站视频免费不卡| 久久99在线观看| 视频一区欧美日韩| 国内精品伊人久久久久影院对白| 精品一区二区国语对白| 激情文学综合插| 成人免费视频一区| 91搞黄在线观看| 日韩欧美专区在线| 国产精品久久久久久久久动漫| 亚洲国产另类精品专区| 国产一区二区免费看| 在线免费观看成人短视频| 色999日韩国产欧美一区二区| 欧美日韩视频一区二区| 国产欧美1区2区3区| 日韩av一二三| 91麻豆高清视频| 国产欧美日韩不卡免费| 日产精品久久久久久久性色| 国产一区 二区| 欧美一区二区二区| 亚洲五码中文字幕| av电影在线观看一区| 欧美大白屁股肥臀xxxxxx| 色婷婷久久久久swag精品| 69av一区二区三区| 成人综合在线观看| 精品久久国产97色综合| 欧美a级理论片| 在线播放欧美女士性生活| 亚洲欧美激情小说另类| 福利电影一区二区| 精品成人a区在线观看| 爽好久久久欧美精品| 91福利社在线观看| 亚洲精品欧美二区三区中文字幕| 久久激情五月激情| 欧美大片顶级少妇| 国产精品1024| 国产日产欧美一区二区三区| 捆绑调教美女网站视频一区| 欧美一区二区福利在线| 久久国产日韩欧美精品| 日韩一区二区影院| 玉米视频成人免费看| 一本到三区不卡视频| 日韩成人免费看| 亚洲天堂2016| 91丨九色丨黑人外教| 国产精品丝袜一区| 色8久久精品久久久久久蜜| 中文字幕在线免费不卡| 成人av在线资源| 亚洲欧美日韩国产另类专区| 欧美在线视频日韩| 亚洲国产成人高清精品| 777xxx欧美| 轻轻草成人在线| 日韩精品在线一区二区| 国产成人av一区| 亚洲午夜国产一区99re久久| 日韩欧美在线一区二区三区| 国产91在线看| 精品一区二区三区在线播放视频| 国产亚洲va综合人人澡精品| 色婷婷综合久色| 男女男精品视频网| 日韩美女视频一区| 欧美一区二区三区在线观看视频| 高清成人在线观看| 日韩免费观看2025年上映的电影| 色综合中文综合网| 欧美一区二视频| 青娱乐精品视频| 精品成人免费观看| 国产福利一区在线观看| 成人午夜精品一区二区三区| 亚洲欧美乱综合| 99精品欧美一区二区三区综合在线| 日本高清不卡一区| 一区二区三区在线观看网站| 国产精品久久久久久妇女6080| 国产精品一区在线| 日韩你懂的在线播放| 亚洲三级电影网站|