婷婷综合国产,91蜜桃婷婷狠狠久久综合9色 ,九九九九九精品,国产综合av

主頁(yè) > 知識(shí)庫(kù) > 詳解使用scrapy進(jìn)行模擬登陸三種方式

詳解使用scrapy進(jìn)行模擬登陸三種方式

熱門標(biāo)簽:千呼ai電話機(jī)器人免費(fèi) 外呼系統(tǒng)前面有錄音播放嗎 柳州正規(guī)電銷機(jī)器人收費(fèi) 高德地圖標(biāo)注字母 申請(qǐng)辦個(gè)400電話號(hào)碼 深圳網(wǎng)絡(luò)外呼系統(tǒng)代理商 騰訊地圖標(biāo)注有什么版本 鎮(zhèn)江人工外呼系統(tǒng)供應(yīng)商 400電話辦理費(fèi)用收費(fèi)

scrapy有三種方法模擬登陸方式:
- 直接攜帶cookies
- 找url地址,發(fā)送post請(qǐng)求存儲(chǔ)cookie
- 找到對(duì)應(yīng)的form表單,自動(dòng)解析input標(biāo)簽,自動(dòng)解析post請(qǐng)求的url地址,自動(dòng)帶上數(shù)據(jù),自動(dòng)發(fā)送請(qǐng)求

1、攜帶cookies登陸github

import scrapy
import re
 
class Login1Spider(scrapy.Spider):
  name = 'login1'
  allowed_domains = ['github.com']
  start_urls = ['https://github.com/NoobPythoner'] # 這是一個(gè)需要登陸以后才能訪問(wèn)的頁(yè)面
 
  def start_requests(self): # 重構(gòu)start_requests方法
    # 這個(gè)cookies_str是抓包獲取的
    cookies_str = '...' # 抓包獲取
    # 將cookies_str轉(zhuǎn)換為cookies_dict
    cookies_dict = {i.split('=')[0]:i.split('=')[1] for i in cookies_str.split('; ')}
    yield scrapy.Request(
      self.start_urls[0],
      callback=self.parse,
      cookies=cookies_dict
    )
 
  def parse(self, response): # 通過(guò)正則表達(dá)式匹配用戶名來(lái)驗(yàn)證是否登陸成功
    result_list = re.findall(r'noobpythoner|NoobPythoner', response.body.decode())
    print(result_list)
    pass

注意:

scrapy中cookie不能夠放在headers中,在構(gòu)造請(qǐng)求的時(shí)候有專門的cookies參數(shù),能夠接受字典形式的coookie
在setting中設(shè)置ROBOTS協(xié)議、USER_AGENT

2、使用scrapy.FormRequest()登錄

通過(guò)scrapy.FormRequest能夠發(fā)送post請(qǐng)求,同時(shí)需要添加fromdata參數(shù)作為請(qǐng)求體,以及callback

 yield scrapy.FormRequest(
       "https://github.com/session",
       formdata={
         "authenticity_token":authenticity_token,
         "utf8":utf8,
         "commit":commit,
         "login":"****",
         "password":"****"
       },
       callback=self.parse_login
     )

3、使用scrapy.Formrequest.from_response登陸github

import scrapy
import re
 
class Login3Spider(scrapy.Spider):
  name = 'login3'
  allowed_domains = ['github.com']
  start_urls = ['https://github.com/login']
 
  def parse(self, response):
    yield scrapy.FormRequest.from_response(
      response, # 傳入response對(duì)象,自動(dòng)解析
      # 可以通過(guò)xpath來(lái)定位form表單,當(dāng)前頁(yè)只有一個(gè)form表單時(shí),將會(huì)自動(dòng)定位
      formxpath='//*[@id="login"]/form', 
      formdata={'login': '****', 'password': '***'},
      callback=self.parse_login
    )
 
  def parse_login(self,response):
    ret = re.findall(r"noobpythoner|NoobPythoner", response.text)
    print(ret)

到此這篇關(guān)于詳解使用scrapy進(jìn)行模擬登陸三種方式的文章就介紹到這了,更多相關(guān)scrapy模擬登陸內(nèi)容請(qǐng)搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關(guān)文章希望大家以后多多支持腳本之家!

您可能感興趣的文章:
  • Scrapy模擬登錄趕集網(wǎng)的實(shí)現(xiàn)代碼
  • Scrapy框架實(shí)現(xiàn)的登錄網(wǎng)站操作示例
  • python爬蟲框架scrapy實(shí)現(xiàn)模擬登錄操作示例

標(biāo)簽:海南 烏蘭察布 大慶 烏蘭察布 郴州 合肥 平頂山 哈爾濱

巨人網(wǎng)絡(luò)通訊聲明:本文標(biāo)題《詳解使用scrapy進(jìn)行模擬登陸三種方式》,本文關(guān)鍵詞  詳解,使用,scrapy,進(jìn)行,模擬,;如發(fā)現(xiàn)本文內(nèi)容存在版權(quán)問(wèn)題,煩請(qǐng)?zhí)峁┫嚓P(guān)信息告之我們,我們將及時(shí)溝通與處理。本站內(nèi)容系統(tǒng)采集于網(wǎng)絡(luò),涉及言論、版權(quán)與本站無(wú)關(guān)。
  • 相關(guān)文章
  • 下面列出與本文章《詳解使用scrapy進(jìn)行模擬登陸三種方式》相關(guān)的同類信息!
  • 本頁(yè)收集關(guān)于詳解使用scrapy進(jìn)行模擬登陸三種方式的相關(guān)信息資訊供網(wǎng)民參考!
  • 推薦文章
    主站蜘蛛池模板: 东海县| 济南市| 屏东市| 通化县| 高邑县| 牙克石市| 饶阳县| 朝阳县| 黄梅县| 中阳县| 广西| 福建省| 平乐县| 仁布县| 赞皇县| 平凉市| 湾仔区| 利辛县| 资源县| 明光市| 奉节县| 大丰市| 邵武市| 汶川县| 精河县| 台前县| 阳朔县| 潮安县| 彭水| 汉寿县| 宜君县| 拜泉县| 锡林浩特市| 来安县| 农安县| 枣庄市| 溧阳市| 平南县| 东台市| 阿鲁科尔沁旗| 象山县|