婷婷综合国产,91蜜桃婷婷狠狠久久综合9色 ,九九九九九精品,国产综合av

主頁 > 知識庫 > python爬蟲之pyppeteer庫簡單使用

python爬蟲之pyppeteer庫簡單使用

熱門標簽:如何地圖標注公司 外賣地址有什么地圖標注 銀川電話機器人電話 長春極信防封電銷卡批發 煙臺電話外呼營銷系統 預覽式外呼系統 上海正規的外呼系統最新報價 企業彩鈴地圖標注 電銷機器人錄音要學習什么

pyppeteer

介紹Pyppeteer之前先說一下Puppeteer,Puppeteer是谷歌出品的一款基于Node.js開發的一款工具,主要是用來操縱Chrome瀏覽器的 API,通過Javascript代碼來操縱Chrome瀏覽器,完成數據爬取、Web程序自動測試等任務。

pyppeteer 是非官方 Python 版本的 Puppeteer 庫,瀏覽器自動化庫,由日本工程師開發。

Puppeteer 是 Google 基于 Node.js 開發的工具,調用 Chrome 的 API,通過 JavaScript 代碼來操縱 Chrome 完成一些操作,用于網絡爬蟲、Web 程序自動測試等。

pyppeteer 使用了 Python 異步協程庫asyncio,可整合 Scrapy 進行分布式爬蟲。

puppet 木偶,puppeteer 操縱木偶的人。

pyppeteer和puppeteer的不同點

pyppeteer支持字典和關鍵字傳參,puppeteer只支持字典傳參

# puppeteer支支持字典傳參
browser = await launch({'headless':True})

# pyppeteer支持字典和關鍵字傳參
browser = await launch({'headless':True})
browser = await launch(headless=True)

元素選擇器方法名$變為querySelector

# puppeteer使用$符
page.$()/page.%%()/page.$x()
# pyppeteer使用python風格的函數名
page.querySelector()/page.querySelectorAll()/page.xpath()

# 簡寫方式
page.J()/page.JJ()/page.Jx()

page.evluate()和page.querySelectorEval()的參數

puppeteer的evaluate()方法使用JavaScript原生函數或JavaScript表達式字符串。pyppeteer的evaluate()方法只使用JavaScript字符串,該字符串可以是函數也可以是表達式,pyppeteer會進行自動判斷。但有時會判斷錯誤,如果字符串被判斷成了函數,并且報錯,可以添加參數force_expr=True,強制pyppeteer作為表達式處理。

獲取網頁內容:

content = await page.evaluate('document.body.textContent',force_expr=True)

獲取元素的內部文字:

element = await page.querySelector('h1')
title = await page.evaluate('(element) => element.textContent',element)

安裝

1、安裝pyppeteer

pip install pyppeteer

2、安裝chromium

pyppeteer-install

簡單使用

import asyncio
from pyppeteer import launch

async def main():
    url = 'https://www.toutiao.com/'
    # headless參數設置為Falase,則變成有頭模式
    browser = await launch(headless=False, ignoreDefaultArgs=['--enable-automation'])
    page = await browser.newPage()
    
    # 設置頁面視圖大小
    await page.setViewport(viewport={'width':1600,'herght':900})
    
    # 是否啟用JS,enabled設為False,則無渲染效果
    await page.setJavaScriptEnable(enabled=True)
    
    # 等待時間1000毫秒
    res = await page.goto(url,options={'timeout':1000})
    resp_headers = res.headers  # 響應頭
    resp_status = res.status    # 響應狀態
    
    # 等待
    await asyncio.sleep(2)
    await page.waitFor(1000)
    # 第二種方法 ,在while循環里強行查詢某元素進行等待
    while not await page.querySelector('.t')
    
    # 滾動到頁面底部
    await page.evaluate('window.scrollBy(0,document.body.scrollHeight)')
    
    await page.screenshot({'path':'test.png'})
    
    # 打印網頁cookies
    print(await page.cookies())
    
    # 獲取所有html內容
    print(await page.content())
    
    
    dimensions = await page.evaluate(pageFunction='''() => {
    		return {
    			width:document.documentElement.clentWidth,    // 頁面寬度
    			height:document.documentElement.clentHeight,  // 頁面高度
    			deviceScaleFactor: window.devicePixelRatio,  // 像素比1.0000000149011612
    			}
    		}''',force_expr=False)   # force_expr=False  執行的是函數
    print(dimensions)
    
    content = await page.evaluate(pageFunction='document.body.textContent',force_expr=True)    # 只獲得文本 執行js腳本,force_expr=True  執行的是表達式
    print(content)
    
    # 打印當前頁面的標題
    print(await page.title())
    
    
    # 抓取新聞內容  可以使用xpath表達式
    '''
    pyppeteer 三種解析方式
    page.querySelector()
    page.querySelectorAll()
    page.xpath()
    簡寫方式為:
    page.J()
    page.JJ()
    page.Jx()
    '''
    element = await page.querySelector(".feed-infinite-wrapper > ul>li")
    print(element)
    
    
    element = await page.querySelectorAll(".title-box a")
    for item in element:
        print(await item.getProperty('textContent'))
        # 獲取文本內容
        title_str = await (await item.getProperty('textContent')).jsonValue()
        
        title_link = await (await item.getProperty('textContent')).jsonValue()
        
        # 獲取屬性值
        # title = await (await item.getProperty('class')).jsonValue()
        print(title_str,title_link)
    await browser.close()


asyncio.get_event_loop().run_until_complete(main())

模擬文本輸入和點擊

# 模擬輸入賬號密碼 參數{'delay':reand_int()}  延遲輸入時間
await page.type('#kw',"百度",delay=100)
await page.type('#TPL_username_1',"asdasd")

await page.waitFor(1000)
await page.click('#su')

移除Chrome正受到自動測試軟件的控制

browser = await launch(headless=False, ignoreDefaultArgs=['--enable-automation'])
# 添加ignoreDefaultArgs=['--enable-automation'] 參數

爬取京東商城

from bs4 import BeautifulSoup
from pyppeteer import launch
import asyncio


def screen_size():
    return 1600,900


async def main(url):
    browser = await launch({"args":['--no-sandbox'],}) # "headless":False
    page = await browser.newPage()
    width, height = screen_size()
    await page.setViewport(viewport={'width':width,'height':height})
    await page.setJavaScriptEnabled(enabled=True)
    await page.setUserAgent('Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/91.0.4472.77 Safari/537.36')
    await page.goto(url)

    await page.evaluate('window.scrollBy(0, document.body.scrollHeight)')

    await asyncio.sleep(1)

    # content = await page.content()
    li_list = await page.xpath('//*[@id="J_goodsList"]/ul/li')

    item_list = []
    for li in li_list:
        a = await li.xpath('.//div[@class="p-img"]/a')
        detail_url = await (await a[0].getProperty('href')).jsonValue()
        promo_words = await (await a[0].getProperty('title')).jsonValue()
        a_ = await li.xpath('.//div[@class="p-commit"]/strong/a')
        p_commit = await (await a_[0].getProperty('textContent')).jsonValue()
        i = await li.xpath('./div/div[3]/strong/i')
        price = await (await i[0].getProperty('textContent')).jsonValue()
        em = await li.xpath('./div/div[4]/a/em')
        title = await (await em[0].getProperty('textContent')).jsonValue()
        item = {
            "title" : title,
            "detail_url" : detail_url,
            "promp_words" : promo_words,
            "p_commit" : p_commit,
            "price" : price
        }
        item_list.append(item)

    await page_close(browser)
    return item_list


async def page_close(browser):
    for _page in await browser.pages():
        await _page.close()
    await browser.close()


url = 'https://search.jd.com/Search?keyword=%E6%89%8B%E6%9C%BAwq='\

		'%E6%89%8B%E6%9C%BApvid=e07184578b8442c58ddd65b221020e99page={}s=56click=0 '
task_list = []
for i in range(1,4):
    page = i * 2 - 1
    task_list.append(main(url.format(page)))

results = asyncio.get_event_loop().run_until_complete(asyncio.gather(*task_list))

for i in results:
    print(i,len(i))

print('*'*100)

到此這篇關于python爬蟲之pyppeteer庫的文章就介紹到這了,更多相關python爬蟲pyppeteer庫內容請搜索腳本之家以前的文章或繼續瀏覽下面的相關文章希望大家以后多多支持腳本之家!

您可能感興趣的文章:
  • python爬蟲 Pyppeteer使用方法解析
  • python爬蟲神器Pyppeteer入門及使用
  • python pyppeteer 破解京東滑塊功能的代碼
  • python基于pyppeteer制作PDF文件
  • 詳解pyppeteer(python版puppeteer)基本使用

標簽:佳木斯 盤錦 宜昌 珠海 潮州 西寧 湖北 上饒

巨人網絡通訊聲明:本文標題《python爬蟲之pyppeteer庫簡單使用》,本文關鍵詞  python,爬蟲,之,pyppeteer,庫,;如發現本文內容存在版權問題,煩請提供相關信息告之我們,我們將及時溝通與處理。本站內容系統采集于網絡,涉及言論、版權與本站無關。
  • 相關文章
  • 下面列出與本文章《python爬蟲之pyppeteer庫簡單使用》相關的同類信息!
  • 本頁收集關于python爬蟲之pyppeteer庫簡單使用的相關信息資訊供網民參考!
  • 推薦文章
    婷婷综合国产,91蜜桃婷婷狠狠久久综合9色 ,九九九九九精品,国产综合av
    亚洲乱码国产乱码精品精的特点| 91精品一区二区三区久久久久久| 亚洲久本草在线中文字幕| 久久久久久久久久久黄色| 欧美精品一二三四| 国产不卡在线一区| 一区二区三区高清| 国产偷国产偷精品高清尤物| aaa国产一区| 岛国一区二区在线观看| 伊人婷婷欧美激情| 国产精品精品国产色婷婷| 欧美日韩精品三区| 六月婷婷色综合| 亚洲人成精品久久久久久| 亚洲国产综合在线| 亚洲欧美国产77777| 欧美变态凌虐bdsm| 中文字幕va一区二区三区| 一区二区免费在线播放| 国产精品视频在线看| 国产精品超碰97尤物18| 欧美在线观看18| 欧美日韩国产精选| 欧美一级免费观看| 18成人在线观看| 亚洲精品中文在线| 亚洲精品高清在线观看| 欧美精品一区二区三区很污很色的| 久久久久久夜精品精品免费| 色美美综合视频| 在线观看亚洲精品| 99久久99久久精品国产片果冻| 亚洲综合自拍偷拍| 亚洲摸摸操操av| 国产精品主播直播| 国产日韩欧美综合一区| 天使萌一区二区三区免费观看| 午夜精品久久久久久久蜜桃app| 亚洲一区二区精品视频| 一区二区三区四区在线| 国产免费成人在线视频| 樱桃国产成人精品视频| 免费成人深夜小野草| 一本到高清视频免费精品| 国产不卡一区视频| 日韩一区二区在线播放| 欧美影院精品一区| 久久亚洲一区二区三区四区| 欧美mv日韩mv亚洲| 日韩欧美色综合| 亚洲图片激情小说| 六月婷婷色综合| 成人午夜视频在线观看| 欧美系列在线观看| 色综合咪咪久久| 欧美一区二区视频观看视频 | 欧美一区二区三区四区在线观看| 欧美性大战久久久| 日韩精品在线一区| 国产精品久久久久久久久晋中| 日韩精品1区2区3区| av男人天堂一区| 激情欧美一区二区| 国产精品国产三级国产aⅴ无密码 国产精品国产三级国产aⅴ原创 | 色94色欧美sute亚洲13| 日本精品裸体写真集在线观看| 久久日韩粉嫩一区二区三区| 亚洲成人一区二区在线观看| 99久久综合国产精品| 色综合久久中文字幕| 欧美久久一二三四区| 亚洲一区在线视频| 国产成人在线影院| 精品福利一二区| 理论片日本一区| 不卡的av电影| 最新中文字幕一区二区三区| 东方aⅴ免费观看久久av| 国产日韩欧美电影| 国产成人一区二区精品非洲| 国产成人av电影在线观看| wwwwww.欧美系列| 国产日韩视频一区二区三区| 91精品国产综合久久国产大片| 欧美美女网站色| 日韩三级精品电影久久久| 国产精品的网站| 日本道色综合久久| 亚洲欧洲中文日韩久久av乱码| 日本欧美加勒比视频| 国产精品99久久不卡二区| 91免费国产视频网站| 色婷婷国产精品久久包臀| 国产欧美日韩三级| 日韩一区二区三区精品视频| 一个色综合网站| 男人的天堂久久精品| 国产欧美综合在线观看第十页| 国精品**一区二区三区在线蜜桃| 欧美亚洲一区二区在线| 久久99久国产精品黄毛片色诱| 欧美人xxxx| 国产高清在线精品| 亚洲乱码中文字幕| 色哟哟国产精品免费观看| 亚洲免费观看在线视频| 亚洲3atv精品一区二区三区| 1区2区3区国产精品| 色综合久久久网| 国产欧美日韩亚州综合| 国产成人8x视频一区二区| ㊣最新国产の精品bt伙计久久| 欧美伊人精品成人久久综合97| 亚洲一二三区视频在线观看| 91麻豆精品国产91久久久更新时间| 午夜精品福利在线| 欧美理论片在线| 国产精品你懂的| 欧美日韩亚洲综合在线| 国产精品国产三级国产普通话三级| 成年人午夜久久久| 中文字幕视频一区二区三区久| 日韩欧美一级在线播放| 91丝袜美女网| 另类小说欧美激情| 精品在线亚洲视频| 91网上在线视频| 国产精品日日摸夜夜摸av| 亚洲欧美另类在线| 欧美日韩中文精品| 91亚洲精华国产精华精华液| 欧美性猛交xxxxxxxx| 精品伦理精品一区| 国产成人亚洲综合a∨婷婷图片| 精品无人码麻豆乱码1区2区 | 成人免费va视频| 欧美一级日韩一级| 久久久.com| 高清不卡一区二区| 蜜臀91精品一区二区三区| 中文字幕在线不卡视频| 日韩欧美高清dvd碟片| 国产成人午夜高潮毛片| 日本在线不卡视频一二三区| 久久久亚洲综合| 成人性生交大合| 国产在线视频一区二区三区| 亚洲线精品一区二区三区 | 久久久久久久久免费| 亚洲国产精品av| 欧美精品精品一区| 国产高清久久久| 日本欧美肥老太交大片| 亚洲国产精品久久不卡毛片| 精品视频免费看| 国产一区在线观看麻豆| 青青草91视频| 免费一区二区视频| 亚洲最色的网站| 欧美成人女星排行榜| 国产一区二区三区久久悠悠色av| 日本一区二区电影| 欧美大片顶级少妇| 91美女视频网站| 久久不见久久见免费视频7| 一区二区三区在线高清| 色婷婷激情综合| 国产成人亚洲综合a∨猫咪| 日韩影院在线观看| 天堂精品中文字幕在线| 日本女人一区二区三区| 一区二区三区中文字幕电影| 亚洲男人都懂的| 国产嫩草影院久久久久| 日韩精品一区二区三区老鸭窝 | 青草国产精品久久久久久| 一区二区免费视频| 日本欧美在线观看| 精品国精品自拍自在线| 欧美大片免费久久精品三p| 中文乱码免费一区二区| 精品88久久久久88久久久| 日韩午夜在线观看| 日韩亚洲欧美综合| 91精品国产综合久久香蕉的特点| 欧美精品一区二区三| av不卡在线播放| 成人免费va视频| 亚洲午夜在线观看视频在线| 亚洲码国产岛国毛片在线| 亚洲国产日韩av| 久久精品网站免费观看| 久久综合狠狠综合久久综合88 | 欧美综合亚洲图片综合区| 久久青草欧美一区二区三区| 亚洲综合视频在线观看| 午夜精品久久久| 国产福利一区二区三区视频在线 | 欧美成人一区二区三区|