婷婷综合国产,91蜜桃婷婷狠狠久久综合9色 ,九九九九九精品,国产综合av

主頁 > 知識庫 > python爬蟲之pyppeteer庫簡單使用

python爬蟲之pyppeteer庫簡單使用

熱門標簽:如何地圖標注公司 外賣地址有什么地圖標注 銀川電話機器人電話 長春極信防封電銷卡批發 煙臺電話外呼營銷系統 預覽式外呼系統 上海正規的外呼系統最新報價 企業彩鈴地圖標注 電銷機器人錄音要學習什么

pyppeteer

介紹Pyppeteer之前先說一下Puppeteer,Puppeteer是谷歌出品的一款基于Node.js開發的一款工具,主要是用來操縱Chrome瀏覽器的 API,通過Javascript代碼來操縱Chrome瀏覽器,完成數據爬取、Web程序自動測試等任務。

pyppeteer 是非官方 Python 版本的 Puppeteer 庫,瀏覽器自動化庫,由日本工程師開發。

Puppeteer 是 Google 基于 Node.js 開發的工具,調用 Chrome 的 API,通過 JavaScript 代碼來操縱 Chrome 完成一些操作,用于網絡爬蟲、Web 程序自動測試等。

pyppeteer 使用了 Python 異步協程庫asyncio,可整合 Scrapy 進行分布式爬蟲。

puppet 木偶,puppeteer 操縱木偶的人。

pyppeteer和puppeteer的不同點

pyppeteer支持字典和關鍵字傳參,puppeteer只支持字典傳參

# puppeteer支支持字典傳參
browser = await launch({'headless':True})

# pyppeteer支持字典和關鍵字傳參
browser = await launch({'headless':True})
browser = await launch(headless=True)

元素選擇器方法名$變為querySelector

# puppeteer使用$符
page.$()/page.%%()/page.$x()
# pyppeteer使用python風格的函數名
page.querySelector()/page.querySelectorAll()/page.xpath()

# 簡寫方式
page.J()/page.JJ()/page.Jx()

page.evluate()和page.querySelectorEval()的參數

puppeteer的evaluate()方法使用JavaScript原生函數或JavaScript表達式字符串。pyppeteer的evaluate()方法只使用JavaScript字符串,該字符串可以是函數也可以是表達式,pyppeteer會進行自動判斷。但有時會判斷錯誤,如果字符串被判斷成了函數,并且報錯,可以添加參數force_expr=True,強制pyppeteer作為表達式處理。

獲取網頁內容:

content = await page.evaluate('document.body.textContent',force_expr=True)

獲取元素的內部文字:

element = await page.querySelector('h1')
title = await page.evaluate('(element) => element.textContent',element)

安裝

1、安裝pyppeteer

pip install pyppeteer

2、安裝chromium

pyppeteer-install

簡單使用

import asyncio
from pyppeteer import launch

async def main():
    url = 'https://www.toutiao.com/'
    # headless參數設置為Falase,則變成有頭模式
    browser = await launch(headless=False, ignoreDefaultArgs=['--enable-automation'])
    page = await browser.newPage()
    
    # 設置頁面視圖大小
    await page.setViewport(viewport={'width':1600,'herght':900})
    
    # 是否啟用JS,enabled設為False,則無渲染效果
    await page.setJavaScriptEnable(enabled=True)
    
    # 等待時間1000毫秒
    res = await page.goto(url,options={'timeout':1000})
    resp_headers = res.headers  # 響應頭
    resp_status = res.status    # 響應狀態
    
    # 等待
    await asyncio.sleep(2)
    await page.waitFor(1000)
    # 第二種方法 ,在while循環里強行查詢某元素進行等待
    while not await page.querySelector('.t')
    
    # 滾動到頁面底部
    await page.evaluate('window.scrollBy(0,document.body.scrollHeight)')
    
    await page.screenshot({'path':'test.png'})
    
    # 打印網頁cookies
    print(await page.cookies())
    
    # 獲取所有html內容
    print(await page.content())
    
    
    dimensions = await page.evaluate(pageFunction='''() => {
    		return {
    			width:document.documentElement.clentWidth,    // 頁面寬度
    			height:document.documentElement.clentHeight,  // 頁面高度
    			deviceScaleFactor: window.devicePixelRatio,  // 像素比1.0000000149011612
    			}
    		}''',force_expr=False)   # force_expr=False  執行的是函數
    print(dimensions)
    
    content = await page.evaluate(pageFunction='document.body.textContent',force_expr=True)    # 只獲得文本 執行js腳本,force_expr=True  執行的是表達式
    print(content)
    
    # 打印當前頁面的標題
    print(await page.title())
    
    
    # 抓取新聞內容  可以使用xpath表達式
    '''
    pyppeteer 三種解析方式
    page.querySelector()
    page.querySelectorAll()
    page.xpath()
    簡寫方式為:
    page.J()
    page.JJ()
    page.Jx()
    '''
    element = await page.querySelector(".feed-infinite-wrapper > ul>li")
    print(element)
    
    
    element = await page.querySelectorAll(".title-box a")
    for item in element:
        print(await item.getProperty('textContent'))
        # 獲取文本內容
        title_str = await (await item.getProperty('textContent')).jsonValue()
        
        title_link = await (await item.getProperty('textContent')).jsonValue()
        
        # 獲取屬性值
        # title = await (await item.getProperty('class')).jsonValue()
        print(title_str,title_link)
    await browser.close()


asyncio.get_event_loop().run_until_complete(main())

模擬文本輸入和點擊

# 模擬輸入賬號密碼 參數{'delay':reand_int()}  延遲輸入時間
await page.type('#kw',"百度",delay=100)
await page.type('#TPL_username_1',"asdasd")

await page.waitFor(1000)
await page.click('#su')

移除Chrome正受到自動測試軟件的控制

browser = await launch(headless=False, ignoreDefaultArgs=['--enable-automation'])
# 添加ignoreDefaultArgs=['--enable-automation'] 參數

爬取京東商城

from bs4 import BeautifulSoup
from pyppeteer import launch
import asyncio


def screen_size():
    return 1600,900


async def main(url):
    browser = await launch({"args":['--no-sandbox'],}) # "headless":False
    page = await browser.newPage()
    width, height = screen_size()
    await page.setViewport(viewport={'width':width,'height':height})
    await page.setJavaScriptEnabled(enabled=True)
    await page.setUserAgent('Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/91.0.4472.77 Safari/537.36')
    await page.goto(url)

    await page.evaluate('window.scrollBy(0, document.body.scrollHeight)')

    await asyncio.sleep(1)

    # content = await page.content()
    li_list = await page.xpath('//*[@id="J_goodsList"]/ul/li')

    item_list = []
    for li in li_list:
        a = await li.xpath('.//div[@class="p-img"]/a')
        detail_url = await (await a[0].getProperty('href')).jsonValue()
        promo_words = await (await a[0].getProperty('title')).jsonValue()
        a_ = await li.xpath('.//div[@class="p-commit"]/strong/a')
        p_commit = await (await a_[0].getProperty('textContent')).jsonValue()
        i = await li.xpath('./div/div[3]/strong/i')
        price = await (await i[0].getProperty('textContent')).jsonValue()
        em = await li.xpath('./div/div[4]/a/em')
        title = await (await em[0].getProperty('textContent')).jsonValue()
        item = {
            "title" : title,
            "detail_url" : detail_url,
            "promp_words" : promo_words,
            "p_commit" : p_commit,
            "price" : price
        }
        item_list.append(item)

    await page_close(browser)
    return item_list


async def page_close(browser):
    for _page in await browser.pages():
        await _page.close()
    await browser.close()


url = 'https://search.jd.com/Search?keyword=%E6%89%8B%E6%9C%BAwq='\

		'%E6%89%8B%E6%9C%BApvid=e07184578b8442c58ddd65b221020e99page={}s=56click=0 '
task_list = []
for i in range(1,4):
    page = i * 2 - 1
    task_list.append(main(url.format(page)))

results = asyncio.get_event_loop().run_until_complete(asyncio.gather(*task_list))

for i in results:
    print(i,len(i))

print('*'*100)

到此這篇關于python爬蟲之pyppeteer庫的文章就介紹到這了,更多相關python爬蟲pyppeteer庫內容請搜索腳本之家以前的文章或繼續瀏覽下面的相關文章希望大家以后多多支持腳本之家!

您可能感興趣的文章:
  • python爬蟲 Pyppeteer使用方法解析
  • python爬蟲神器Pyppeteer入門及使用
  • python pyppeteer 破解京東滑塊功能的代碼
  • python基于pyppeteer制作PDF文件
  • 詳解pyppeteer(python版puppeteer)基本使用

標簽:佳木斯 盤錦 宜昌 珠海 潮州 西寧 湖北 上饒

巨人網絡通訊聲明:本文標題《python爬蟲之pyppeteer庫簡單使用》,本文關鍵詞  python,爬蟲,之,pyppeteer,庫,;如發現本文內容存在版權問題,煩請提供相關信息告之我們,我們將及時溝通與處理。本站內容系統采集于網絡,涉及言論、版權與本站無關。
  • 相關文章
  • 下面列出與本文章《python爬蟲之pyppeteer庫簡單使用》相關的同類信息!
  • 本頁收集關于python爬蟲之pyppeteer庫簡單使用的相關信息資訊供網民參考!
  • 推薦文章
    婷婷综合国产,91蜜桃婷婷狠狠久久综合9色 ,九九九九九精品,国产综合av
    日韩免费视频线观看| 国产欧美一区二区精品忘忧草 | 成人永久免费视频| 一本一本大道香蕉久在线精品| 欧美日韩一区视频| 中文字幕免费不卡| 麻豆国产欧美一区二区三区| 91官网在线免费观看| 国产欧美视频在线观看| 麻豆91免费看| 欧美日韩国产一二三| 国产精品国产馆在线真实露脸 | 91小视频在线观看| 精品国产网站在线观看| 亚洲综合在线第一页| 国产99精品在线观看| 精品成人私密视频| 日本女人一区二区三区| 在线精品视频小说1| 国产精品久久久久久妇女6080| 美女视频一区二区| 欧美日韩成人高清| 亚洲一区在线视频| 色8久久精品久久久久久蜜| 国产精品毛片久久久久久久| 国产成人一级电影| 久久久亚洲精华液精华液精华液| 日韩黄色一级片| 69堂成人精品免费视频| 亚洲少妇最新在线视频| 91丨九色丨黑人外教| 国产精品乱子久久久久| 国产suv精品一区二区三区| 欧美sm极限捆绑bd| 免费成人你懂的| 欧美一区2区视频在线观看| 日日夜夜精品免费视频| 538在线一区二区精品国产| 日日夜夜一区二区| 日韩三级在线免费观看| 国产一区二区视频在线播放| 精品1区2区在线观看| 麻豆精品视频在线观看免费| 日韩免费在线观看| 国产精品一线二线三线精华| 国产精品天干天干在线综合| 91在线观看免费视频| 一二三区精品福利视频| 欧美视频在线不卡| 麻豆中文一区二区| 久久久国产精品不卡| 成熟亚洲日本毛茸茸凸凹| 亚洲欧洲精品一区二区三区| 色哟哟亚洲精品| 日韩va欧美va亚洲va久久| 欧美电视剧在线看免费| 成人美女视频在线观看18| 亚洲激情综合网| 日韩一区二区中文字幕| 成人美女在线观看| 亚洲大尺度视频在线观看| 日韩免费视频一区二区| 99精品一区二区| 日韩激情一二三区| 国产精品每日更新| 欧美电影在线免费观看| 国产麻豆精品视频| 一区二区三区**美女毛片| 欧美成人精品高清在线播放| 国产91精品在线观看| 午夜欧美一区二区三区在线播放| 精品国产亚洲一区二区三区在线观看| 91在线免费播放| 麻豆成人91精品二区三区| 亚洲精品高清在线| 久久精品视频免费| 欧美三区免费完整视频在线观看| 国产成人综合在线播放| 日本中文字幕不卡| 一区二区三区四区中文字幕| 国产亚洲制服色| 欧美一卡2卡三卡4卡5免费| 99久久免费视频.com| 一区二区不卡在线视频 午夜欧美不卡在 | 国产欧美在线观看一区| 欧美日韩一区二区三区高清| 粉嫩一区二区三区在线看| 天堂蜜桃91精品| 国产精品嫩草影院av蜜臀| 日韩美女一区二区三区四区| 一本大道久久a久久精二百| 国产成人精品亚洲777人妖 | 99国产一区二区三精品乱码| 麻豆久久久久久| 午夜精品免费在线观看| 亚洲乱码中文字幕| 国产精品免费av| 久久精品视频免费| 久久久久久久久岛国免费| 欧美不卡123| 4438成人网| 欧美日韩一区二区不卡| 在线国产亚洲欧美| 色综合久久久久| 91丝袜美腿高跟国产极品老师| 国产精品一区二区在线看| 精品综合免费视频观看| 麻豆成人av在线| 美国一区二区三区在线播放| 免费欧美在线视频| 久久精品国产网站| 久久国产精品无码网站| 精品一区二区在线播放| 狂野欧美性猛交blacked| 六月婷婷色综合| 久久精品国产一区二区| 韩日精品视频一区| 国产成人亚洲综合a∨婷婷| 国产呦萝稀缺另类资源| 国产成人精品一区二区三区四区| 国产成人精品www牛牛影视| 国产精品一品视频| 成人性生交大片免费看视频在线| 国产成人av一区二区三区在线 | 亚洲欧美综合网| 亚洲欧美日本韩国| 亚洲国产精品久久久久婷婷884| 亚洲综合男人的天堂| 天天综合天天做天天综合| 日韩av中文字幕一区二区| 国产一区二区三区综合| 岛国一区二区三区| 日本道精品一区二区三区| 欧美一区欧美二区| 国产亚洲欧美色| 亚洲欧美影音先锋| 91亚洲资源网| 91精品福利在线一区二区三区| 麻豆一区二区三区| 国产91精品在线观看| 日本道色综合久久| 欧美成人一区二区| 国产一区在线不卡| 国产成人午夜精品5599| 99久久婷婷国产综合精品| 欧美精品久久99| 国产三级精品三级在线专区| 亚洲三级小视频| 一级特黄大欧美久久久| 另类成人小视频在线| 94-欧美-setu| 日韩三级免费观看| 国产精品九色蝌蚪自拍| 婷婷激情综合网| www.在线成人| 欧美另类高清zo欧美| 日本一区二区免费在线观看视频 | 色婷婷综合久色| 精品国产一区二区三区四区四 | 国产精品国产自产拍在线| 舔着乳尖日韩一区| 成人精品电影在线观看| 欧美精品tushy高清| 自拍偷拍亚洲综合| 国模大尺度一区二区三区| 欧美亚洲丝袜传媒另类| 国产日韩影视精品| 蜜臀av在线播放一区二区三区| 成人在线视频一区| 337p粉嫩大胆色噜噜噜噜亚洲 | 洋洋av久久久久久久一区| 成人一区二区三区视频在线观看| 欧美精品一二三区| 亚洲精品自拍动漫在线| 国产精品一级黄| 日韩一区二区三区视频在线观看| 中文字幕制服丝袜一区二区三区 | 欧美挠脚心视频网站| 国产精品久久久久一区二区三区共 | 久国产精品韩国三级视频| 欧美高清视频在线高清观看mv色露露十八 | 亚洲va天堂va国产va久| 91在线视频在线| 国产日产精品一区| 国产精品456露脸| 久久综合九色综合欧美98| 麻豆91精品视频| 日韩一区二区在线看| 天堂va蜜桃一区二区三区漫画版| 色菇凉天天综合网| 亚洲伦理在线精品| 91久久精品网| 亚洲一线二线三线久久久| 91久久香蕉国产日韩欧美9色| 亚洲视频在线一区观看| 91在线观看美女| 一区二区三区成人| 欧美色手机在线观看| 日本伊人午夜精品| 精品免费视频.|