婷婷综合国产,91蜜桃婷婷狠狠久久综合9色 ,九九九九九精品,国产综合av

主頁 > 知識庫 > python爬蟲之pyppeteer庫簡單使用

python爬蟲之pyppeteer庫簡單使用

熱門標簽:如何地圖標注公司 外賣地址有什么地圖標注 銀川電話機器人電話 長春極信防封電銷卡批發 煙臺電話外呼營銷系統 預覽式外呼系統 上海正規的外呼系統最新報價 企業彩鈴地圖標注 電銷機器人錄音要學習什么

pyppeteer

介紹Pyppeteer之前先說一下Puppeteer,Puppeteer是谷歌出品的一款基于Node.js開發的一款工具,主要是用來操縱Chrome瀏覽器的 API,通過Javascript代碼來操縱Chrome瀏覽器,完成數據爬取、Web程序自動測試等任務。

pyppeteer 是非官方 Python 版本的 Puppeteer 庫,瀏覽器自動化庫,由日本工程師開發。

Puppeteer 是 Google 基于 Node.js 開發的工具,調用 Chrome 的 API,通過 JavaScript 代碼來操縱 Chrome 完成一些操作,用于網絡爬蟲、Web 程序自動測試等。

pyppeteer 使用了 Python 異步協程庫asyncio,可整合 Scrapy 進行分布式爬蟲。

puppet 木偶,puppeteer 操縱木偶的人。

pyppeteer和puppeteer的不同點

pyppeteer支持字典和關鍵字傳參,puppeteer只支持字典傳參

# puppeteer支支持字典傳參
browser = await launch({'headless':True})

# pyppeteer支持字典和關鍵字傳參
browser = await launch({'headless':True})
browser = await launch(headless=True)

元素選擇器方法名$變為querySelector

# puppeteer使用$符
page.$()/page.%%()/page.$x()
# pyppeteer使用python風格的函數名
page.querySelector()/page.querySelectorAll()/page.xpath()

# 簡寫方式
page.J()/page.JJ()/page.Jx()

page.evluate()和page.querySelectorEval()的參數

puppeteer的evaluate()方法使用JavaScript原生函數或JavaScript表達式字符串。pyppeteer的evaluate()方法只使用JavaScript字符串,該字符串可以是函數也可以是表達式,pyppeteer會進行自動判斷。但有時會判斷錯誤,如果字符串被判斷成了函數,并且報錯,可以添加參數force_expr=True,強制pyppeteer作為表達式處理。

獲取網頁內容:

content = await page.evaluate('document.body.textContent',force_expr=True)

獲取元素的內部文字:

element = await page.querySelector('h1')
title = await page.evaluate('(element) => element.textContent',element)

安裝

1、安裝pyppeteer

pip install pyppeteer

2、安裝chromium

pyppeteer-install

簡單使用

import asyncio
from pyppeteer import launch

async def main():
    url = 'https://www.toutiao.com/'
    # headless參數設置為Falase,則變成有頭模式
    browser = await launch(headless=False, ignoreDefaultArgs=['--enable-automation'])
    page = await browser.newPage()
    
    # 設置頁面視圖大小
    await page.setViewport(viewport={'width':1600,'herght':900})
    
    # 是否啟用JS,enabled設為False,則無渲染效果
    await page.setJavaScriptEnable(enabled=True)
    
    # 等待時間1000毫秒
    res = await page.goto(url,options={'timeout':1000})
    resp_headers = res.headers  # 響應頭
    resp_status = res.status    # 響應狀態
    
    # 等待
    await asyncio.sleep(2)
    await page.waitFor(1000)
    # 第二種方法 ,在while循環里強行查詢某元素進行等待
    while not await page.querySelector('.t')
    
    # 滾動到頁面底部
    await page.evaluate('window.scrollBy(0,document.body.scrollHeight)')
    
    await page.screenshot({'path':'test.png'})
    
    # 打印網頁cookies
    print(await page.cookies())
    
    # 獲取所有html內容
    print(await page.content())
    
    
    dimensions = await page.evaluate(pageFunction='''() => {
    		return {
    			width:document.documentElement.clentWidth,    // 頁面寬度
    			height:document.documentElement.clentHeight,  // 頁面高度
    			deviceScaleFactor: window.devicePixelRatio,  // 像素比1.0000000149011612
    			}
    		}''',force_expr=False)   # force_expr=False  執行的是函數
    print(dimensions)
    
    content = await page.evaluate(pageFunction='document.body.textContent',force_expr=True)    # 只獲得文本 執行js腳本,force_expr=True  執行的是表達式
    print(content)
    
    # 打印當前頁面的標題
    print(await page.title())
    
    
    # 抓取新聞內容  可以使用xpath表達式
    '''
    pyppeteer 三種解析方式
    page.querySelector()
    page.querySelectorAll()
    page.xpath()
    簡寫方式為:
    page.J()
    page.JJ()
    page.Jx()
    '''
    element = await page.querySelector(".feed-infinite-wrapper > ul>li")
    print(element)
    
    
    element = await page.querySelectorAll(".title-box a")
    for item in element:
        print(await item.getProperty('textContent'))
        # 獲取文本內容
        title_str = await (await item.getProperty('textContent')).jsonValue()
        
        title_link = await (await item.getProperty('textContent')).jsonValue()
        
        # 獲取屬性值
        # title = await (await item.getProperty('class')).jsonValue()
        print(title_str,title_link)
    await browser.close()


asyncio.get_event_loop().run_until_complete(main())

模擬文本輸入和點擊

# 模擬輸入賬號密碼 參數{'delay':reand_int()}  延遲輸入時間
await page.type('#kw',"百度",delay=100)
await page.type('#TPL_username_1',"asdasd")

await page.waitFor(1000)
await page.click('#su')

移除Chrome正受到自動測試軟件的控制

browser = await launch(headless=False, ignoreDefaultArgs=['--enable-automation'])
# 添加ignoreDefaultArgs=['--enable-automation'] 參數

爬取京東商城

from bs4 import BeautifulSoup
from pyppeteer import launch
import asyncio


def screen_size():
    return 1600,900


async def main(url):
    browser = await launch({"args":['--no-sandbox'],}) # "headless":False
    page = await browser.newPage()
    width, height = screen_size()
    await page.setViewport(viewport={'width':width,'height':height})
    await page.setJavaScriptEnabled(enabled=True)
    await page.setUserAgent('Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/91.0.4472.77 Safari/537.36')
    await page.goto(url)

    await page.evaluate('window.scrollBy(0, document.body.scrollHeight)')

    await asyncio.sleep(1)

    # content = await page.content()
    li_list = await page.xpath('//*[@id="J_goodsList"]/ul/li')

    item_list = []
    for li in li_list:
        a = await li.xpath('.//div[@class="p-img"]/a')
        detail_url = await (await a[0].getProperty('href')).jsonValue()
        promo_words = await (await a[0].getProperty('title')).jsonValue()
        a_ = await li.xpath('.//div[@class="p-commit"]/strong/a')
        p_commit = await (await a_[0].getProperty('textContent')).jsonValue()
        i = await li.xpath('./div/div[3]/strong/i')
        price = await (await i[0].getProperty('textContent')).jsonValue()
        em = await li.xpath('./div/div[4]/a/em')
        title = await (await em[0].getProperty('textContent')).jsonValue()
        item = {
            "title" : title,
            "detail_url" : detail_url,
            "promp_words" : promo_words,
            "p_commit" : p_commit,
            "price" : price
        }
        item_list.append(item)

    await page_close(browser)
    return item_list


async def page_close(browser):
    for _page in await browser.pages():
        await _page.close()
    await browser.close()


url = 'https://search.jd.com/Search?keyword=%E6%89%8B%E6%9C%BAwq='\

		'%E6%89%8B%E6%9C%BApvid=e07184578b8442c58ddd65b221020e99page={}s=56click=0 '
task_list = []
for i in range(1,4):
    page = i * 2 - 1
    task_list.append(main(url.format(page)))

results = asyncio.get_event_loop().run_until_complete(asyncio.gather(*task_list))

for i in results:
    print(i,len(i))

print('*'*100)

到此這篇關于python爬蟲之pyppeteer庫的文章就介紹到這了,更多相關python爬蟲pyppeteer庫內容請搜索腳本之家以前的文章或繼續瀏覽下面的相關文章希望大家以后多多支持腳本之家!

您可能感興趣的文章:
  • python爬蟲 Pyppeteer使用方法解析
  • python爬蟲神器Pyppeteer入門及使用
  • python pyppeteer 破解京東滑塊功能的代碼
  • python基于pyppeteer制作PDF文件
  • 詳解pyppeteer(python版puppeteer)基本使用

標簽:佳木斯 盤錦 宜昌 珠海 潮州 西寧 湖北 上饒

巨人網絡通訊聲明:本文標題《python爬蟲之pyppeteer庫簡單使用》,本文關鍵詞  python,爬蟲,之,pyppeteer,庫,;如發現本文內容存在版權問題,煩請提供相關信息告之我們,我們將及時溝通與處理。本站內容系統采集于網絡,涉及言論、版權與本站無關。
  • 相關文章
  • 下面列出與本文章《python爬蟲之pyppeteer庫簡單使用》相關的同類信息!
  • 本頁收集關于python爬蟲之pyppeteer庫簡單使用的相關信息資訊供網民參考!
  • 推薦文章
    婷婷综合国产,91蜜桃婷婷狠狠久久综合9色 ,九九九九九精品,国产综合av
    一区二区三区精品在线观看| 国产成人免费视频一区| 国产午夜精品在线观看| 久久色视频免费观看| 久久久亚洲午夜电影| 国产精品素人一区二区| 成人免费在线视频观看| 亚洲成人激情综合网| 六月婷婷色综合| 白白色 亚洲乱淫| 在线观看欧美精品| 日韩精品在线看片z| 国产欧美日产一区| 天天av天天翘天天综合网| 国产一区二区三区在线观看免费视频 | 日韩欧美国产不卡| 久久久无码精品亚洲日韩按摩| 国产免费久久精品| 日韩精品免费专区| 欧美一级片免费看| 亚洲欧美激情插| 人人精品人人爱| jiyouzz国产精品久久| 欧美久久婷婷综合色| 国产精品色眯眯| 欧美aⅴ一区二区三区视频| 成人午夜免费电影| 日韩三级精品电影久久久| 亚洲乱码中文字幕综合| 国产在线播放一区二区三区| 欧洲人成人精品| 成人免费在线视频| 国产制服丝袜一区| 欧美日韩亚洲不卡| 有坂深雪av一区二区精品| 粉嫩aⅴ一区二区三区四区| 日韩久久免费av| 天天操天天干天天综合网| 91久久精品日日躁夜夜躁欧美| 中文字幕第一页久久| 国产乱码精品一区二区三区忘忧草 | 精品国产一区久久| 亚洲国产中文字幕| 91亚洲资源网| 国产精品久久久久久久岛一牛影视| 另类欧美日韩国产在线| 日韩一区二区电影在线| 亚洲一级电影视频| 色婷婷一区二区三区四区| 国产精品看片你懂得| 国产99久久精品| 精品成a人在线观看| 精品一区二区在线视频| 国产成a人无v码亚洲福利| 精品精品国产高清a毛片牛牛 | 亚洲在线一区二区三区| 91视频一区二区三区| 日韩美女啊v在线免费观看| 国产999精品久久久久久绿帽| 精品久久久久久无| 韩国女主播一区| 久久综合九色综合欧美亚洲| 久久成人久久鬼色| 在线观看日韩电影| 亚洲成a人片在线观看中文| 欧美亚洲国产bt| 亚洲一区国产视频| 欧洲色大大久久| 五月综合激情网| 日韩视频免费观看高清完整版| 国产精品日韩成人| 丰满白嫩尤物一区二区| 中文字幕巨乱亚洲| 色香蕉久久蜜桃| 天天综合网 天天综合色| 7777精品伊人久久久大香线蕉最新版| 香蕉乱码成人久久天堂爱免费| 欧美老肥妇做.爰bbww视频| 免费精品视频在线| 久久久久久久久99精品| 成人激情小说网站| 亚洲欧美日韩国产综合| 欧美美女网站色| 国产综合久久久久影院| 欧美经典一区二区| 91久久精品一区二区三| 久久国产精品色婷婷| 久久免费偷拍视频| 91在线无精精品入口| 天堂va蜜桃一区二区三区漫画版| 日韩午夜三级在线| 岛国精品一区二区| 亚洲成av人影院| 2022国产精品视频| 91免费版在线看| 美女国产一区二区| 中文字幕一区二区三区不卡| 91精品婷婷国产综合久久竹菊| 成人性视频免费网站| 亚洲成人先锋电影| 久久久www免费人成精品| 色综合久久久久综合| 精品综合免费视频观看| 中文字幕制服丝袜一区二区三区| 91精品国产一区二区三区| 国产传媒久久文化传媒| 亚洲不卡在线观看| 国产精品久久久久久久第一福利| 欧美精品在线视频| 成人晚上爱看视频| 日韩国产欧美一区二区三区| 国产精品护士白丝一区av| 宅男在线国产精品| 色综合久久久久综合99| 国产黑丝在线一区二区三区| 天天操天天干天天综合网| 亚洲色图丝袜美腿| 91麻豆国产精品久久| 一区二区高清视频在线观看| 久久久美女毛片| 久久成人久久爱| 天天综合天天做天天综合| 亚洲女子a中天字幕| 26uuu国产电影一区二区| 91精选在线观看| 色婷婷精品大在线视频| 粉嫩高潮美女一区二区三区| 久久精品国产精品亚洲红杏| 亚洲一二三区在线观看| 亚洲视频狠狠干| 国产欧美一区二区精品性色超碰 | 伊人婷婷欧美激情| 国产精品免费视频网站| 久久久亚洲精品一区二区三区 | 午夜激情久久久| 亚洲欧美福利一区二区| 中文字幕日本乱码精品影院| 久久影院视频免费| 精品成a人在线观看| 日韩欧美亚洲国产另类| 欧美一区二区观看视频| 91.麻豆视频| 蜜臀91精品一区二区三区| 偷拍亚洲欧洲综合| 久久婷婷综合激情| 久久久国产午夜精品| 久久精品一区二区三区不卡牛牛| 欧美精品一区二区三区四区 | 欧美综合一区二区| 欧美日韩国产片| 在线电影一区二区三区| 欧美酷刑日本凌虐凌虐| 91麻豆精品国产91| 欧美一二三四在线| 91麻豆精品国产91久久久资源速度| 欧美三级日韩在线| 91久久奴性调教| 欧美三级视频在线播放| 欧美日韩中文另类| 欧美精品v国产精品v日韩精品| 97se亚洲国产综合自在线观| 欧洲av在线精品| 亚洲欧洲成人自拍| 亚洲国产精品精华液ab| 亚洲精品国产一区二区精华液| 国产精品传媒入口麻豆| 亚洲婷婷国产精品电影人久久| 国产人成亚洲第一网站在线播放 | 日韩午夜电影av| 91麻豆精品国产无毒不卡在线观看 | 日韩专区在线视频| 精品影院一区二区久久久| 久久电影网站中文字幕| 91最新地址在线播放| 欧美精品乱码久久久久久按摩| 欧美中文字幕亚洲一区二区va在线| 欧美日韩国产综合一区二区| 91精品福利在线| 欧美三区在线观看| 在线成人免费观看| 91精选在线观看| 精品黑人一区二区三区久久| 成人国产免费视频| 国产曰批免费观看久久久| 国产成人鲁色资源国产91色综| 成人做爰69片免费看网站| 成人av手机在线观看| 日韩视频一区二区在线观看| 久久女同性恋中文字幕| 《视频一区视频二区| 久久国产免费看| 国产成a人无v码亚洲福利| 日韩午夜精品视频| 日韩一区二区免费在线观看| 亚洲男人天堂av网| 国产成人精品三级麻豆| 色婷婷av一区| 中文字幕 久热精品 视频在线 | 99久久婷婷国产| 欧美三级资源在线|