婷婷综合国产,91蜜桃婷婷狠狠久久综合9色 ,九九九九九精品,国产综合av

主頁 > 知識(shí)庫 > Python爬取動(dòng)態(tài)網(wǎng)頁中圖片的完整實(shí)例

Python爬取動(dòng)態(tài)網(wǎng)頁中圖片的完整實(shí)例

熱門標(biāo)簽:賓館能在百度地圖標(biāo)注嗎 鄭州智能外呼系統(tǒng)中心 400電話 申請(qǐng) 條件 汕頭電商外呼系統(tǒng)供應(yīng)商 crm電銷機(jī)器人 北京外呼電銷機(jī)器人招商 電銷機(jī)器人 金倫通信 云南地圖標(biāo)注 南京crm外呼系統(tǒng)排名

動(dòng)態(tài)網(wǎng)頁爬取是爬蟲學(xué)習(xí)中的一個(gè)難點(diǎn)。本文將以知名插畫網(wǎng)站pixiv為例,簡要介紹動(dòng)態(tài)網(wǎng)頁爬取的方法。

寫在前面

本代碼的功能是輸入畫師的pixiv id,下載畫師的所有插畫。由于本人水平所限,所以代碼不能實(shí)現(xiàn)自動(dòng)登錄pixiv,需要在運(yùn)行時(shí)手動(dòng)輸入網(wǎng)站的cookie值。

重點(diǎn):請(qǐng)求頭的構(gòu)造,json文件網(wǎng)址的查找,json中信息的提取

分析

創(chuàng)建文件夾

根據(jù)畫師的id創(chuàng)建文件夾(相關(guān)路徑需要自行調(diào)整)。

def makefolder(id): # 根據(jù)畫師的id創(chuàng)建對(duì)應(yīng)的文件夾
	try:
		folder = os.path.join('E:\pixivimages', id)
		os.mkdir(folder)
		return folder
	except(FileExistsError):
		print('the folder exists!')
		exit()

獲取作者所有圖片的id

訪問url:https://pixiv.net/ajax/user/畫師id/profile/all(這個(gè)json可以在畫師主頁url:https://www.pixiv.net/users/畫師id 的開發(fā)者面板中找到,如圖:)

json內(nèi)容:

將json文檔轉(zhuǎn)化為python的字典,提取對(duì)應(yīng)元素即可獲取所有的插畫id。

def getAuthorAllPicID(id, cookie): # 獲取畫師所有圖片的id
	url = 'https://pixiv.net/ajax/user/' + id + '/profile/all' # 訪問存有畫師所有作品
	headers = {
		'User-Agent': user_agent,
		'Cookie': cookie,
		'Referer': 'https://www.pixiv.net/artworks/' 
		# referer不能缺少,否則會(huì)403
	}
	res = requests.get(url, headers=headers, proxies=proxies)
	if res.status_code == 200:
		resdict = json.loads(res.content)['body']['illusts'] # 將json轉(zhuǎn)化為python的字典后提取元素
		return [key for key in resdict] # 返回所有圖片id
	else:
		print("Can not get the author's picture ids!")
		exit()

獲取圖片的真實(shí)url并下載

訪問url:https://www.pixiv.net/ajax/illust/圖片id?lang=zh,可以看到儲(chǔ)存有圖片真實(shí)地址的json:(這個(gè)json可以在圖片url:https://www.pixiv.net/artworks/圖片id 的開發(fā)者面板中找到)

用同樣的方法提取json中有用的元素:

def getPictures(folder, IDlist, cookie): # 訪問圖片儲(chǔ)存的真實(shí)網(wǎng)址
	for picid in IDlist:
		url1 = 'https://www.pixiv.net/artworks/{}'.format(picid) # 注意這里referer必不可少,否則會(huì)報(bào)403
		headers = {
			'User-Agent': user_agent,
			'Cookie': cookie,
			'Referer': url1
		}
		url = 'https://www.pixiv.net/ajax/illust/' + str(picid) + '?lang = zh' #訪問儲(chǔ)存圖片網(wǎng)址的json
		res = requests.get(url, headers=headers, proxies=proxies)
		if res.status_code == 200:
			data = json.loads(res.content)
			picurl = data['body']['urls']['original'] # 在字典中找到儲(chǔ)存圖片的路徑與標(biāo)題
			title = data['body']['title']
			title = changeTitle(title) # 調(diào)整標(biāo)題
			print(title)
			print(picurl)
			download(folder, picurl, title, headers)
		else:
			print("Can not get the urls of the pictures!")
			exit()


def changeTitle(title): # 為了防止
	global i
	title = re.sub('[*:]', "", title) # 如果圖片中有下列符號(hào),可能會(huì)導(dǎo)致圖片無法成功下載
	# 注意可能還會(huì)有許多不能用于文件命名的符號(hào),如果找到對(duì)應(yīng)符號(hào)要將其添加到正則表達(dá)式中
	if title == '無題': # pixiv中有許多名為'無題'(日文)的圖片,需要對(duì)它們加以區(qū)分以防止覆蓋
		title = title + str(i)
		i = i + 1
	return title


def download(folder, picurl, title, headers): # 將圖片下載到文件夾中
	img = requests.get(picurl, headers=headers, proxies=proxies)
	if img.status_code == 200:
		with open(folder + '\\' + title + '.jpg', 'wb') as file: # 保存圖片
			print("downloading:" + title)
			file.write(img.content)
	else:
		print("download pictures error!")

完整代碼

import requests
from fake_useragent import UserAgent
import json
import re
import os

global i
i = 0
ua = UserAgent() # 生成假的瀏覽器請(qǐng)求頭,防止被封ip
user_agent = ua.random # 隨機(jī)選擇一個(gè)瀏覽器
proxies = {'http': 'http://127.0.0.1:51837', 'https': 'http://127.0.0.1:51837'} # 代理,根據(jù)自己實(shí)際情況調(diào)整,注意在請(qǐng)求時(shí)一定不要忘記代理!!


def makefolder(id): # 根據(jù)畫師的id創(chuàng)建對(duì)應(yīng)的文件夾
	try:
		folder = os.path.join('E:\pixivimages', id)
		os.mkdir(folder)
		return folder
	except(FileExistsError):
		print('the folder exists!')
		exit()


def getAuthorAllPicID(id, cookie): # 獲取畫師所有圖片的id
	url = 'https://pixiv.net/ajax/user/' + id + '/profile/all' # 訪問存有畫師所有作品
	headers = {
		'User-Agent': user_agent,
		'Cookie': cookie,
		'Referer': 'https://www.pixiv.net/artworks/' 
	}
	res = requests.get(url, headers=headers, proxies=proxies)
	if res.status_code == 200:
		resdict = json.loads(res.content)['body']['illusts'] # 將json轉(zhuǎn)化為python的字典后提取元素
		return [key for key in resdict] # 返回所有圖片id
	else:
		print("Can not get the author's picture ids!")
		exit()


def getPictures(folder, IDlist, cookie): # 訪問圖片儲(chǔ)存的真實(shí)網(wǎng)址
	for picid in IDlist:
		url1 = 'https://www.pixiv.net/artworks/{}'.format(picid) # 注意這里referer必不可少,否則會(huì)報(bào)403
		headers = {
			'User-Agent': user_agent,
			'Cookie': cookie,
			'Referer': url1
		}
		url = 'https://www.pixiv.net/ajax/illust/' + str(picid) + '?lang = zh' #訪問儲(chǔ)存圖片網(wǎng)址的json
		res = requests.get(url, headers=headers, proxies=proxies)
		if res.status_code == 200:
			data = json.loads(res.content)
			picurl = data['body']['urls']['original'] # 在字典中找到儲(chǔ)存圖片的路徑與標(biāo)題
			title = data['body']['title']
			title = changeTitle(title) # 調(diào)整標(biāo)題
			print(title)
			print(picurl)
			download(folder, picurl, title, headers)
		else:
			print("Can not get the urls of the pictures!")
			exit()


def changeTitle(title): # 為了防止
	global i
	title = re.sub('[*:]', "", title) # 如果圖片中有下列符號(hào),可能會(huì)導(dǎo)致圖片無法成功下載
	# 注意可能還會(huì)有許多不能用于文件命名的符號(hào),如果找到對(duì)應(yīng)符號(hào)要將其添加到正則表達(dá)式中
	if title == '無題': # pixiv中有許多名為'無題'(日文)的圖片,需要對(duì)它們加以區(qū)分以防止覆蓋
		title = title + str(i)
		i = i + 1
	return title


def download(folder, picurl, title, headers): # 將圖片下載到文件夾中
	img = requests.get(picurl, headers=headers, proxies=proxies)
	if img.status_code == 200:
		with open(folder + '\\' + title + '.jpg', 'wb') as file: # 保存圖片
			print("downloading:" + title)
			file.write(img.content)
	else:
		print("download pictures error!")


def main():
	global i
	id = input('input the id of the artist:')
	cookie = input('input your cookie:') # 半自動(dòng)爬蟲,需要自己事先登錄pixiv以獲取cookie
	folder = makefolder(id)
	IDlist = getAuthorAllPicID(id, cookie)
	getPictures(folder, IDlist, cookie)


if __name__ == '__main__':
	main()

效果

總結(jié)

到此這篇關(guān)于Python爬取動(dòng)態(tài)網(wǎng)頁中圖片的文章就介紹到這了,更多相關(guān)Python爬取動(dòng)態(tài)網(wǎng)頁圖片內(nèi)容請(qǐng)搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關(guān)文章希望大家以后多多支持腳本之家!

您可能感興趣的文章:
  • Python使用爬蟲抓取美女圖片并保存到本地的方法【測試可用】
  • 使用Python的Scrapy框架十分鐘爬取美女圖
  • Python制作爬蟲抓取美女圖
  • python實(shí)現(xiàn)爬蟲下載美女圖片
  • python爬蟲入門教程之點(diǎn)點(diǎn)美女圖片爬蟲代碼分享
  • python小技巧之批量抓取美女圖片
  • Python爬蟲之教你利用Scrapy爬取圖片
  • python制作微博圖片爬取工具
  • Python使用xpath實(shí)現(xiàn)圖片爬取
  • 只用50行Python代碼爬取網(wǎng)絡(luò)美女高清圖片

標(biāo)簽:浙江 石家莊 梅州 懷化 文山 錫林郭勒盟 昆明 西寧

巨人網(wǎng)絡(luò)通訊聲明:本文標(biāo)題《Python爬取動(dòng)態(tài)網(wǎng)頁中圖片的完整實(shí)例》,本文關(guān)鍵詞  Python,爬取,動(dòng)態(tài),網(wǎng)頁,中,;如發(fā)現(xiàn)本文內(nèi)容存在版權(quán)問題,煩請(qǐng)?zhí)峁┫嚓P(guān)信息告之我們,我們將及時(shí)溝通與處理。本站內(nèi)容系統(tǒng)采集于網(wǎng)絡(luò),涉及言論、版權(quán)與本站無關(guān)。
  • 相關(guān)文章
  • 下面列出與本文章《Python爬取動(dòng)態(tài)網(wǎng)頁中圖片的完整實(shí)例》相關(guān)的同類信息!
  • 本頁收集關(guān)于Python爬取動(dòng)態(tài)網(wǎng)頁中圖片的完整實(shí)例的相關(guān)信息資訊供網(wǎng)民參考!
  • 推薦文章
    婷婷综合国产,91蜜桃婷婷狠狠久久综合9色 ,九九九九九精品,国产综合av
    国产高清久久久| 亚洲视频香蕉人妖| 精品999在线播放| 一区二区国产视频| 成人免费视频视频| 国产亚洲欧美日韩日本| 免费高清在线一区| 日韩免费一区二区三区在线播放| 亚洲国产成人va在线观看天堂| 99在线精品免费| 久久久亚洲欧洲日产国码αv| 奇米影视一区二区三区| 欧美成人综合网站| 蜜桃一区二区三区在线| 欧美一区二区三区的| 久久激情五月婷婷| 久久久久久久综合日本| 国产成人一区二区精品非洲| 久久久亚洲精品石原莉奈| 经典三级视频一区| 中文字幕乱码久久午夜不卡 | 国产亚洲欧美色| 成人性视频免费网站| 成人欧美一区二区三区1314| 日本大胆欧美人术艺术动态| 精品久久久久久久久久久久久久久 | 久久免费偷拍视频| 成人免费视频免费观看| 亚洲精品欧美激情| 欧美一级黄色大片| 国产不卡视频在线观看| 亚洲电影在线免费观看| 精品国产乱码91久久久久久网站| 成人一区二区三区视频在线观看| 亚洲日本免费电影| 欧美大片一区二区| 91麻豆精品在线观看| 人妖欧美一区二区| 久久久久9999亚洲精品| 91一区二区三区在线观看| 视频一区二区三区入口| 国产精品美女视频| 欧美岛国在线观看| 懂色av中文一区二区三区| 日韩一区精品视频| 亚洲人123区| 国产一区欧美日韩| 久久99国产乱子伦精品免费| 美女视频网站黄色亚洲| 国产综合成人久久大片91| 狠狠色丁香久久婷婷综合丁香| 国产精品欧美久久久久一区二区 | 国产乱人伦精品一区二区在线观看| 亚洲一区视频在线| 国产午夜亚洲精品理论片色戒| 欧美体内she精高潮| 高清beeg欧美| 黄页视频在线91| 日本一道高清亚洲日美韩| 一区二区三区在线观看动漫| 欧美极品少妇xxxxⅹ高跟鞋| 欧美大片国产精品| 亚洲高清不卡在线| 久草中文综合在线| 99re这里都是精品| 欧美日本一区二区| 色女孩综合影院| 成人免费毛片片v| 国产成人自拍网| 韩国av一区二区三区在线观看| 亚洲自拍偷拍欧美| 自拍偷拍亚洲综合| 亚洲视频精选在线| 日韩理论片网站| 一区二区三区四区亚洲| 亚洲三级理论片| 国产区在线观看成人精品| 精品国产青草久久久久福利| 91精品国产高清一区二区三区蜜臀| 色婷婷综合久久久中文一区二区 | 日韩精品中文字幕一区二区三区| 欧美性猛交一区二区三区精品| 在线中文字幕一区| 欧美日韩国产区一| 777久久久精品| 精品成人免费观看| 国产精品美女www爽爽爽| 亚洲少妇屁股交4| 午夜成人在线视频| 美女视频网站久久| 91在线精品秘密一区二区| 欧美综合一区二区| 日韩精品一区二区三区中文不卡 | 色噜噜狠狠一区二区三区果冻| 欧美日本一区二区三区四区| 亚洲综合激情小说| 精品视频在线免费看| 在线看国产一区二区| 国产福利一区二区| 欧美亚洲尤物久久| 日韩一级完整毛片| 亚洲人成在线观看一区二区| 日韩中文字幕区一区有砖一区 | 日韩一区二区三区免费看 | 成人h动漫精品一区二区| 久久精品亚洲国产奇米99| 久久国产夜色精品鲁鲁99| 久久综合色婷婷| 日韩久久免费av| 精品国精品国产| 亚洲精选免费视频| 国内精品第一页| 欧美日韩成人综合在线一区二区| xfplay精品久久| 亚洲国产乱码最新视频 | 三级在线观看一区二区| 国产福利一区在线| 欧美性色欧美a在线播放| 欧美大片日本大片免费观看| 亚洲欧洲精品一区二区三区不卡| 午夜精品123| 久久精品人人做| 欧美日韩色综合| 一区二区三区日韩| 色偷偷久久人人79超碰人人澡| 午夜精品福利一区二区三区蜜桃| 91精品国产色综合久久不卡电影 | 欧美日韩国产综合视频在线观看| 26uuu国产日韩综合| 亚洲欧美一区二区三区极速播放| 麻豆91精品视频| eeuss国产一区二区三区| 这里只有精品免费| 欧美大胆人体bbbb| 亚洲高清免费视频| 欧美日韩亚洲综合在线| 亚洲日本va午夜在线电影| 91亚洲大成网污www| 青草av.久久免费一区| 国产视频一区在线观看| 国产欧美日韩精品在线| 日韩制服丝袜先锋影音| 99re热这里只有精品免费视频| 欧美一区二区三区在线电影| 五月婷婷综合网| 成a人片亚洲日本久久| 一区在线播放视频| 亚洲精品第一国产综合野| 成人黄色软件下载| 精品在线免费观看| 欧美精品色一区二区三区| 午夜在线电影亚洲一区| 91麻豆国产自产在线观看| 一区二区三区欧美激情| 97国产一区二区| 一区二区三区不卡视频| 91麻豆文化传媒在线观看| 亚洲大片免费看| 91色九色蝌蚪| 一区二区不卡在线播放 | 亚洲精品va在线观看| 欧美系列日韩一区| 久久女同性恋中文字幕| 国产麻豆视频一区二区| 欧美肥大bbwbbw高潮| 亚洲影院在线观看| 日韩一区二区三区视频| 美女视频一区在线观看| 成人性生交大片免费看在线播放| 久久天天做天天爱综合色| 成人国产精品免费| 中文在线免费一区三区高中清不卡| 成年人网站91| 亚洲欧美一区二区三区国产精品| 99国产精品视频免费观看| 日韩理论在线观看| 91福利精品视频| 精品一二三四区| 久久久久久久久久电影| av成人老司机| 9久草视频在线视频精品| 亚洲成人av中文| 国产欧美日韩另类视频免费观看| 国产91在线|亚洲| 视频一区欧美精品| 日韩女优av电影在线观看| 97久久精品人人澡人人爽| 亚洲国产日韩a在线播放性色| 欧美精品一区二区久久久| 成人做爰69片免费看网站| 日韩av电影免费观看高清完整版 | 亚洲成av人片一区二区| 久久丝袜美腿综合| 欧美伊人精品成人久久综合97| 日韩高清在线电影| 国产精品免费人成网站| 91福利社在线观看| 亚洲精品免费播放| 日韩视频在线观看一区二区| 99国产欧美另类久久久精品|