婷婷综合国产,91蜜桃婷婷狠狠久久综合9色 ,九九九九九精品,国产综合av

主頁 > 知識庫 > 只用50行Python代碼爬取網(wǎng)絡(luò)美女高清圖片

只用50行Python代碼爬取網(wǎng)絡(luò)美女高清圖片

熱門標(biāo)簽:所得系統(tǒng)電梯怎樣主板設(shè)置外呼 市場上的電銷機(jī)器人 北京電銷外呼系統(tǒng)加盟 地圖標(biāo)注面積 北瀚ai電銷機(jī)器人官網(wǎng)手機(jī)版 小蘇云呼電話機(jī)器人 佛山400電話辦理 朝陽手機(jī)外呼系統(tǒng) 儋州電話機(jī)器人

一、技術(shù)路線

requests:網(wǎng)頁請求
BeautifulSoup:解析html網(wǎng)頁
re:正則表達(dá)式,提取html網(wǎng)頁信息
os:保存文件

import re
import requests
import os
from bs4 import BeautifulSoup

二、獲取網(wǎng)頁信息

常規(guī)操作,獲取網(wǎng)頁信息的固定格式,返回的字符串格式的網(wǎng)頁內(nèi)容,其中headers參數(shù)可模擬人為的操作,‘欺騙'網(wǎng)站不被發(fā)現(xiàn)

def getHtml(url):  #固定格式,獲取html內(nèi)容
    headers = {
        'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/78.0.3904.108 Safari/537.36'
    }  #模擬用戶操作
    try:
        r = requests.get(url, headers=headers)
        r.raise_for_status()
        r.encoding = r.apparent_encoding
        return r.text
    except:
        print('網(wǎng)絡(luò)狀態(tài)錯誤')

三、網(wǎng)頁爬取分析

右鍵單擊圖片區(qū)域,選擇 ‘審查元素' ,可以查看當(dāng)前網(wǎng)頁圖片詳情鏈接,我就滿心歡喜的復(fù)制鏈接打開保存,看看效果,結(jié)果一張圖片只有60幾kb,這就是縮略圖啊,不清晰,果斷舍棄。。。


沒有辦法,只有點擊找到詳情頁鏈接,再進(jìn)行單獨(dú)爬取。

空白右鍵,‘查看頁面源代碼',把剛剛復(fù)制的縮略圖鏈接復(fù)制查找快速定位,分析所有圖片詳情頁鏈接存在div標(biāo)簽,并且class=‘list' 唯一,因此可以使用BeautifulSoup提取此標(biāo)簽。并且發(fā)現(xiàn)圖片詳情頁鏈接在herf=后面(同時我們注意到有部分無效鏈接也在div標(biāo)簽中,觀察它們異同,發(fā)現(xiàn)無效鏈接存在'https'字樣,因此可在代碼中依據(jù)此排出無效鏈接,對應(yīng)第4條中的函數(shù)代碼),只需提取出來再在前面加上網(wǎng)頁首頁鏈接即可打開,并且右鍵圖片,‘審查元素',復(fù)制鏈接下載的圖片接近1M,表示是高清圖片了,到這一步我們只需調(diào)用下載保存函數(shù)即可保存圖片

四、網(wǎng)頁詳情頁鏈接獲取

根據(jù)第3條分析的情況,首要目標(biāo)是將每頁的每個圖片的詳情頁鏈接給爬取下來,為后續(xù)的高清圖片爬取做準(zhǔn)備,這里直接定義函數(shù)def getUrlList(url):

def getUrlList(url):  # 獲取圖片鏈接
    url_list = []  #存儲每張圖片的url,用于后續(xù)內(nèi)容爬取
    demo = getHtml(url)
    soup = BeautifulSoup(demo,'html.parser')
    sp = soup.find_all('div', class_="list") #class='list'在全文唯一,因此作為錨,獲取唯一的div標(biāo)簽;注意,這里的網(wǎng)頁源代碼是class,但是python為了和class(類)做區(qū)分,在最后面添加了_
    nls = re.findall(r'a href="(.*?)" rel="external nofollow"  rel="external nofollow" ', str(sp)) #用正則表達(dá)式提取鏈接
    for i in nls:
        if 'https' in i: #因所有無效鏈接中均含有'https'字符串,因此直接剔除無效鏈接(對應(yīng)第3條的分析)
            continue
        url_list.append('http://www.netbian.com' + i) #在獲取的鏈接中添加前綴,形成完整的有效鏈接
    return url_list

五、依據(jù)圖片鏈接保存圖片

同理,在第4條中獲取了每個圖片的詳情頁鏈接后,打開,右鍵圖片'審查元素',復(fù)制鏈接即可快速定位,然后保存圖片

def fillPic(url,page):
    pic_url = getUrlList(url) #調(diào)用函數(shù),獲取當(dāng)前頁的所有圖片詳情頁鏈接
    path = './美女'  # 保存路徑
    for p in range(len(pic_url)):
        pic = getHtml(pic_url[p])
        soup = BeautifulSoup(pic, 'html.parser')
        psoup = soup.find('div', class_="pic") #class_="pic"作為錨,獲取唯一div標(biāo)簽;注意,這里的網(wǎng)頁源代碼是class,但是python為了和class(類)做區(qū)分,在最后面添加了_
        picUrl = re.findall(r'src="(.*?)"', str(psoup))[0] #利用正則表達(dá)式獲取詳情圖片鏈接,因為這里返回的是列表形式,所以取第一個元素(只有一個元素,就不用遍歷的方式了)
        pic = requests.get(picUrl).content #打開圖片鏈接,并以二進(jìn)制形式返回(圖片,聲音,視頻等要以二進(jìn)制形式打開)
        image_name ='美女' + '第{}頁'.format(page) + str(p+1) + '.jpg' #給圖片預(yù)定名字
        image_path = path + '/' + image_name #定義圖片保存的地址
        with open(image_path, 'wb') as f: #保存圖片
            f.write(pic)
            print(image_name, '下載完畢!!!')

六、main()函數(shù)

經(jīng)過前面的主體框架搭建完畢之后,對整個程序做一個前置化,直接上代碼

在這里第1頁的鏈接是http://www.netbian.com/meinv/

第2頁的鏈接是http://www.netbian.com/meinv/index_2.htm

并且后續(xù)頁面是在第2頁的基礎(chǔ)上僅改變最后的數(shù)字,因此在寫代碼的時候要注意區(qū)分第1頁和后續(xù)頁面的鏈接,分別做處理;同時在main()函數(shù)還增加了自定義爬取頁數(shù)的功能,詳見代碼

def main():
    n = input('請輸入要爬取的頁數(shù):')
    url = 'http://www.netbian.com/meinv/'  # 資源的首頁,可根據(jù)自己的需求查看不同分類,自定義改變目錄,爬取相應(yīng)資源
    if not os.path.exists('./美女'):  # 如果不存在,創(chuàng)建文件目錄
        os.mkdir('./美女/')
    page = 1
    fillPic(url, page)  # 爬取第一頁,因為第1頁和后續(xù)頁的鏈接的區(qū)別,單獨(dú)處理第一頁的爬取
    if int(n) >= 2: #爬取第2頁之后的資源
        ls = list(range(2, 1 + int(n)))
        url = 'http://www.netbian.com/meinv/'
        for i in ls: #用遍歷的方法對輸入的需求爬取的頁面做分別爬取處理
            page = str(i)
            url_page = 'http://www.netbian.com/meinv/'
            url_page += 'index_' + page + '.htm' #獲取第2頁后的每頁的詳情鏈接
            fillPic(url, page) #調(diào)用fillPic()函數(shù)

七、完整代碼

最后再調(diào)用main(),輸入需要爬取的頁數(shù),即可開始爬取,完整代碼如下

import re
import requests
import os
from bs4 import BeautifulSoup

def getHtml(url):  #固定格式,獲取html內(nèi)容
    headers = {
        'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/78.0.3904.108 Safari/537.36'
    }  #模擬用戶操作
    try:
        r = requests.get(url, headers=headers)
        r.raise_for_status()
        r.encoding = r.apparent_encoding
        return r.text
    except:
        print('網(wǎng)絡(luò)狀態(tài)錯誤')

def getUrlList(url):  # 獲取圖片鏈接
    url_list = []  #存儲每張圖片的url,用于后續(xù)內(nèi)容爬取
    demo = getHtml(url)
    soup = BeautifulSoup(demo,'html.parser')
    sp = soup.find_all('div', class_="list") #class='list'在全文唯一,因此作為錨,獲取唯一的div標(biāo)簽;注意,這里的網(wǎng)頁源代碼是class,但是python為了和class(類)做區(qū)分,在最后面添加了_
    nls = re.findall(r'a href="(.*?)" rel="external nofollow"  rel="external nofollow" ', str(sp)) #用正則表達(dá)式提取鏈接
    for i in nls:
        if 'https' in i: #因所有無效鏈接中均含有'https'字符串,因此直接剔除無效鏈接(對應(yīng)第3條的分析)
            continue
        url_list.append('http://www.netbian.com' + i) #在獲取的鏈接中添加前綴,形成完整的有效鏈接
    return url_list

def fillPic(url,page):
    pic_url = getUrlList(url) #調(diào)用函數(shù),獲取當(dāng)前頁的所有圖片詳情頁鏈接
    path = './美女'  # 保存路徑
    for p in range(len(pic_url)):
        pic = getHtml(pic_url[p])
        soup = BeautifulSoup(pic, 'html.parser')
        psoup = soup.find('div', class_="pic") #class_="pic"作為錨,獲取唯一div標(biāo)簽;注意,這里的網(wǎng)頁源代碼是class,但是python為了和class(類)做區(qū)分,在最后面添加了_
        picUrl = re.findall(r'src="(.*?)"', str(psoup))[0] #利用正則表達(dá)式獲取詳情圖片鏈接,因為這里返回的是列表形式,所以取第一個元素(只有一個元素,就不用遍歷的方式了)
        pic = requests.get(picUrl).content #打開圖片鏈接,并以二進(jìn)制形式返回(圖片,聲音,視頻等要以二進(jìn)制形式打開)
        image_name ='美女' + '第{}頁'.format(page) + str(p+1) + '.jpg' #給圖片預(yù)定名字
        image_path = path + '/' + image_name #定義圖片保存的地址
        with open(image_path, 'wb') as f: #保存圖片
            f.write(pic)
            print(image_name, '下載完畢!!!')

def main():
    n = input('請輸入要爬取的頁數(shù):')
    url = 'http://www.netbian.com/meinv/'  # 資源的首頁,可根據(jù)自己的需求查看不同分類,自定義改變目錄,爬取相應(yīng)資源
    if not os.path.exists('./美女'):  # 如果不存在,創(chuàng)建文件目錄
        os.mkdir('./美女/')
    page = 1
    fillPic(url, page)  # 爬取第一頁,因為第1頁和后續(xù)頁的鏈接的區(qū)別,單獨(dú)處理第一頁的爬取
    if int(n) >= 2: #爬取第2頁之后的資源
        ls = list(range(2, 1 + int(n)))
        url = 'http://www.netbian.com/meinv/'
        for i in ls: #用遍歷的方法對輸入的需求爬取的頁面做分別爬取處理
            page = str(i)
            url_page = 'http://www.netbian.com/meinv/'
            url_page += 'index_' + page + '.htm' #獲取第2頁后的每頁的詳情鏈接
            fillPic(url_page, page) #調(diào)用fillPic()函數(shù)

main()

到此這篇關(guān)于只用50行Python代碼爬取網(wǎng)絡(luò)美女高清圖片的文章就介紹到這了,更多相關(guān)Python爬取圖片內(nèi)容請搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關(guān)文章希望大家以后多多支持腳本之家!

您可能感興趣的文章:
  • python opencv通過按鍵采集圖片源碼
  • 使用Python的Scrapy框架十分鐘爬取美女圖
  • Python使用爬蟲抓取美女圖片并保存到本地的方法【測試可用】
  • Python制作爬蟲抓取美女圖
  • python制作花瓣網(wǎng)美女圖片爬蟲
  • Python爬蟲入門案例之回車桌面壁紙網(wǎng)美女圖片采集

標(biāo)簽:江蘇 酒泉 金融催收 龍巖 定西 云南 寧夏 商丘

巨人網(wǎng)絡(luò)通訊聲明:本文標(biāo)題《只用50行Python代碼爬取網(wǎng)絡(luò)美女高清圖片》,本文關(guān)鍵詞  只用,50行,Python,代碼,爬取,;如發(fā)現(xiàn)本文內(nèi)容存在版權(quán)問題,煩請?zhí)峁┫嚓P(guān)信息告之我們,我們將及時溝通與處理。本站內(nèi)容系統(tǒng)采集于網(wǎng)絡(luò),涉及言論、版權(quán)與本站無關(guān)。
  • 相關(guān)文章
  • 下面列出與本文章《只用50行Python代碼爬取網(wǎng)絡(luò)美女高清圖片》相關(guān)的同類信息!
  • 本頁收集關(guān)于只用50行Python代碼爬取網(wǎng)絡(luò)美女高清圖片的相關(guān)信息資訊供網(wǎng)民參考!
  • 推薦文章
    婷婷综合国产,91蜜桃婷婷狠狠久久综合9色 ,九九九九九精品,国产综合av
    精品视频在线免费看| 国精品**一区二区三区在线蜜桃| 久久久99精品免费观看| 久久天天做天天爱综合色| 国产精品三级视频| 亚洲18色成人| 日韩视频一区二区三区| 久久久久久久综合日本| 一区二区在线看| 九九在线精品视频| 91年精品国产| 日韩欧美国产电影| 成人免费在线视频| 精品综合久久久久久8888| 99久久伊人网影院| 日韩午夜激情电影| 樱桃国产成人精品视频| 日韩av中文字幕一区二区| 国产精一区二区三区| 在线免费av一区| 久久一二三国产| 亚洲国产成人av网| 国产一区二区在线视频| 91福利精品视频| 欧美肥胖老妇做爰| 自拍偷拍欧美激情| 激情文学综合丁香| 欧美亚洲综合在线| ...中文天堂在线一区| 久久精品二区亚洲w码| 91成人在线观看喷潮| 国产精品久久久久久亚洲伦| 久久99九九99精品| 91麻豆精品久久久久蜜臀| 一区二区三区免费网站| 福利视频网站一区二区三区| 欧美成人激情免费网| 亚洲成av人片在线观看| 色综合色综合色综合色综合色综合| 国产亚洲自拍一区| 国产一区二三区好的| 日韩精品一区二区在线观看| 天天色综合天天| 欧美在线观看禁18| 一级特黄大欧美久久久| 91色在线porny| 欧美国产一区在线| 国产精品一区三区| 久久嫩草精品久久久久| 免费国产亚洲视频| 欧美三区免费完整视频在线观看| 亚洲欧洲日产国产综合网| 国内精品自线一区二区三区视频| 欧美一区二区三区视频在线| 日韩成人午夜精品| 欧美一区二区三区免费大片| 日本亚洲欧美天堂免费| 欧美日韩亚洲不卡| 天堂久久一区二区三区| 欧美亚洲自拍偷拍| 亚洲国产乱码最新视频| 欧美日韩一区小说| 一区二区三区日韩欧美| 91在线观看视频| 亚洲国产综合人成综合网站| 亚洲国产精品尤物yw在线观看| 欧美亚洲国产bt| 婷婷开心激情综合| 欧美一区二区三区在线电影| 天天操天天干天天综合网| 日韩三级av在线播放| 老司机午夜精品| 国产欧美一区二区精品忘忧草 | 久久亚洲免费视频| 免费观看一级特黄欧美大片| 日韩美女一区二区三区四区| 国产福利精品一区| 久久久影院官网| www.日本不卡| 亚洲专区一二三| 26uuu欧美| 色婷婷久久久亚洲一区二区三区| 亚洲综合色网站| 精品美女被调教视频大全网站| 国产在线一区观看| 国产精品区一区二区三区| 欧美视频在线不卡| 免费观看日韩av| 国产精品护士白丝一区av| 欧美性猛交xxxx黑人交| 蜜臀av一级做a爰片久久| 国产精品免费久久| 欧美日本一区二区三区四区| 麻豆精品久久久| 久久久不卡网国产精品二区| aaa国产一区| 久久精品国产久精国产爱| 久久精品一区二区| 欧美亚州韩日在线看免费版国语版| 日本成人在线网站| 国产精品无人区| 在线观看三级视频欧美| 国产一区二区三区免费在线观看| 国产精品色哟哟| 欧美日韩1234| 不卡影院免费观看| 美女视频黄频大全不卡视频在线播放| 国产日产欧美一区| 91女厕偷拍女厕偷拍高清| 亚洲二区在线观看| 精品久久久久久久一区二区蜜臀| 欧美性大战久久| 国产美女av一区二区三区| 亚洲柠檬福利资源导航| 日韩一级大片在线观看| 91麻豆福利精品推荐| 国产麻豆精品95视频| 亚洲r级在线视频| 国产精品乱码人人做人人爱| 欧美日韩高清在线播放| 成人午夜在线播放| 视频一区在线播放| 亚洲欧洲韩国日本视频| 在线视频欧美精品| 国产精品伦理在线| 精品久久一区二区| 色婷婷亚洲精品| 国产成人精品免费在线| 日韩高清不卡一区二区| 亚洲成人黄色影院| 日本一区二区三区电影| 欧美电影免费观看完整版| 欧美午夜精品一区| av福利精品导航| 色综合久久综合网欧美综合网| 成人午夜碰碰视频| 成人av电影在线| 成人小视频免费观看| 成人av综合在线| 国产精品1区2区3区在线观看| 狠狠狠色丁香婷婷综合久久五月| 亚洲综合男人的天堂| ...中文天堂在线一区| 国产日韩一级二级三级| 亚洲精品欧美激情| 亚洲精品福利视频网站| 亚洲另类一区二区| 亚洲九九爱视频| 一区二区三区日韩在线观看| 亚洲国产欧美另类丝袜| 亚洲福利视频一区| 五月婷婷激情综合| 日韩电影一区二区三区| 亚洲国产aⅴ天堂久久| 亚洲自拍偷拍图区| 日韩电影在线一区| 精品夜夜嗨av一区二区三区| 国产露脸91国语对白| 岛国精品在线观看| 99久久er热在这里只有精品15 | 国产一区亚洲一区| 六月丁香综合在线视频| 久久精品国产99国产| 国产剧情一区二区三区| 成人短视频下载| 成人一道本在线| 99re这里都是精品| 欧美高清视频在线高清观看mv色露露十八 | 亚洲免费av观看| 亚洲精品福利视频网站| 日韩不卡一二三区| 日本亚洲天堂网| 奇米亚洲午夜久久精品| 国产美女一区二区| 91黄色免费网站| 日韩精品一区二区三区在线观看| 精品国产乱码久久久久久牛牛| 在线成人av影院| 国产日产精品一区| 天天av天天翘天天综合网色鬼国产 | 最新久久zyz资源站| 一区二区成人在线视频| 免费精品视频最新在线| 国产乱码精品一区二区三区五月婷| 国产91清纯白嫩初高中在线观看| 99国产精品一区| 在线综合视频播放| 国产日韩欧美在线一区| 亚洲一区视频在线| 美女在线视频一区| 91久久精品一区二区三| 26uuu国产电影一区二区| 一区二区三区日韩精品| 国产乱码精品一区二区三区五月婷| 欧美性xxxxxx少妇| 精品免费一区二区三区| 亚洲色欲色欲www| 精品国免费一区二区三区| 成人欧美一区二区三区1314 | 欧美精品三级在线观看|