婷婷综合国产,91蜜桃婷婷狠狠久久综合9色 ,九九九九九精品,国产综合av

主頁 > 知識庫 > python爬蟲請求庫httpx和parsel解析庫的使用測評

python爬蟲請求庫httpx和parsel解析庫的使用測評

熱門標簽:蘇州電銷機器人十大排行榜 遼寧400電話辦理多少錢 外呼不封號系統 幫人做地圖標注收費算詐騙嗎 電信營業廳400電話申請 悟空智電銷機器人6 溫州旅游地圖標注 江蘇房產電銷機器人廠家 荊州云電銷機器人供應商

Python網絡爬蟲領域兩個最新的比較火的工具莫過于httpx和parsel了。httpx號稱下一代的新一代的網絡請求庫,不僅支持requests庫的所有操作,還能發送異步請求,為編寫異步爬蟲提供了便利。parsel最初集成在著名Python爬蟲框架Scrapy中,后獨立出來成立一個單獨的模塊,支持XPath選擇器, CSS選擇器和正則表達式等多種解析提取方式, 據說相比于BeautifulSoup,parsel的解析效率更高。

今天我們就以爬取鏈家網上的二手房在售房產信息為例,來測評下httpx和parsel這兩個庫。為了節約時間,我們以爬取上海市浦東新區500萬元-800萬元以上的房產為例。

requests + BeautifulSoup組合

首先上場的是Requests + BeautifulSoup組合,這也是大多數人剛學習Python爬蟲時使用的組合。本例中爬蟲的入口url是https://sh.lianjia.com/ershoufang/pudong/a3p5/, 先發送請求獲取最大頁數,然后循環發送請求解析單個頁面提取我們所要的信息(比如小區名,樓層,朝向,總價,單價等信息),最后導出csv文件。如果你正在閱讀本文,相信你對Python爬蟲已經有了一定了解,所以我們不會詳細解釋每一行代碼。

整個項目代碼如下所示:

# homelink_requests.py
# Author: 大江狗
 from fake_useragent import UserAgent
 import requests
 from bs4 import BeautifulSoup
 import csv
 import re
 import time


 class HomeLinkSpider(object):
     def __init__(self):
         self.ua = UserAgent()
         self.headers = {"User-Agent": self.ua.random}
         self.data = list()
         self.path = "浦東_三房_500_800萬.csv"
         self.url = "https://sh.lianjia.com/ershoufang/pudong/a3p5/"

     def get_max_page(self):
         response = requests.get(self.url, headers=self.headers)
         if response.status_code == 200:
             soup = BeautifulSoup(response.text, 'html.parser')
             a = soup.select('div[class="page-box house-lst-page-box"]')
             #使用eval是字符串轉化為字典格式
             max_page = eval(a[0].attrs["page-data"])["totalPage"] 
             return max_page
         else:
             print("請求失敗 status:{}".format(response.status_code))
             return None

     def parse_page(self):
         max_page = self.get_max_page()
         for i in range(1, max_page + 1):
             url = 'https://sh.lianjia.com/ershoufang/pudong/pg{}a3p5/'.format(i)
             response = requests.get(url, headers=self.headers)
             soup = BeautifulSoup(response.text, 'html.parser')
             ul = soup.find_all("ul", class_="sellListContent")
             li_list = ul[0].select("li")
             for li in li_list:
                 detail = dict()
                 detail['title'] = li.select('div[class="title"]')[0].get_text()

                 #  2室1廳 | 74.14平米 | 南 | 精裝 | 高樓層(共6層) | 1999年建 | 板樓
                 house_info = li.select('div[class="houseInfo"]')[0].get_text()
                 house_info_list = house_info.split(" | ")

                 detail['bedroom'] = house_info_list[0]
                 detail['area'] = house_info_list[1]
                 detail['direction'] = house_info_list[2]

                 floor_pattern = re.compile(r'\d{1,2}')
                 # 從字符串任意位置匹配
                 match1 = re.search(floor_pattern, house_info_list[4])  
                 if match1:
                     detail['floor'] = match1.group()
                 else:
                     detail['floor'] = "未知"

                 # 匹配年份
                 year_pattern = re.compile(r'\d{4}')
                 match2 = re.search(year_pattern, house_info_list[5])
                 if match2:
                     detail['year'] = match2.group()
                 else:
                     detail['year'] = "未知"

                 # 文蘭小區 - 塘橋, 提取小區名和哈快
                 position_info = li.select('div[class="positionInfo"]')[0].get_text().split(' - ')
                 detail['house'] = position_info[0]
                 detail['location'] = position_info[1]

                 # 650萬,匹配650
                 price_pattern = re.compile(r'\d+')
                 total_price = li.select('div[class="totalPrice"]')[0].get_text()
                 detail['total_price'] = re.search(price_pattern, total_price).group()

                 # 單價64182元/平米, 匹配64182
                 unit_price = li.select('div[class="unitPrice"]')[0].get_text()
                 detail['unit_price'] = re.search(price_pattern, unit_price).group()
                 self.data.append(detail)

     def write_csv_file(self):
         head = ["標題", "小區", "房廳", "面積", "朝向", "樓層", "年份",
         "位置", "總價(萬)", "單價(元/平方米)"]
         keys = ["title", "house", "bedroom", "area", "direction",
         "floor", "year", "location",
                 "total_price", "unit_price"]

         try:
             with open(self.path, 'w', newline='', encoding='utf_8_sig') as csv_file:
                 writer = csv.writer(csv_file, dialect='excel')
                 if head is not None:
                     writer.writerow(head)
                 for item in self.data:
                     row_data = []
                     for k in keys:
                         row_data.append(item[k])
                         # print(row_data)
                     writer.writerow(row_data)
                 print("Write a CSV file to path %s Successful." % self.path)
         except Exception as e:
             print("Fail to write CSV to path: %s, Case: %s" % (self.path, e))

 if __name__ == '__main__':
     start = time.time()
     home_link_spider = HomeLinkSpider()
     home_link_spider.parse_page()
     home_link_spider.write_csv_file()
     end = time.time()
     print("耗時:{}秒".format(end-start))

注意:我們使用了fake_useragent, requests和BeautifulSoup,這些都需要通過pip事先安裝好才能用。

現在我們來看下爬取結果,耗時約18.5秒,總共爬取580條數據。

requests + parsel組合

這次我們同樣采用requests獲取目標網頁內容,使用parsel庫(事先需通過pip安裝)來解析。Parsel庫的用法和BeautifulSoup相似,都是先創建實例,然后使用各種選擇器提取DOM元素和數據,但語法上稍有不同。Beautiful有自己的語法規則,而Parsel庫支持標準的css選擇器和xpath選擇器, 通過get方法或getall方法獲取文本或屬性值,使用起來更方便。

 # BeautifulSoup的用法
 from bs4 import BeautifulSoup

 soup = BeautifulSoup(response.text, 'html.parser')
 ul = soup.find_all("ul", class_="sellListContent")[0]

 # Parsel的用法, 使用Selector類
 from parsel import Selector
 selector = Selector(response.text)
 ul = selector.css('ul.sellListContent')[0]

 # Parsel獲取文本值或屬性值案例
 selector.css('div.title span::text').get()
 selector.css('ul li a::attr(href)').get()
 >>> for li in selector.css('ul > li'):
 ...     print(li.xpath('.//@href').get())

注:老版的parsel庫使用extract()或extract_first()方法獲取文本或屬性值,在新版中已被get()和getall()方法替代。

全部代碼如下所示:

 # homelink_parsel.py
 # Author: 大江狗
 from fake_useragent import UserAgent
 import requests
 import csv
 import re
 import time
 from parsel import Selector

 class HomeLinkSpider(object):
     def __init__(self):
         self.ua = UserAgent()
         self.headers = {"User-Agent": self.ua.random}
         self.data = list()
         self.path = "浦東_三房_500_800萬.csv"
         self.url = "https://sh.lianjia.com/ershoufang/pudong/a3p5/"

     def get_max_page(self):
         response = requests.get(self.url, headers=self.headers)
         if response.status_code == 200:
             # 創建Selector類實例
             selector = Selector(response.text)
             # 采用css選擇器獲取最大頁碼div Boxl
             a = selector.css('div[class="page-box house-lst-page-box"]')
             # 使用eval將page-data的json字符串轉化為字典格式
             max_page = eval(a[0].xpath('//@page-data').get())["totalPage"]
             print("最大頁碼數:{}".format(max_page))
             return max_page
         else:
             print("請求失敗 status:{}".format(response.status_code))
             return None

     def parse_page(self):
         max_page = self.get_max_page()
         for i in range(1, max_page + 1):
             url = 'https://sh.lianjia.com/ershoufang/pudong/pg{}a3p5/'.format(i)
             response = requests.get(url, headers=self.headers)
             selector = Selector(response.text)
             ul = selector.css('ul.sellListContent')[0]
             li_list = ul.css('li')
             for li in li_list:
                 detail = dict()
                 detail['title'] = li.css('div.title a::text').get()

                 #  2室1廳 | 74.14平米 | 南 | 精裝 | 高樓層(共6層) | 1999年建 | 板樓
                 house_info = li.css('div.houseInfo::text').get()
                 house_info_list = house_info.split(" | ")

                 detail['bedroom'] = house_info_list[0]
                 detail['area'] = house_info_list[1]
                 detail['direction'] = house_info_list[2]

                 floor_pattern = re.compile(r'\d{1,2}')
                 match1 = re.search(floor_pattern, house_info_list[4])  # 從字符串任意位置匹配
                 if match1:
                     detail['floor'] = match1.group()
                 else:
                     detail['floor'] = "未知"

                 # 匹配年份
                 year_pattern = re.compile(r'\d{4}')
                 match2 = re.search(year_pattern, house_info_list[5])
                 if match2:
                     detail['year'] = match2.group()
                 else:
                     detail['year'] = "未知"

                 # 文蘭小區 - 塘橋    提取小區名和哈快
                 position_info = li.css('div.positionInfo a::text').getall()
                 detail['house'] = position_info[0]
                 detail['location'] = position_info[1]

                 # 650萬,匹配650
                 price_pattern = re.compile(r'\d+')
                 total_price = li.css('div.totalPrice span::text').get()
                 detail['total_price'] = re.search(price_pattern, total_price).group()

                 # 單價64182元/平米, 匹配64182
                 unit_price = li.css('div.unitPrice span::text').get()
                 detail['unit_price'] = re.search(price_pattern, unit_price).group()
                 self.data.append(detail)

     def write_csv_file(self):

         head = ["標題", "小區", "房廳", "面積", "朝向", "樓層", 
                 "年份", "位置", "總價(萬)", "單價(元/平方米)"]
         keys = ["title", "house", "bedroom", "area", 
                 "direction", "floor", "year", "location",
                 "total_price", "unit_price"]

         try:
             with open(self.path, 'w', newline='', encoding='utf_8_sig') as csv_file:
                 writer = csv.writer(csv_file, dialect='excel')
                 if head is not None:
                     writer.writerow(head)
                 for item in self.data:
                     row_data = []
                     for k in keys:
                         row_data.append(item[k])
                         # print(row_data)
                     writer.writerow(row_data)
                 print("Write a CSV file to path %s Successful." % self.path)
         except Exception as e:
             print("Fail to write CSV to path: %s, Case: %s" % (self.path, e))


 if __name__ == '__main__':
     start = time.time()
     home_link_spider = HomeLinkSpider()
     home_link_spider.parse_page()
     home_link_spider.write_csv_file()
     end = time.time()
     print("耗時:{}秒".format(end-start))

現在我們來看下爬取結果,爬取580條數據耗時約16.5秒,節省了2秒時間。可見parsel比BeautifulSoup解析效率是要高的,爬取任務少時差別不大,任務多的話差別可能會大些。

httpx同步 + parsel組合

我們現在來更進一步,使用httpx替代requests庫。httpx發送同步請求的方式和requests庫基本一樣,所以我們只需要修改上例中兩行代碼,把requests替換成httpx即可, 其余代碼一模一樣。

 from fake_useragent import UserAgent
 import csv
 import re
 import time
 from parsel import Selector
 import httpx


 class HomeLinkSpider(object):
     def __init__(self):
         self.ua = UserAgent()
         self.headers = {"User-Agent": self.ua.random}
         self.data = list()
         self.path = "浦東_三房_500_800萬.csv"
         self.url = "https://sh.lianjia.com/ershoufang/pudong/a3p5/"

     def get_max_page(self):

         # 修改這里把requests換成httpx
         response = httpx.get(self.url, headers=self.headers)
         if response.status_code == 200:
             # 創建Selector類實例
             selector = Selector(response.text)
             # 采用css選擇器獲取最大頁碼div Boxl
             a = selector.css('div[class="page-box house-lst-page-box"]')
             # 使用eval將page-data的json字符串轉化為字典格式
             max_page = eval(a[0].xpath('//@page-data').get())["totalPage"]
             print("最大頁碼數:{}".format(max_page))
             return max_page
         else:
             print("請求失敗 status:{}".format(response.status_code))
             return None

     def parse_page(self):
         max_page = self.get_max_page()
         for i in range(1, max_page + 1):
             url = 'https://sh.lianjia.com/ershoufang/pudong/pg{}a3p5/'.format(i)

              # 修改這里把requests換成httpx
             response = httpx.get(url, headers=self.headers)
             selector = Selector(response.text)
             ul = selector.css('ul.sellListContent')[0]
             li_list = ul.css('li')
             for li in li_list:
                 detail = dict()
                 detail['title'] = li.css('div.title a::text').get()

                 #  2室1廳 | 74.14平米 | 南 | 精裝 | 高樓層(共6層) | 1999年建 | 板樓
                 house_info = li.css('div.houseInfo::text').get()
                 house_info_list = house_info.split(" | ")

                 detail['bedroom'] = house_info_list[0]
                 detail['area'] = house_info_list[1]
                 detail['direction'] = house_info_list[2]


                 floor_pattern = re.compile(r'\d{1,2}')
                 match1 = re.search(floor_pattern, house_info_list[4])  # 從字符串任意位置匹配
                 if match1:
                     detail['floor'] = match1.group()
                 else:
                     detail['floor'] = "未知"

                 # 匹配年份
                 year_pattern = re.compile(r'\d{4}')
                 match2 = re.search(year_pattern, house_info_list[5])
                 if match2:
                     detail['year'] = match2.group()
                 else:
                     detail['year'] = "未知"

                 # 文蘭小區 - 塘橋    提取小區名和哈快
                 position_info = li.css('div.positionInfo a::text').getall()
                 detail['house'] = position_info[0]
                 detail['location'] = position_info[1]

                 # 650萬,匹配650
                 price_pattern = re.compile(r'\d+')
                 total_price = li.css('div.totalPrice span::text').get()
                 detail['total_price'] = re.search(price_pattern, total_price).group()

                 # 單價64182元/平米, 匹配64182
                 unit_price = li.css('div.unitPrice span::text').get()
                 detail['unit_price'] = re.search(price_pattern, unit_price).group()
                 self.data.append(detail)

     def write_csv_file(self):

         head = ["標題", "小區", "房廳", "面積", "朝向", "樓層", 
                 "年份", "位置", "總價(萬)", "單價(元/平方米)"]
         keys = ["title", "house", "bedroom", "area", "direction", 
                 "floor", "year", "location",
                 "total_price", "unit_price"]

         try:
             with open(self.path, 'w', newline='', encoding='utf_8_sig') as csv_file:
                 writer = csv.writer(csv_file, dialect='excel')
                 if head is not None:
                     writer.writerow(head)
                 for item in self.data:
                     row_data = []
                     for k in keys:
                         row_data.append(item[k])
                         # print(row_data)
                     writer.writerow(row_data)
                 print("Write a CSV file to path %s Successful." % self.path)
         except Exception as e:
             print("Fail to write CSV to path: %s, Case: %s" % (self.path, e))

 if __name__ == '__main__':
     start = time.time()
     home_link_spider = HomeLinkSpider()
     home_link_spider.parse_page()
     home_link_spider.write_csv_file()
     end = time.time()
     print("耗時:{}秒".format(end-start))

整個爬取過程耗時16.1秒,可見使用httpx發送同步請求時效率和requests基本無差別。

注意:Windows上使用pip安裝httpx可能會出現報錯,要求安裝Visual Studio C++, 這個下載安裝好就沒事了。

接下來,我們就要開始王炸了,使用httpx和asyncio編寫一個異步爬蟲看看從鏈家網上爬取580條數據到底需要多長時間。

httpx異步+ parsel組合

Httpx厲害的地方就是能發送異步請求。整個異步爬蟲實現原理時,先發送同步請求獲取最大頁碼,把每個單頁的爬取和數據解析變為一個asyncio協程任務(使用async定義),最后使用loop執行。

大部分代碼與同步爬蟲相同,主要變動地方有兩個:

     # 異步 - 使用協程函數解析單頁面,需傳入單頁面url地址
     async def parse_single_page(self, url):

         # 使用httpx發送異步請求獲取單頁數據
         async with httpx.AsyncClient() as client:
             response = await client.get(url, headers=self.headers)
             selector = Selector(response.text)
             # 其余地方一樣

     def parse_page(self):
         max_page = self.get_max_page()
         loop = asyncio.get_event_loop()

         # Python 3.6之前用ayncio.ensure_future或loop.create_task方法創建單個協程任務
         # Python 3.7以后可以用戶asyncio.create_task方法創建單個協程任務
         tasks = []
         for i in range(1, max_page + 1):
             url = 'https://sh.lianjia.com/ershoufang/pudong/pg{}a3p5/'.format(i)
             tasks.append(self.parse_single_page(url))

         # 還可以使用asyncio.gather(*tasks)命令將多個協程任務加入到事件循環
         loop.run_until_complete(asyncio.wait(tasks))
         loop.close()

整個項目代碼如下所示:

from fake_useragent import UserAgent
 import csv
 import re
 import time
 from parsel import Selector
 import httpx
 import asyncio


 class HomeLinkSpider(object):
     def __init__(self):
         self.ua = UserAgent()
         self.headers = {"User-Agent": self.ua.random}
         self.data = list()
         self.path = "浦東_三房_500_800萬.csv"
         self.url = "https://sh.lianjia.com/ershoufang/pudong/a3p5/"

     def get_max_page(self):
         response = httpx.get(self.url, headers=self.headers)
         if response.status_code == 200:
             # 創建Selector類實例
             selector = Selector(response.text)
             # 采用css選擇器獲取最大頁碼div Boxl
             a = selector.css('div[class="page-box house-lst-page-box"]')
             # 使用eval將page-data的json字符串轉化為字典格式
             max_page = eval(a[0].xpath('//@page-data').get())["totalPage"]
             print("最大頁碼數:{}".format(max_page))
             return max_page
         else:
             print("請求失敗 status:{}".format(response.status_code))
             return None

     # 異步 - 使用協程函數解析單頁面,需傳入單頁面url地址
     async def parse_single_page(self, url):
         async with httpx.AsyncClient() as client:
             response = await client.get(url, headers=self.headers)
             selector = Selector(response.text)
             ul = selector.css('ul.sellListContent')[0]
             li_list = ul.css('li')
             for li in li_list:
                 detail = dict()
                 detail['title'] = li.css('div.title a::text').get()

                 #  2室1廳 | 74.14平米 | 南 | 精裝 | 高樓層(共6層) | 1999年建 | 板樓
                 house_info = li.css('div.houseInfo::text').get()
                 house_info_list = house_info.split(" | ")

                 detail['bedroom'] = house_info_list[0]
                 detail['area'] = house_info_list[1]
                 detail['direction'] = house_info_list[2]


                 floor_pattern = re.compile(r'\d{1,2}')
                 match1 = re.search(floor_pattern, house_info_list[4])  # 從字符串任意位置匹配
                 if match1:
                     detail['floor'] = match1.group()
                 else:
                     detail['floor'] = "未知"

                 # 匹配年份
                 year_pattern = re.compile(r'\d{4}')
                 match2 = re.search(year_pattern, house_info_list[5])
                 if match2:
                     detail['year'] = match2.group()
                 else:
                     detail['year'] = "未知"

                  # 文蘭小區 - 塘橋    提取小區名和哈快
                 position_info = li.css('div.positionInfo a::text').getall()
                 detail['house'] = position_info[0]
                 detail['location'] = position_info[1]

                  # 650萬,匹配650
                 price_pattern = re.compile(r'\d+')
                 total_price = li.css('div.totalPrice span::text').get()
                 detail['total_price'] = re.search(price_pattern, total_price).group()

                 # 單價64182元/平米, 匹配64182
                 unit_price = li.css('div.unitPrice span::text').get()
                 detail['unit_price'] = re.search(price_pattern, unit_price).group()

                 self.data.append(detail)

     def parse_page(self):
         max_page = self.get_max_page()
         loop = asyncio.get_event_loop()

         # Python 3.6之前用ayncio.ensure_future或loop.create_task方法創建單個協程任務
         # Python 3.7以后可以用戶asyncio.create_task方法創建單個協程任務
         tasks = []
         for i in range(1, max_page + 1):
             url = 'https://sh.lianjia.com/ershoufang/pudong/pg{}a3p5/'.format(i)
             tasks.append(self.parse_single_page(url))

         # 還可以使用asyncio.gather(*tasks)命令將多個協程任務加入到事件循環
         loop.run_until_complete(asyncio.wait(tasks))
         loop.close()


     def write_csv_file(self):
         head = ["標題", "小區", "房廳", "面積", "朝向", "樓層",
                 "年份", "位置", "總價(萬)", "單價(元/平方米)"]
         keys = ["title", "house", "bedroom", "area", "direction",
                 "floor", "year", "location",
                 "total_price", "unit_price"]

         try:
             with open(self.path, 'w', newline='', encoding='utf_8_sig') as csv_file:
                 writer = csv.writer(csv_file, dialect='excel')
                 if head is not None:
                     writer.writerow(head)
                 for item in self.data:
                     row_data = []
                     for k in keys:
                         row_data.append(item[k])
                     writer.writerow(row_data)
                 print("Write a CSV file to path %s Successful." % self.path)
         except Exception as e:
             print("Fail to write CSV to path: %s, Case: %s" % (self.path, e))
 
 if __name__ == '__main__':
     start = time.time()
     home_link_spider = HomeLinkSpider()
     home_link_spider.parse_page()
     home_link_spider.write_csv_file()
     end = time.time()
     print("耗時:{}秒".format(end-start))

現在到了見證奇跡的時刻了。從鏈家網上爬取了580條數據,使用httpx編寫的異步爬蟲僅僅花了2.5秒!!

對比與總結

爬取同樣的內容,采用不同工具組合耗時是不一樣的。httpx異步+parsel組合毫無疑問是最大的贏家, requests和BeautifulSoup確實可以功成身退啦。

  • requests + BeautifulSoup: 18.5 秒
  • requests + parsel: 16.5秒
  • httpx 同步 + parsel: 16.1秒
  • httpx 異步 + parsel: 2.5秒

對于Python爬蟲,你還有喜歡的庫嗎?

以上就是python爬蟲請求庫httpx和parsel解析庫的使用測評的詳細內容,更多關于python httpx和parsel的資料請關注腳本之家其它相關文章!

您可能感興趣的文章:
  • Python爬蟲實現HTTP網絡請求多種實現方式
  • 零基礎寫python爬蟲之HTTP異常處理
  • python爬蟲http代理使用方法

標簽:宿遷 濟南 喀什 三沙 欽州 臺灣 景德鎮 黃山

巨人網絡通訊聲明:本文標題《python爬蟲請求庫httpx和parsel解析庫的使用測評》,本文關鍵詞  python,爬蟲,請求,庫,httpx,;如發現本文內容存在版權問題,煩請提供相關信息告之我們,我們將及時溝通與處理。本站內容系統采集于網絡,涉及言論、版權與本站無關。
  • 相關文章
  • 下面列出與本文章《python爬蟲請求庫httpx和parsel解析庫的使用測評》相關的同類信息!
  • 本頁收集關于python爬蟲請求庫httpx和parsel解析庫的使用測評的相關信息資訊供網民參考!
  • 推薦文章
    婷婷综合国产,91蜜桃婷婷狠狠久久综合9色 ,九九九九九精品,国产综合av
    亚洲激情六月丁香| 国产麻豆精品一区二区| 亚洲国产精品一区二区久久恐怖片 | 欧美性生活一区| 久久伊人蜜桃av一区二区| 青青草91视频| 日韩欧美电影一区| 日韩高清不卡一区二区| 欧美日韩国产区一| 国内精品不卡在线| 91精品欧美一区二区三区综合在| 视频一区二区欧美| 日韩欧美中文字幕公布| 国产91对白在线观看九色| 中文字幕亚洲在| 欧美肥妇毛茸茸| 国产suv精品一区二区三区| 国产精品对白交换视频| 欧美日韩国产电影| 国产精品1区2区| 亚洲欧美一区二区不卡| 欧美疯狂性受xxxxx喷水图片| 久久不见久久见免费视频7| 中文字幕五月欧美| 日韩欧美中文字幕精品| 91丨九色丨蝌蚪富婆spa| 日韩av一区二区三区四区| 国产精品色呦呦| 欧美精品 日韩| 成人激情免费电影网址| 午夜精品久久久久久| 国产欧美日韩亚州综合| 欧美日韩国产精品自在自线| 国产成人精品免费| 免费观看久久久4p| 亚洲欧美日本韩国| 337p日本欧洲亚洲大胆精品| 欧洲一区二区av| 成人夜色视频网站在线观看| 久久激情综合网| 亚洲国产一区二区三区| 中文字幕免费观看一区| 精品99999| 日韩欧美一级二级三级久久久| 色婷婷综合中文久久一本| 国产精一品亚洲二区在线视频| 手机精品视频在线观看| 一区二区三区久久| 最新不卡av在线| 中文字幕一区视频| 中文字幕免费不卡| 国产欧美一区二区三区沐欲| 精品国产sm最大网站免费看| 欧美一区2区视频在线观看| 欧美亚洲国产一区二区三区va| 成人精品国产一区二区4080| 国产资源在线一区| 国内一区二区视频| 麻豆国产欧美日韩综合精品二区| 亚洲成a人在线观看| 亚洲另类色综合网站| 国产精品免费免费| 亚洲视频图片小说| 亚洲日穴在线视频| 中文字幕一区二区三中文字幕| 久久久久9999亚洲精品| 欧美精品一区二区三区四区| 精品少妇一区二区三区免费观看| 精品少妇一区二区三区在线视频| 欧美成人性福生活免费看| 日韩丝袜情趣美女图片| 精品日韩欧美一区二区| 精品日韩在线一区| 国产婷婷色一区二区三区在线| 久久久久9999亚洲精品| 国产精品国产精品国产专区不蜜| 国产精品国产自产拍高清av王其 | 国内精品自线一区二区三区视频| 日本麻豆一区二区三区视频| 麻豆国产欧美日韩综合精品二区| 国内精品国产三级国产a久久| 国产白丝网站精品污在线入口| 成人看片黄a免费看在线| 99精品欧美一区二区蜜桃免费| 91国偷自产一区二区三区观看 | 综合在线观看色| 亚洲国产婷婷综合在线精品| 日韩高清中文字幕一区| 国产自产2019最新不卡| 91免费精品国自产拍在线不卡| 欧美在线免费视屏| 日韩午夜三级在线| 欧美国产在线观看| 午夜电影网亚洲视频| 国产高清不卡一区二区| 欧美伊人精品成人久久综合97 | 欧美电视剧免费全集观看| 中文字幕精品一区| 亚洲成人精品在线观看| 国产精品中文字幕欧美| 一本大道久久a久久综合婷婷| 日韩视频免费直播| 国产精品久久久久久久久免费相片 | 欧美日韩国产片| 欧美国产日本韩| 亚洲精品成人悠悠色影视| 老司机午夜精品| www.日韩精品| 精品va天堂亚洲国产| 亚洲成a人v欧美综合天堂下载| 强制捆绑调教一区二区| 99久久夜色精品国产网站| 在线不卡一区二区| 中文字幕第一区第二区| 美女视频黄久久| 色播五月激情综合网| 国产清纯白嫩初高生在线观看91| 亚洲欧美激情视频在线观看一区二区三区 | 日韩西西人体444www| 亚洲精品日韩综合观看成人91| 奇米影视在线99精品| 欧美性猛交一区二区三区精品| 精品国产三级电影在线观看| 久久精品一区蜜桃臀影院| 美女脱光内衣内裤视频久久网站| 99久久综合狠狠综合久久| 久久久久久久久久美女| 日韩中文字幕av电影| 欧美日韩国产综合一区二区三区| 国产精品三级视频| 国产乱码精品一区二区三| 欧美成人一区二区三区片免费 | 日韩美女一区二区三区| 亚洲综合一二区| 99久久99久久免费精品蜜臀| 久久久精品一品道一区| 全部av―极品视觉盛宴亚洲| 91国偷自产一区二区开放时间| 国产日韩av一区二区| 国产精品99久久久久久宅男| 日韩一区二区三区av| 亚洲美女视频在线| 成人高清伦理免费影院在线观看| 久久久亚洲精品一区二区三区| 麻豆视频观看网址久久| 欧美一级高清大全免费观看| 一区二区欧美视频| 黑人巨大精品欧美黑白配亚洲| 精品国产不卡一区二区三区| 精品一区二区三区免费观看| 欧美一卡2卡三卡4卡5免费| 日本人妖一区二区| 精品处破学生在线二十三| 国产精品一二三四区| 国产精品视频一二三区| 99综合电影在线视频| 亚洲女人小视频在线观看| 日本韩国欧美在线| 午夜国产不卡在线观看视频| 日韩一区二区电影| 成人午夜在线免费| 亚洲日本va午夜在线电影| 91麻豆国产在线观看| 亚洲成av人片一区二区梦乃| 在线播放视频一区| 国产激情一区二区三区桃花岛亚洲| 国产精品免费视频网站| 色呦呦日韩精品| 日本视频一区二区| 中文av一区特黄| 这里只有精品免费| 国产精品99久久久久久久vr| 亚洲欧美另类小说| 久久蜜桃一区二区| 国产激情一区二区三区四区| 成人免费在线观看入口| 欧美三级在线视频| 国产一区二区三区四| 亚洲精品高清在线观看| 538在线一区二区精品国产| 国产一区二区三区不卡在线观看| 亚洲同性同志一二三专区| 91精品国产综合久久精品app| 国产精品资源在线观看| 日日欢夜夜爽一区| 国产女主播一区| 欧美精品丝袜中出| 国产不卡在线视频| 日韩精品国产精品| 亚洲制服欧美中文字幕中文字幕| 精品精品欲导航| 欧美精品少妇一区二区三区| voyeur盗摄精品| 九九**精品视频免费播放| 午夜精品福利一区二区三区av| 国产女人18毛片水真多成人如厕| 欧美精品丝袜中出| 91麻豆福利精品推荐| 国产在线精品一区在线观看麻豆| 一区二区高清免费观看影视大全|