婷婷综合国产,91蜜桃婷婷狠狠久久综合9色 ,九九九九九精品,国产综合av

主頁 > 知識庫 > python實現Scrapy爬取網易新聞

python實現Scrapy爬取網易新聞

熱門標簽:百應ai電銷機器人鄭州 ai地圖標注 女王谷地圖標注 地圖標注推廣單頁 廈門crm外呼系統如何 長春人工智能電銷機器人官網 n400電話申請多少錢 如何在地圖標注文字 西藏快速地圖標注地點

1. 新建項目

在命令行窗口下輸入scrapy startproject scrapytest, 如下


然后就自動創建了相應的文件,如下

2. 修改itmes.py文件

打開scrapy框架自動創建的items.py文件,如下

# Define here the models for your scraped items
#
# See documentation in:
# https://docs.scrapy.org/en/latest/topics/items.html

import scrapy


class ScrapytestItem(scrapy.Item):
 # define the fields for your item here like:
 # name = scrapy.Field()
 pass

編寫里面的代碼,確定我要獲取的信息,比如新聞標題,url,時間,來源,來源的url,新聞的內容等

class ScrapytestItem(scrapy.Item):
 # define the fields for your item here like:
 # name = scrapy.Field()

 title = scrapy.Field()
 timestamp = scrapy.Field()
 category = scrapy.Field()
 content = scrapy.Field()
 url = scrapy.Field()
 
 pass

3. 定義spider,創建一個爬蟲模板

3.1 創建crawl爬蟲模板

在命令行窗口下面 創建一個crawl爬蟲模板(注意在文件的根目錄下面,指令檢查別輸入錯誤,-t 表示使用后面的crawl模板),會在spider文件夾生成一個news163.py文件

scrapy genspider -t crawl codingce news.163.com

然后看一下這個‘crawl'模板和一般的模板有什么區別,多了鏈接提取器還有一些爬蟲規則,這樣就有利于我們做一些深度信息的爬取

import scrapy
from scrapy.linkextractors import LinkExtractor
from scrapy.spiders import CrawlSpider, Rule


class CodingceSpider(CrawlSpider):
 name = 'codingce'
 allowed_domains = ['163.com']
 start_urls = ['http://news.163.com/']

 rules = (
  Rule(LinkExtractor(allow=r'Items/'), callback='parse_item', follow=True),
 )

 def parse_item(self, response):
  item = {}
  #item['domain_id'] = response.xpath('//input[@id="sid"]/@value').get()
  #item['name'] = response.xpath('//div[@id="name"]').get()
  #item['description'] = response.xpath('//div[@id="description"]').get()
  return item

3.2 補充知識:selectors選擇器

支持xpath和css,xpath語法如下

/html/head/title

/html/head/title/text()

//td (深度提取的話就是兩個/)

//div[@class=‘mine']

3.3. 分析網頁內容

在谷歌chrome瀏覽器下,打在網頁新聞的網站,選擇查看源代碼,確認我們可以獲取到itmes.py文件的內容(其實那里面的要獲取的就是查看了網頁源代碼之后確定可以獲取的)

確認標題、時間、url、來源url和內容可以通過檢查和標簽對應上,比如正文部分

主體

標題

時間

分類

4. 修改spider下創建的爬蟲文件

4.1 導入包

打開創建的爬蟲模板,進行代碼的編寫,除了導入系統自動創建的三個庫,我們還需要導入news.items(這里就涉及到了包的概念了,最開始說的–init–.py文件存在說明這個文件夾就是一個包可以直接導入,不需要安裝)

注意:使用的類ExampleSpider一定要繼承自CrawlSpider,因為最開始我們創建的就是一個‘crawl'的爬蟲模板,對應上

import scrapy
from scrapy.linkextractors import LinkExtractor
from scrapy.spiders import CrawlSpider, Rule
from scrapytest.items import ScrapytestItem


class CodingceSpider(CrawlSpider):
 name = 'codingce'
 allowed_domains = ['163.com']

 start_urls = ['http://news.163.com/']

 rules = (
  Rule(LinkExtractor(allow=r'.*\.163\.com/\d{2}/\d{4}/\d{2}/.*\.html'), callback='parse', follow=True),
 )

 def parse(self, response):
  item = {}
  content = 'br>'.join(response.css('.post_content p::text').getall())
  if len(content)  100:
   return

  return item

Rule(LinkExtractor(allow=r'..163.com/\d{2}/\d{4}/\d{2}/..html'), callback=‘parse', follow=True), 其中第一個allow里面是書寫正則表達式的(也是我們核心要輸入的內容),第二個是回調函數,第三個表示是否允許深入

最終代碼

from datetime import datetime
import re

import scrapy
from scrapy.linkextractors import LinkExtractor
from scrapy.spiders import CrawlSpider, Rule
from scrapytest.items import ScrapytestItem


class CodingceSpider(CrawlSpider):
 name = 'codingce'
 allowed_domains = ['163.com']

 start_urls = ['http://news.163.com/']

 rules = (
  Rule(LinkExtractor(allow=r'.*\.163\.com/\d{2}/\d{4}/\d{2}/.*\.html'), callback='parse', follow=True),
 )

 def parse(self, response):
  item = {}
  content = 'br>'.join(response.css('.post_content p::text').getall())
  if len(content)  100:
   return

  title = response.css('h1::text').get()

  category = response.css('.post_crumb a::text').getall()[-1]
  print(category, "=======category")
  time_text = response.css('.post_info::text').get()
  timestamp_text = re.search(r'\d{4}-\d{2}-\d{2} \d{2}:\d{2}:\d{2}', time_text).group()
  timestamp = datetime.fromisoformat(timestamp_text)
  print(title, "=========title")
  print(content, "===============content")
  print(timestamp, "==============timestamp")
  print(response.url)
  return item

到此這篇關于python實現Scrapy爬取網易新聞的文章就介紹到這了,更多相關python Scrapy爬取網易新聞內容請搜索腳本之家以前的文章或繼續瀏覽下面的相關文章希望大家以后多多支持腳本之家!

您可能感興趣的文章:
  • Python爬蟲之教你利用Scrapy爬取圖片
  • python基于scrapy爬取京東筆記本電腦數據并進行簡單處理和分析
  • Scrapy+Selenium自動獲取cookie爬取網易云音樂個人喜愛歌單
  • 如何在scrapy中集成selenium爬取網頁的方法
  • 使用scrapy ImagesPipeline爬取圖片資源的示例代碼
  • scrapy與selenium結合爬取數據(爬取動態網站)的示例代碼
  • Python利用Scrapy框架爬取豆瓣電影示例
  • Python scrapy增量爬取實例及實現過程解析
  • Python爬蟲實戰之使用Scrapy爬取豆瓣圖片

標簽:綿陽 廊坊 亳州 內江 黔東 拉薩 興安盟 渭南

巨人網絡通訊聲明:本文標題《python實現Scrapy爬取網易新聞》,本文關鍵詞  python,實現,Scrapy,爬取,網易,;如發現本文內容存在版權問題,煩請提供相關信息告之我們,我們將及時溝通與處理。本站內容系統采集于網絡,涉及言論、版權與本站無關。
  • 相關文章
  • 下面列出與本文章《python實現Scrapy爬取網易新聞》相關的同類信息!
  • 本頁收集關于python實現Scrapy爬取網易新聞的相關信息資訊供網民參考!
  • 推薦文章
    婷婷综合国产,91蜜桃婷婷狠狠久久综合9色 ,九九九九九精品,国产综合av
    色屁屁一区二区| 樱花影视一区二区| 免费成人美女在线观看| 亚洲婷婷综合色高清在线| 91精品在线免费| 北条麻妃一区二区三区| 另类调教123区| 婷婷中文字幕一区三区| 亚洲欧美一区二区不卡| 久久久久久黄色| 精品成a人在线观看| 7777精品伊人久久久大香线蕉的 | 免费高清成人在线| 亚洲第一二三四区| 亚洲最色的网站| 亚洲免费观看高清完整版在线| 国产精品情趣视频| 国产欧美精品日韩区二区麻豆天美| 日韩一级二级三级| 制服丝袜亚洲播放| 欧美岛国在线观看| 久久亚洲一区二区三区四区| 久久亚洲欧美国产精品乐播 | 国产xxx精品视频大全| 激情综合网天天干| 国产精品一二一区| 国产精品91xxx| 成人黄色综合网站| 色综合久久88色综合天天免费| 色综合天天综合| 欧美综合色免费| 欧美一区二视频| 国产天堂亚洲国产碰碰| 国产女人水真多18毛片18精品视频| 欧美国产禁国产网站cc| 亚洲视频一区二区在线观看| 亚洲综合激情另类小说区| 天天亚洲美女在线视频| 国产一区二区在线观看视频| 成人av在线看| 欧美日韩亚洲综合在线| 精品粉嫩超白一线天av| 亚洲欧洲国产日本综合| 午夜久久久久久久久| 久久99蜜桃精品| 福利电影一区二区三区| 欧美亚洲一区二区在线观看| 日韩一区二区免费视频| 中文字幕在线免费不卡| 日韩在线一区二区三区| 成人免费不卡视频| 欧美裸体一区二区三区| 国产精品婷婷午夜在线观看| 亚洲美女电影在线| 国产乱子伦一区二区三区国色天香| 91丝袜国产在线播放| 日韩欧美不卡一区| 亚洲精品视频免费观看| 狠狠狠色丁香婷婷综合激情| 欧美最新大片在线看| 国产片一区二区三区| 日韩精品电影一区亚洲| 成人高清免费观看| 精品国产伦理网| 亚洲成人第一页| av高清不卡在线| 精品黑人一区二区三区久久| 亚洲一卡二卡三卡四卡无卡久久| 国产精品主播直播| 91麻豆精品国产91久久久更新时间| 中文字幕第一页久久| 久久精品国产成人一区二区三区 | 精品国产乱码久久| 亚洲自拍偷拍网站| av成人老司机| 欧美变态tickling挠脚心| 一区二区三区四区视频精品免费 | 欧美国产精品专区| 麻豆国产精品一区二区三区 | 欧美性视频一区二区三区| 欧美精品一区二区三区四区| 亚洲第一综合色| 91成人在线精品| 最近中文字幕一区二区三区| 懂色av一区二区夜夜嗨| 久久亚洲一区二区三区四区| 日韩和欧美的一区| 欧美亚一区二区| 亚洲伦理在线免费看| 成人精品视频一区二区三区 | 国产欧美日韩久久| 精品无人区卡一卡二卡三乱码免费卡| 欧美日韩国产系列| 亚洲成人1区2区| 欧美优质美女网站| 午夜av一区二区| 777xxx欧美| 美女视频黄 久久| 26uuu国产日韩综合| 国产精品一区二区三区99| 久久久九九九九| 成人网在线播放| 国产精品情趣视频| 日本电影欧美片| 亚洲尤物在线视频观看| 欧美最猛性xxxxx直播| 亚洲第一狼人社区| 欧美一区二区三区思思人| 老司机精品视频导航| 久久久久国产精品免费免费搜索| 国产精品一区二区久激情瑜伽| 国产欧美一区二区精品性色超碰| 国产美女一区二区| 国产精品福利影院| 欧美性猛交xxxx黑人交| 日本不卡一区二区三区高清视频| 日韩欧美中文字幕公布| 国产91清纯白嫩初高中在线观看| 亚洲欧洲精品一区二区三区| 欧美日韩一区二区三区免费看| 蜜桃av噜噜一区| 国产日产欧美一区二区三区| 一本久久a久久免费精品不卡| 亚洲自拍另类综合| 精品国产乱码91久久久久久网站| 国产成人av福利| 亚洲超碰精品一区二区| 久久免费精品国产久精品久久久久| aaa亚洲精品一二三区| 午夜欧美电影在线观看| 亚洲精品一区二区三区影院| 高清国产一区二区三区| 亚洲午夜精品在线| 2024国产精品视频| www.av精品| 婷婷夜色潮精品综合在线| 精品国产乱码久久久久久蜜臀| 成人黄色一级视频| 日本不卡一区二区三区| 国产精品水嫩水嫩| 欧美日韩精品一区二区三区四区| 久久精品国产亚洲一区二区三区| 1区2区3区欧美| 日韩欧美激情四射| 色狠狠av一区二区三区| 国产福利91精品一区| 最好看的中文字幕久久| 日韩欧美久久一区| 在线观看免费亚洲| www.亚洲人| 成人手机电影网| 国产综合色精品一区二区三区| 一区二区三区 在线观看视频| 久久久99精品久久| 91精品国产黑色紧身裤美女| 91国内精品野花午夜精品| 风间由美一区二区三区在线观看| 免播放器亚洲一区| 亚洲成人免费在线观看| 中文字幕在线一区| 国产偷v国产偷v亚洲高清| 精品少妇一区二区三区在线播放| 欧美日韩在线播放| 欧美日韩一区二区三区在线看| 97精品电影院| 99久久精品国产一区二区三区| 国产精品一级二级三级| 国产一区二区三区久久悠悠色av| 日本不卡高清视频| 久久精品国产亚洲一区二区三区| 五月天丁香久久| 亚洲成人av一区二区| 麻豆精品精品国产自在97香蕉| 日本欧美一区二区三区乱码| 亚洲一区二区视频在线| 亚洲精选在线视频| 亚洲免费av在线| 亚洲午夜在线电影| 一区二区三区不卡视频在线观看| 一区二区三区在线观看欧美| 一个色综合网站| 午夜精品在线视频一区| 丝袜美腿亚洲色图| 蜜臀av一区二区在线免费观看| 精品一区二区三区在线观看国产| 激情偷乱视频一区二区三区| 国产精品资源网站| av午夜一区麻豆| 欧美视频一区二区| 7777精品久久久大香线蕉| 91精品国产欧美一区二区成人 | 色欧美片视频在线观看在线视频| 99国产麻豆精品| 欧美色视频一区| 欧美一卡二卡在线观看| 国产亚洲精品中文字幕| 最新国产の精品合集bt伙计| 午夜精品福利久久久| 国产一区二区三区香蕉| 99r国产精品|