婷婷综合国产,91蜜桃婷婷狠狠久久综合9色 ,九九九九九精品,国产综合av

主頁 > 知識庫 > python實現(xiàn)Scrapy爬取網(wǎng)易新聞

python實現(xiàn)Scrapy爬取網(wǎng)易新聞

熱門標簽:百應(yīng)ai電銷機器人鄭州 ai地圖標注 女王谷地圖標注 地圖標注推廣單頁 廈門crm外呼系統(tǒng)如何 長春人工智能電銷機器人官網(wǎng) n400電話申請多少錢 如何在地圖標注文字 西藏快速地圖標注地點

1. 新建項目

在命令行窗口下輸入scrapy startproject scrapytest, 如下


然后就自動創(chuàng)建了相應(yīng)的文件,如下

2. 修改itmes.py文件

打開scrapy框架自動創(chuàng)建的items.py文件,如下

# Define here the models for your scraped items
#
# See documentation in:
# https://docs.scrapy.org/en/latest/topics/items.html

import scrapy


class ScrapytestItem(scrapy.Item):
 # define the fields for your item here like:
 # name = scrapy.Field()
 pass

編寫里面的代碼,確定我要獲取的信息,比如新聞標題,url,時間,來源,來源的url,新聞的內(nèi)容等

class ScrapytestItem(scrapy.Item):
 # define the fields for your item here like:
 # name = scrapy.Field()

 title = scrapy.Field()
 timestamp = scrapy.Field()
 category = scrapy.Field()
 content = scrapy.Field()
 url = scrapy.Field()
 
 pass

3. 定義spider,創(chuàng)建一個爬蟲模板

3.1 創(chuàng)建crawl爬蟲模板

在命令行窗口下面 創(chuàng)建一個crawl爬蟲模板(注意在文件的根目錄下面,指令檢查別輸入錯誤,-t 表示使用后面的crawl模板),會在spider文件夾生成一個news163.py文件

scrapy genspider -t crawl codingce news.163.com

然后看一下這個‘crawl'模板和一般的模板有什么區(qū)別,多了鏈接提取器還有一些爬蟲規(guī)則,這樣就有利于我們做一些深度信息的爬取

import scrapy
from scrapy.linkextractors import LinkExtractor
from scrapy.spiders import CrawlSpider, Rule


class CodingceSpider(CrawlSpider):
 name = 'codingce'
 allowed_domains = ['163.com']
 start_urls = ['http://news.163.com/']

 rules = (
  Rule(LinkExtractor(allow=r'Items/'), callback='parse_item', follow=True),
 )

 def parse_item(self, response):
  item = {}
  #item['domain_id'] = response.xpath('//input[@id="sid"]/@value').get()
  #item['name'] = response.xpath('//div[@id="name"]').get()
  #item['description'] = response.xpath('//div[@id="description"]').get()
  return item

3.2 補充知識:selectors選擇器

支持xpath和css,xpath語法如下

/html/head/title

/html/head/title/text()

//td (深度提取的話就是兩個/)

//div[@class=‘mine']

3.3. 分析網(wǎng)頁內(nèi)容

在谷歌chrome瀏覽器下,打在網(wǎng)頁新聞的網(wǎng)站,選擇查看源代碼,確認我們可以獲取到itmes.py文件的內(nèi)容(其實那里面的要獲取的就是查看了網(wǎng)頁源代碼之后確定可以獲取的)

確認標題、時間、url、來源url和內(nèi)容可以通過檢查和標簽對應(yīng)上,比如正文部分

主體

標題

時間

分類

4. 修改spider下創(chuàng)建的爬蟲文件

4.1 導(dǎo)入包

打開創(chuàng)建的爬蟲模板,進行代碼的編寫,除了導(dǎo)入系統(tǒng)自動創(chuàng)建的三個庫,我們還需要導(dǎo)入news.items(這里就涉及到了包的概念了,最開始說的–init–.py文件存在說明這個文件夾就是一個包可以直接導(dǎo)入,不需要安裝)

注意:使用的類ExampleSpider一定要繼承自CrawlSpider,因為最開始我們創(chuàng)建的就是一個‘crawl'的爬蟲模板,對應(yīng)上

import scrapy
from scrapy.linkextractors import LinkExtractor
from scrapy.spiders import CrawlSpider, Rule
from scrapytest.items import ScrapytestItem


class CodingceSpider(CrawlSpider):
 name = 'codingce'
 allowed_domains = ['163.com']

 start_urls = ['http://news.163.com/']

 rules = (
  Rule(LinkExtractor(allow=r'.*\.163\.com/\d{2}/\d{4}/\d{2}/.*\.html'), callback='parse', follow=True),
 )

 def parse(self, response):
  item = {}
  content = 'br>'.join(response.css('.post_content p::text').getall())
  if len(content)  100:
   return

  return item

Rule(LinkExtractor(allow=r'..163.com/\d{2}/\d{4}/\d{2}/..html'), callback=‘parse', follow=True), 其中第一個allow里面是書寫正則表達式的(也是我們核心要輸入的內(nèi)容),第二個是回調(diào)函數(shù),第三個表示是否允許深入

最終代碼

from datetime import datetime
import re

import scrapy
from scrapy.linkextractors import LinkExtractor
from scrapy.spiders import CrawlSpider, Rule
from scrapytest.items import ScrapytestItem


class CodingceSpider(CrawlSpider):
 name = 'codingce'
 allowed_domains = ['163.com']

 start_urls = ['http://news.163.com/']

 rules = (
  Rule(LinkExtractor(allow=r'.*\.163\.com/\d{2}/\d{4}/\d{2}/.*\.html'), callback='parse', follow=True),
 )

 def parse(self, response):
  item = {}
  content = 'br>'.join(response.css('.post_content p::text').getall())
  if len(content)  100:
   return

  title = response.css('h1::text').get()

  category = response.css('.post_crumb a::text').getall()[-1]
  print(category, "=======category")
  time_text = response.css('.post_info::text').get()
  timestamp_text = re.search(r'\d{4}-\d{2}-\d{2} \d{2}:\d{2}:\d{2}', time_text).group()
  timestamp = datetime.fromisoformat(timestamp_text)
  print(title, "=========title")
  print(content, "===============content")
  print(timestamp, "==============timestamp")
  print(response.url)
  return item

到此這篇關(guān)于python實現(xiàn)Scrapy爬取網(wǎng)易新聞的文章就介紹到這了,更多相關(guān)python Scrapy爬取網(wǎng)易新聞內(nèi)容請搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關(guān)文章希望大家以后多多支持腳本之家!

您可能感興趣的文章:
  • Python爬蟲之教你利用Scrapy爬取圖片
  • python基于scrapy爬取京東筆記本電腦數(shù)據(jù)并進行簡單處理和分析
  • Scrapy+Selenium自動獲取cookie爬取網(wǎng)易云音樂個人喜愛歌單
  • 如何在scrapy中集成selenium爬取網(wǎng)頁的方法
  • 使用scrapy ImagesPipeline爬取圖片資源的示例代碼
  • scrapy與selenium結(jié)合爬取數(shù)據(jù)(爬取動態(tài)網(wǎng)站)的示例代碼
  • Python利用Scrapy框架爬取豆瓣電影示例
  • Python scrapy增量爬取實例及實現(xiàn)過程解析
  • Python爬蟲實戰(zhàn)之使用Scrapy爬取豆瓣圖片

標簽:綿陽 廊坊 亳州 內(nèi)江 黔東 拉薩 興安盟 渭南

巨人網(wǎng)絡(luò)通訊聲明:本文標題《python實現(xiàn)Scrapy爬取網(wǎng)易新聞》,本文關(guān)鍵詞  python,實現(xiàn),Scrapy,爬取,網(wǎng)易,;如發(fā)現(xiàn)本文內(nèi)容存在版權(quán)問題,煩請?zhí)峁┫嚓P(guān)信息告之我們,我們將及時溝通與處理。本站內(nèi)容系統(tǒng)采集于網(wǎng)絡(luò),涉及言論、版權(quán)與本站無關(guān)。
  • 相關(guān)文章
  • 下面列出與本文章《python實現(xiàn)Scrapy爬取網(wǎng)易新聞》相關(guān)的同類信息!
  • 本頁收集關(guān)于python實現(xiàn)Scrapy爬取網(wǎng)易新聞的相關(guān)信息資訊供網(wǎng)民參考!
  • 推薦文章
    主站蜘蛛池模板: 利川市| 盱眙县| 抚远县| 高邑县| 拉萨市| 桦川县| 图们市| 桐乡市| 兴和县| 曲阜市| 桃园市| 临沂市| 巴林左旗| 延庆县| 濮阳市| 南雄市| 延津县| 乌兰浩特市| 桐柏县| 昌图县| 江津市| 波密县| 共和县| 买车| 长子县| 高邮市| 礼泉县| 平顺县| 新民市| 广灵县| 尼玛县| 濮阳县| 基隆市| 寿光市| 岑巩县| 苍山县| 江北区| 东乡| 福清市| 蒙山县| 淳化县|