婷婷综合国产,91蜜桃婷婷狠狠久久综合9色 ,九九九九九精品,国产综合av

主頁(yè) > 知識(shí)庫(kù) > python爬取新聞門(mén)戶網(wǎng)站的示例

python爬取新聞門(mén)戶網(wǎng)站的示例

熱門(mén)標(biāo)簽:上海機(jī)器人外呼系統(tǒng)哪家好 南京銷售外呼系統(tǒng)軟件 315電話機(jī)器人廣告 蓋州市地圖標(biāo)注 房產(chǎn)電銷外呼系統(tǒng) 地圖標(biāo)注微信發(fā)送位置不顯示 浙江電銷卡外呼系統(tǒng)好用嗎 地圖標(biāo)注的意義點(diǎn) 地圖制圖標(biāo)注位置改變是移位嗎

項(xiàng)目地址:

https://github.com/Python3Spiders/AllNewsSpider

如何使用

每個(gè)文件夾下的代碼就是對(duì)應(yīng)平臺(tái)的新聞爬蟲(chóng)

  1. py 文件直接運(yùn)行
  2. pyd 文件需要,假設(shè)為 pengpai_news_spider.pyd

將 pyd 文件下載到本地,新建項(xiàng)目,把 pyd 文件放進(jìn)去

項(xiàng)目根目錄下新建 runner.py,寫(xiě)入以下代碼即可運(yùn)行并抓取

import pengpai_news_spider
pengpai_news_spider.main()

示例代碼

百度新聞

# -*- coding: utf-8 -*-
# 文件備注信息       如果遇到打不開(kāi)的情況,可以先在瀏覽器打開(kāi)一下百度搜索引擎

import requests

from datetime import datetime, timedelta

from lxml import etree

import csv

import os

from time import sleep
from random import randint


def parseTime(unformatedTime):
    if '分鐘' in unformatedTime:
        minute = unformatedTime[:unformatedTime.find('分鐘')]
        minute = timedelta(minutes=int(minute))
        return (datetime.now() -
                minute).strftime('%Y-%m-%d %H:%M')
    elif '小時(shí)' in unformatedTime:
        hour = unformatedTime[:unformatedTime.find('小時(shí)')]
        hour = timedelta(hours=int(hour))
        return (datetime.now() -
                hour).strftime('%Y-%m-%d %H:%M')
    else:
        return unformatedTime


def dealHtml(html):
    results = html.xpath('//div[@class="result-op c-container xpath-log new-pmd"]')

    saveData = []

    for result in results:
        title = result.xpath('.//h3/a')[0]
        title = title.xpath('string(.)').strip()

        summary = result.xpath('.//span[@class="c-font-normal c-color-text"]')[0]
        summary = summary.xpath('string(.)').strip()

        # ./ 是直接下級(jí),.// 是直接/間接下級(jí)
        infos = result.xpath('.//div[@class="news-source"]')[0]
        source, dateTime = infos.xpath(".//span[last()-1]/text()")[0], \

                           infos.xpath(".//span[last()]/text()")[0]

        dateTime = parseTime(dateTime)

        print('標(biāo)題', title)
        print('來(lái)源', source)
        print('時(shí)間', dateTime)
        print('概要', summary)
        print('\n')

        saveData.append({
            'title': title,
            'source': source,
            'time': dateTime,
            'summary': summary
        })
    with open(fileName, 'a+', encoding='utf-8-sig', newline='') as f:
        writer = csv.writer(f)
        for row in saveData:
            writer.writerow([row['title'], row['source'], row['time'], row['summary']])


headers = {
    'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/75.0.3770.142 Safari/537.36',
    'Referer': 'https://www.baidu.com/s?rtt=1bsst=1cl=2tn=newsword=%B0%D9%B6%C8%D0%C2%CE%C5fr=zhidao'
}

url = 'https://www.baidu.com/s'

params = {
    'ie': 'utf-8',
    'medium': 0,
    # rtt=4 按時(shí)間排序 rtt=1 按焦點(diǎn)排序
    'rtt': 1,
    'bsst': 1,
    'rsv_dl': 'news_t_sk',
    'cl': 2,
    'tn': 'news',
    'rsv_bp': 1,
    'oq': '',
    'rsv_btype': 't',
    'f': 8,
}


def doSpider(keyword, sortBy = 'focus'):
    '''
    :param keyword: 搜索關(guān)鍵詞
    :param sortBy: 排序規(guī)則,可選:focus(按焦點(diǎn)排序),time(按時(shí)間排序),默認(rèn) focus
    :return:
    '''
    global fileName
    fileName = '{}.csv'.format(keyword)

    if not os.path.exists(fileName):
        with open(fileName, 'w+', encoding='utf-8-sig', newline='') as f:
            writer = csv.writer(f)
            writer.writerow(['title', 'source', 'time', 'summary'])

    params['wd'] = keyword
    if sortBy == 'time':
        params['rtt'] = 4

    response = requests.get(url=url, params=params, headers=headers)

    html = etree.HTML(response.text)

    dealHtml(html)

    total = html.xpath('//div[@id="header_top_bar"]/span/text()')[0]

    total = total.replace(',', '')

    total = int(total[7:-1])

    pageNum = total // 10

    for page in range(1, pageNum):
        print('第 {} 頁(yè)\n\n'.format(page))
        headers['Referer'] = response.url
        params['pn'] = page * 10

        response = requests.get(url=url, headers=headers, params=params)

        html = etree.HTML(response.text)

        dealHtml(html)

        sleep(randint(2, 4))
    ...


if __name__ == "__main__":
    doSpider(keyword = '馬保國(guó)', sortBy='focus')

以上就是python爬取新聞門(mén)戶網(wǎng)站的示例的詳細(xì)內(nèi)容,更多關(guān)于python爬取新聞門(mén)戶網(wǎng)站的資料請(qǐng)關(guān)注腳本之家其它相關(guān)文章!

您可能感興趣的文章:
  • python 爬取壁紙網(wǎng)站的示例
  • Python爬取網(wǎng)站圖片并保存的實(shí)現(xiàn)示例
  • Python爬蟲(chóng)設(shè)置Cookie解決網(wǎng)站攔截并爬取螞蟻短租的問(wèn)題
  • python 多線程爬取壁紙網(wǎng)站的示例
  • python爬蟲(chóng)爬取某網(wǎng)站視頻的示例代碼
  • python爬蟲(chóng)實(shí)現(xiàn)爬取同一個(gè)網(wǎng)站的多頁(yè)數(shù)據(jù)的實(shí)例講解
  • Python實(shí)現(xiàn)JS解密并爬取某音漫客網(wǎng)站
  • python 爬取免費(fèi)簡(jiǎn)歷模板網(wǎng)站的示例
  • Python3 實(shí)現(xiàn)爬取網(wǎng)站下所有URL方式
  • 使用python爬取taptap網(wǎng)站游戲截圖的步驟

標(biāo)簽:貴州 臨汾 克拉瑪依 陽(yáng)泉 金華 雙鴨山 日照 赤峰

巨人網(wǎng)絡(luò)通訊聲明:本文標(biāo)題《python爬取新聞門(mén)戶網(wǎng)站的示例》,本文關(guān)鍵詞  python,爬取,新聞,門(mén)戶,網(wǎng),;如發(fā)現(xiàn)本文內(nèi)容存在版權(quán)問(wèn)題,煩請(qǐng)?zhí)峁┫嚓P(guān)信息告之我們,我們將及時(shí)溝通與處理。本站內(nèi)容系統(tǒng)采集于網(wǎng)絡(luò),涉及言論、版權(quán)與本站無(wú)關(guān)。
  • 相關(guān)文章
  • 下面列出與本文章《python爬取新聞門(mén)戶網(wǎng)站的示例》相關(guān)的同類信息!
  • 本頁(yè)收集關(guān)于python爬取新聞門(mén)戶網(wǎng)站的示例的相關(guān)信息資訊供網(wǎng)民參考!
  • 推薦文章
    婷婷综合国产,91蜜桃婷婷狠狠久久综合9色 ,九九九九九精品,国产综合av
    99久久国产免费看| 精品国产髙清在线看国产毛片| 在线不卡欧美精品一区二区三区| 蜜桃av一区二区在线观看| 国产精品每日更新| 精品国产一区二区三区久久影院| eeuss鲁一区二区三区| 精品一区二区免费视频| 日韩精品久久久久久| 亚洲永久免费av| 国产婷婷一区二区| 精品国产免费一区二区三区四区| 日韩手机在线导航| 麻豆国产欧美一区二区三区| 亚洲四区在线观看| 国产女同性恋一区二区| 欧美一区二区三区视频在线 | 91精品免费在线观看| 欧美视频中文字幕| 欧美亚洲国产一区在线观看网站 | 免费不卡在线视频| 日本麻豆一区二区三区视频| 日日欢夜夜爽一区| 免费国产亚洲视频| 黄一区二区三区| 国产suv精品一区二区三区| 亚洲最快最全在线视频| 国产精品国产自产拍高清av| 2017欧美狠狠色| 精品区一区二区| 精品国产乱码久久久久久夜甘婷婷| 欧美电影一区二区三区| 日韩一二三四区| 精品久久久久久亚洲综合网 | 国产亚洲欧美中文| 久久精品一区蜜桃臀影院| 欧美国产97人人爽人人喊| 最新高清无码专区| 视频在线观看国产精品| 国产乱人伦精品一区二区在线观看| 国产一区二区日韩精品| 国产精品国产三级国产| 国产精品免费视频网站| 一级中文字幕一区二区| 日本系列欧美系列| 国产老妇另类xxxxx| 91在线观看高清| 777午夜精品视频在线播放| 精品免费日韩av| 欧美国产在线观看| 五月天网站亚洲| 成人丝袜18视频在线观看| 欧美日本在线播放| 国产欧美精品区一区二区三区| 樱花草国产18久久久久| 蜜臀a∨国产成人精品| 成年人国产精品| 在线不卡中文字幕| 国产精品久久久久久久久久免费看| 奇米色一区二区| 国产自产2019最新不卡| 一本一本久久a久久精品综合麻豆 一本一道波多野结衣一区二区 | 国产主播一区二区三区| 99精品偷自拍| 久久这里只有精品6| 亚洲午夜精品一区二区三区他趣| 精品在线亚洲视频| 91成人免费网站| 久久免费国产精品| 天天亚洲美女在线视频| 成人sese在线| 欧美大片在线观看| 亚洲欧洲精品成人久久奇米网| 免费的国产精品| av午夜一区麻豆| 久久日韩粉嫩一区二区三区| 午夜av区久久| **欧美大码日韩| 日韩美女主播在线视频一区二区三区 | 综合激情网...| 精品在线你懂的| 欧美剧情片在线观看| 国产精品国模大尺度视频| 国产在线看一区| 日韩色在线观看| 亚洲成人综合视频| 色偷偷久久人人79超碰人人澡| 久久久噜噜噜久噜久久综合| 日本91福利区| 色国产综合视频| 综合网在线视频| jiyouzz国产精品久久| 久久精品在线免费观看| 激情丁香综合五月| 欧美成人性战久久| 奇米色777欧美一区二区| 欧美一级在线视频| 日韩不卡一区二区| 日韩一区二区在线观看视频 | 色诱视频网站一区| 日韩理论片在线| 91小视频免费看| ●精品国产综合乱码久久久久| 国产不卡在线一区| 国产性色一区二区| 国产激情一区二区三区四区 | 国产最新精品免费| 欧美videossexotv100| 99久久伊人精品| 日本一区二区电影| 成人激情视频网站| 日韩码欧中文字| 欧美无砖砖区免费| 免费观看日韩av| 欧美激情在线一区二区| 99精品久久只有精品| 午夜精品视频一区| 精品成人佐山爱一区二区| 国产91高潮流白浆在线麻豆 | 国产一区二区三区四区五区美女| 久久久www免费人成精品| 色综合天天性综合| 免费成人结看片| 亚洲欧洲一区二区在线播放| 精品视频999| 美脚の诱脚舐め脚责91| 国产调教视频一区| 欧美综合亚洲图片综合区| 久久国产精品99精品国产| 欧美—级在线免费片| 欧美综合久久久| 国产精品影音先锋| 一级精品视频在线观看宜春院| 日韩免费成人网| 色综合天天综合给合国产| 久久精品久久精品| 一区二区三区日本| 国产亚洲欧美在线| 欧美色网一区二区| 欧美日韩视频不卡| 蜜桃91丨九色丨蝌蚪91桃色| 2023国产精品| 在线精品视频免费观看| 狠狠久久亚洲欧美| 国产精品久久久久久久久晋中 | 亚洲成人精品一区二区| 日韩久久久久久| 在线精品视频小说1| 成人免费毛片app| 韩国av一区二区| 日本系列欧美系列| 亚洲精品欧美在线| 久久久精品免费网站| 欧美一级日韩一级| 欧美日韩国产一二三| 精品国产第一区二区三区观看体验| 麻豆精品久久久| 中文字幕精品三区| 精品少妇一区二区三区日产乱码| 在线观看网站黄不卡| www.亚洲精品| 成人一区二区视频| 国产综合久久久久久久久久久久| 亚洲一区二区三区美女| 亚洲同性同志一二三专区| 久久精品人人做人人综合 | 一区二区在线看| 久久色成人在线| 欧美日韩国产不卡| 91久久精品一区二区| 精品国产免费视频| 欧美一区二区三区爱爱| 91社区在线播放| 99久久免费视频.com| 亚洲欧美日韩电影| 美脚の诱脚舐め脚责91| 欧美成人三级在线| 国产精品色一区二区三区| 激情小说亚洲一区| 久久伊99综合婷婷久久伊| 色中色一区二区| 日韩和欧美一区二区| 一区二区欧美视频| 久久91精品久久久久久秒播| 久久综合色8888| 成人国产亚洲欧美成人综合网| 午夜视频在线观看一区二区三区| 欧美日韩国产综合一区二区| eeuss鲁片一区二区三区在线观看 eeuss鲁片一区二区三区在线看 | 婷婷开心久久网| 精品亚洲porn| 日本一区二区在线不卡| 日韩欧美中文字幕一区| 欧美三级在线看| 国产美女久久久久| 91网上在线视频| 国产亚洲欧洲997久久综合 | 亚洲国产精品影院| 国产精品女主播在线观看| 日韩一区和二区|