婷婷综合国产,91蜜桃婷婷狠狠久久综合9色 ,九九九九九精品,国产综合av

主頁 > 知識庫 > 分布式爬蟲處理Redis里的數據操作步驟

分布式爬蟲處理Redis里的數據操作步驟

熱門標簽:太原營銷外呼系統 地圖標注費用 西藏教育智能外呼系統價格 玄武湖地圖標注 最簡單的百度地圖標注 地圖標注如何即時生效 百度商家地圖標注怎么做 竹間科技AI電銷機器人 小紅書怎么地圖標注店

存入MongoDB

1.啟動MongoDB數據庫:sudo mongod

2.執行下面程序:py2 process_youyuan_mongodb.py

# process_youyuan_mongodb.py
# -*- coding: utf-8 -*-
import json
import redis
import pymongo
def main():
 # 指定Redis數據庫信息
 rediscli = redis.StrictRedis(host='192.168.199.108', port=6379, db=0)
 # 指定MongoDB數據庫信息
 mongocli = pymongo.MongoClient(host='localhost', port=27017)
 # 創建數據庫名
 db = mongocli['youyuan']
 # 創建表名
 sheet = db['beijing_18_25']
 while True:
 # FIFO模式為 blpop,LIFO模式為 brpop,獲取鍵值
 source, data = rediscli.blpop(["youyuan:items"])
 item = json.loads(data)
 sheet.insert(item)
 try:
  print u"Processing: %(name)s %(link)s>" % item
 except KeyError:
  print u"Error procesing: %r" % item
if __name__ == '__main__':
 main()

存入 MySQL

1.啟動mysql:mysql.server start(更平臺不一樣)

2.登錄到root用戶:mysql -uroot -p

3.創建數據庫youyuan:create database youyuan;

4.切換到指定數據庫:use youyuan

5.創建表beijing_18_25以及所有字段的列名和數據類型。

6.執行下面程序:py2 process_youyuan_mysql.py

#process_youyuan_mysql.py
# -*- coding: utf-8 -*-
import json
import redis
import MySQLdb
def main():
 # 指定redis數據庫信息
 rediscli = redis.StrictRedis(host='192.168.199.108', port = 6379, db = 0)
 # 指定mysql數據庫
 mysqlcli = MySQLdb.connect(host='127.0.0.1', user='power', passwd='xxxxxxx', db = 'youyuan', port=3306, use_unicode=True)
 while True:
 # FIFO模式為 blpop,LIFO模式為 brpop,獲取鍵值
 source, data = rediscli.blpop(["youyuan:items"])
 item = json.loads(data)
 try:
  # 使用cursor()方法獲取操作游標
  cur = mysqlcli.cursor()
  # 使用execute方法執行SQL INSERT語句
  cur.execute("INSERT INTO beijing_18_25 (username, crawled, age, spider, header_url, source, pic_urls, monologue, source_url) VALUES (%s, %s, %s, %s, %s, %s, %s, %s, %s )", [item['username'], item['crawled'], item['age'], item['spider'], item['header_url'], item['source'], item['pic_urls'], item['monologue'], item['source_url']])
  # 提交sql事務
  mysqlcli.commit()
  #關閉本次操作
  cur.close()
  print "inserted %s" % item['source_url']
 except MySQLdb.Error,e:
  print "Mysql Error %d: %s" % (e.args[0], e.args[1])
if __name__ == '__main__':
 main()

總結

以上所述是小編給大家介紹的分布式爬蟲處理Redis里的數據操作步驟,希望對大家有所幫助,如果大家有任何疑問歡迎給我留言,小編會及時回復大家的!

您可能感興趣的文章:
  • 使用Docker Swarm搭建分布式爬蟲集群的方法示例
  • 深入理解Python分布式爬蟲原理
  • Python 用Redis簡單實現分布式爬蟲的方法
  • Scrapy-redis爬蟲分布式爬取的分析和實現
  • PHP一個簡單的無需刷新爬蟲
  • Python3爬蟲全國地址信息
  • python爬蟲獲取小區經緯度以及結構化地址
  • 用C#做網絡爬蟲的步驟教學
  • Python數據抓取爬蟲代理防封IP方法
  • 爬蟲技術之分布式爬蟲架構的講解

標簽:林芝 唐山 廣東 香港 贛州 揚州 景德鎮 澳門

巨人網絡通訊聲明:本文標題《分布式爬蟲處理Redis里的數據操作步驟》,本文關鍵詞  分布式,爬蟲,處理,Redis,;如發現本文內容存在版權問題,煩請提供相關信息告之我們,我們將及時溝通與處理。本站內容系統采集于網絡,涉及言論、版權與本站無關。
  • 相關文章
  • 下面列出與本文章《分布式爬蟲處理Redis里的數據操作步驟》相關的同類信息!
  • 本頁收集關于分布式爬蟲處理Redis里的數據操作步驟的相關信息資訊供網民參考!
  • 推薦文章
    主站蜘蛛池模板: 高雄市| 山阴县| 镇江市| 越西县| 江门市| 株洲市| 沅江市| 台湾省| 神农架林区| 资阳市| 霍邱县| 宜川县| 辽阳市| 方正县| 南汇区| 广东省| 新郑市| 荔波县| 平谷区| 七台河市| 仪征市| 宜兰县| 耿马| 连平县| 永城市| 石城县| 花莲县| 淮北市| 航空| 清远市| 北辰区| 资溪县| 高雄市| 晋州市| 正镶白旗| 黄山市| 云和县| 山东| 大名县| 石棉县| 云浮市|