婷婷综合国产,91蜜桃婷婷狠狠久久综合9色 ,九九九九九精品,国产综合av

主頁 > 知識庫 > python如何獲取網絡數據

python如何獲取網絡數據

熱門標簽:淮安呼叫中心外呼系統如何 佛山通用400電話申請 打印谷歌地圖標注 京華圖書館地圖標注 電話外呼系統招商代理 電話機器人貸款詐騙 蘇州人工外呼系統軟件 廣東旅游地圖標注 看懂地圖標注方法

Retrieving Data over HTTP

Python 內置了 sockets 可以實現與網絡連接并通過 Python 提取數據的功能。

socket 是可以提供雙向連接的,我們可以對同一個 socket 進行讀寫操作。比方說,A 對 socket 寫入信息,并且將其發送給 socket 連接另一端 B;那么 B 讀取 socket 的內容就可以得到 A 的信息。但是這樣會有一個問題,比如說, A端并沒有發送任何信息,而 B 端一直在嘗試讀取 socket 的內容,那么 A 端和 B 端只能陷入漫長的等待。所以就引入了通信協議。協議通過規定誰先發送,誰后響應等來規避上述的問題。

import socket
mysock = socket.socket(socket.AF_INET, socket.SOCK_STREAM)
mysock.connect(('fakeserver.com', 80)) # connect to server
cmd = 'GET http://fakeserver.com/fake.txt HTTP/1.0\r\n\r\n'.encode()
# send GET command followed by a blank line
mysock.send(cmd) 

while True: # receive data and print out
    data = mysock.recv(512)
    if (len(data)  1):
        break
    print(data.decode())
mysock.close()

Retrieving Data with urllib

利用 socket 我們可以與網站服務器,郵件服務器等建立連接。但是在建立連接之前,我們需要查詢文檔了解通信協議,然后根據協議編寫程序。所以相較于 socket 這種黑魔法,我們可以利用更為簡單的 Python Package。

利用 urllib.urlopen() 打開網頁后,我們就可以讀取數據,像讀取本地文件一樣。

import urllib.request

fhand = urllib.request.urlopen('http://fakeserver.com/fake.txt')
for line in fhand:
    #convert UTF-8 to unicode string and print out
    print(line.decode().strip()) 

因為 urllib 使用簡潔方便,所以也常用與網絡爬蟲。網絡爬蟲除了要網頁讀取數據以外還需要在 HTML 格式中解釋出可用數據,所以除了 urllib 還有另一常用利器就是 BeautifulSoup。

import urllib.request, urllib.parse, urllib.error
from bs4 import BeautifulSoup
import ssl

# Ignore SSL certificate errors
ctx = ssl.create_default_context()
ctx.check_hostname = False
ctx.verify_mode = ssl.CERT_NONE

html = urllib.request.urlopen('http://fakeserver.com/fake.html', context=ctx).read()
soup = BeautifulSoup(html, 'html.parser')
tags = soup('a')
# Retrieve all of the anchor tags
for tag in tags:
    print(tag.get('href', None))

Retrieving Data from XML

在網絡交換數據,我們常用的格式有兩種,一是 XML; 二是 JSON。

XML 長得就像是 HTML 的近親,可以看做是樹的一種。利用 Python Package ElementTree 我們可以將 XML 文件轉換為樹,這樣可以方便我們后續提取有效的數據。

import xml.etree.ElementTree as ET
data =  '''
            person>
            name>Jack/name>
            phone>+123456789/phone>
            email office="yes"/>
            /person> 
        '''
tree = ET.fromstring(data) # convert xml into a tree
print('Name:', tree.find('name').text)
print('Attr:', tree.find('email').get('office'))

Retrieving Data from JSON

JSON 結構相較于 XML 來說更為簡單,所以他的功能就沒有那么強大。但是 JSON 有一個優勢就是可以直接映射到 Python 的 dictionaries 和 lists 中,非常實用。

我們可以直接利用 Python Package json 來解釋 JSON。

import json
data =  '''
            {
                "name" : "Jack",
                "phone" : {
                    "type" : "intl",
                    "number" : "+123456789"
                },
                "email" : {
                    "office" : "yes"
                }
            }
        '''
info = json.loads(data)  # convert json into a dictianary
print('Name:', info['name'])
print('Attr:', info['email']['office'])

作者:Yuki
出處:https://www.cnblogs.com/yukiwu/

以上就是python如何獲取網絡數據的詳細內容,更多關于python獲取網絡數據的資料請關注腳本之家其它相關文章!

您可能感興趣的文章:
  • Python udp網絡程序實現發送、接收數據功能示例
  • Python大數據之網絡爬蟲的post請求、get請求區別實例分析
  • Python 網絡編程之UDP發送接收數據功能示例【基于socket套接字】
  • 詳解Python3網絡爬蟲(二):利用urllib.urlopen向有道翻譯發送數據獲得翻譯結果
  • Python下載網絡文本數據到本地內存的四種實現方法示例
  • Python爬蟲實例_城市公交網絡站點數據的爬取方法
  • python網絡編程調用recv函數完整接收數據的三種方法
  • python網絡編程之數據傳輸UDP實例分析
  • python網絡編程學習筆記(九):數據庫客戶端 DB-API

標簽:湖州 駐馬店 衡水 中山 股票 呼和浩特 畢節 江蘇

巨人網絡通訊聲明:本文標題《python如何獲取網絡數據》,本文關鍵詞  python,如何,獲取,網絡,數據,;如發現本文內容存在版權問題,煩請提供相關信息告之我們,我們將及時溝通與處理。本站內容系統采集于網絡,涉及言論、版權與本站無關。
  • 相關文章
  • 下面列出與本文章《python如何獲取網絡數據》相關的同類信息!
  • 本頁收集關于python如何獲取網絡數據的相關信息資訊供網民參考!
  • 推薦文章
    主站蜘蛛池模板: 上林县| 齐齐哈尔市| 富源县| 阿拉善右旗| 龙州县| 罗田县| 乌兰浩特市| 泾阳县| 大兴区| 平和县| 汉源县| 云和县| 墨玉县| 巴马| 镇赉县| 汉寿县| 虞城县| 油尖旺区| 和田市| 南陵县| 宜宾县| 贵德县| 盐山县| 汉川市| 海原县| 长治市| 宜昌市| 德阳市| 乌审旗| 龙州县| 台前县| 米易县| 云阳县| 贵州省| 承德县| 丰县| 邻水| 新巴尔虎左旗| 五家渠市| 海口市| 乳源|