婷婷综合国产,91蜜桃婷婷狠狠久久综合9色 ,九九九九九精品,国产综合av

主頁 > 知識庫 > python爬蟲之你好,李煥英電影票房數據分析

python爬蟲之你好,李煥英電影票房數據分析

熱門標簽:315電話機器人廣告 地圖標注微信發送位置不顯示 房產電銷外呼系統 地圖標注的意義點 上海機器人外呼系統哪家好 南京銷售外呼系統軟件 地圖制圖標注位置改變是移位嗎 浙江電銷卡外呼系統好用嗎 蓋州市地圖標注

一、前言

春節檔賀歲片《你好,李煥英》,于2月23日最新數據出來后,票房已經突破42億,并且趕超其他賀歲片,成為2021的一匹黑馬。

從小品演員再到導演,賈玲處女作《你好李煥英》,為何能這么火?接下來榮仔帶你運用Python借助電影網站從各個角度剖析這部電影喜得高票房的原因。

二、影評爬取并詞云分析

毫無疑問, 中國的電影評論伴隨著整個社會文化語境的變遷以及不同場域和載體的更迭正發生著明顯的變化。在紙質類影評統御了中國電影評論一百年后,又分別出現了電視影評、網絡影評、新媒體影評等不同業態相結合的批評話語形式。電影評論的生產與傳播確實已經進入一個民主多元化的時代。

電影評論的目的在于分析、鑒定和評價蘊含在銀幕中的審美價值、認識價值、社會意義、鏡頭語等方面,達到拍攝影片的目的,解釋影片中所表達的主題,既能通過分析影片的成敗得失,幫助導演開闊視野,提高創作水平,以促進電影藝術的繁榮和發展;又能通過分析和評價,影響觀眾對影片的理解和鑒賞,提高觀眾的欣賞水平,從而間接促進電影藝術的發展。

2.1 網站選取

python爬蟲實戰——爬取豆瓣影評數據

2.2 爬取思路

爬取豆瓣影評數據步驟:1、獲取網頁請求
                                        2、解析獲取的網頁
                                        3、提取影評數據
                                        4、保存文件
                                        5、詞云分析

2.2.1 獲取網頁請求

該實例選擇采用selenium庫進行編碼。

 導庫

# 導入庫
from selenium import webdriver

瀏覽器驅動

# 瀏覽驅動器路徑
chromedriver = 'E:/software/chromedriver_win32/chromedriver.exe'
driver = webdriver.Chrome(chromedriver)

 打開網頁

driver.get("此處填寫網址")

2.2.2解析獲取的網頁

F12鍵進入開發者工具,并確定數據提取位置,copy其中的XPath路徑

2.2.3提取影評數據

采用XPath進行影評數據提取

driver.find_element_by_xpath('//*[@id="comments"]/div[{}]/div[2]/p/span')

2.2.4保存文件

# 新建文件夾及文件
basePathDirectory = "Hudong_Coding"
if not os.path.exists(basePathDirectory):
        os.makedirs(basePathDirectory)
baiduFile = os.path.join(basePathDirectory, "hudongSpider.txt")
# 若文件不存在則新建,若存在則追加寫入
if not os.path.exists(baiduFile):
        info = codecs.open(baiduFile, 'w', 'utf-8')
else:
        info = codecs.open(baiduFile, 'a', 'utf-8')

txt文件寫入

info.writelines(elem.text + '\r\n')

2.2.5 詞云分析

詞云分析用到了jieba庫和worldcloud庫。

值得注意的是,下圖顯示了文字的選取路徑方法。

2.3 代碼總觀

2.3.1 爬取代碼

# -*- coding: utf-8 -*-
# !/usr/bin/env python
import os
import codecs
from selenium import webdriver
 
# 獲取摘要信息
def getFilmReview():
    try:
        # 新建文件夾及文件
        basePathDirectory = "DouBan_FilmReview"
        if not os.path.exists(basePathDirectory):
            os.makedirs(basePathDirectory)
        baiduFile = os.path.join(basePathDirectory, "DouBan_FilmReviews.txt")
        # 若文件不存在則新建,若存在則追加寫入
        if not os.path.exists(baiduFile):
            info = codecs.open(baiduFile, 'w', 'utf-8')
        else:
            info = codecs.open(baiduFile, 'a', 'utf-8')
 
        # 瀏覽驅動器路徑
        chromedriver = 'E:/software/chromedriver_win32/chromedriver.exe'
        os.environ["webdriver.chrome.driver"] = chromedriver
        driver = webdriver.Chrome(chromedriver)
        # 打開網頁
        for k in range(15000):  # 大約有15000頁
            k = k + 1
            g = 2 * k
            driver.get("https://movie.douban.com/subject/34841067/comments?start={}".format(g))
            try:
                # 自動搜索
                for i in range(21):
                    elem = driver.find_element_by_xpath('//*[@id="comments"]/div[{}]/div[2]/p/span'.format(i+1))
                    print(elem.text)
                    info.writelines(elem.text + '\r\n')
            except:
                pass
 
    except Exception as e:
        print('Error:', e)
 
    finally:
        print('\n')
        driver.close()
 
# 主函數
def main():
    print('開始爬取')
    getFilmReview()
    print('結束爬取')
 
if __name__ == '__main__':
    main()

2.3.2 詞云分析代碼

# -*- coding: utf-8 -*-
# !/usr/bin/env python
 
import jieba                #中文分詞
import wordcloud            #繪制詞云
 
# 顯示數據
 
f = open('E:/software/PythonProject/DouBan_FilmReview/DouBan_FilmReviews.txt', encoding='utf-8')
 
txt = f.read()
txt_list = jieba.lcut(txt)
# print(txt_list)
string = ' '.join((txt_list))
print(string)
 
# 很據得到的彈幕數據繪制詞云圖
# mk = imageio.imread(r'圖片路徑')
 
w = wordcloud.WordCloud(width=1000,
                        height=700,
                        background_color='white',
                        font_path='C:/Windows/Fonts/simsun.ttc',
                        #mask=mk,
                        scale=15,
                        stopwords={' '},
                        contour_width=5,
                        contour_color='red'
                        )
 
w.generate(string)
w.to_file('DouBan_FilmReviews.png')

三、 實時票房搜集

3.1 網站選擇

3.2 代碼編寫 

# -*- coding: utf-8 -*-
# !/usr/bin/env python
import os
import time
import datetime
import requests
 
class PF(object):
    def __init__(self):
        self.url = 'https://piaofang.maoyan.com/dashboard-ajax?orderType=0uuid=173d6dd20a2c8-0559692f1032d2-393e5b09-1fa400-173d6dd20a2c8riskLevel=71optimusCode=10'
        self.headers = {
            "Referer": "https://piaofang.maoyan.com/dashboard",
            "User-Agent": "Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/84.0.4147.105 Safari/537.36",
        }
 
    def main(self):
        while True:
            # 需在dos命令下運行此文件,才能清屏
            os.system('cls')
            result_json = self.get_parse()
            if not result_json:
                break
            results = self.parse(result_json)
            # 獲取時間
            calendar = result_json['calendar']['serverTimestamp']
            t = calendar.split('.')[0].split('T')
            t = t[0] + " " + (datetime.datetime.strptime(t[1], "%H:%M:%S") + datetime.timedelta(hours=8)).strftime("%H:%M:%S")
            print('北京時間:', t)
            x_line = '-' * 155
            # 總票房
            total_box = result_json['movieList']['data']['nationBoxInfo']['nationBoxSplitUnit']['num']
            # 總票房單位
            total_box_unit = result_json['movieList']['data']['nationBoxInfo']['nationBoxSplitUnit']['unit']
            print(f"今日總票房: {total_box} {total_box_unit}", end=f'\n{x_line}\n')
            print('電影名稱'.ljust(14), '綜合票房'.ljust(11), '票房占比'.ljust(13), '場均上座率'.ljust(11), '場均人次'.ljust(11),'排片場次'.ljust(12),'排片占比'.ljust(12), '累積總票房'.ljust(11), '上映天數', sep='\t', end=f'\n{x_line}\n')
            for result in results:
                print(
                    result['movieName'][:10].ljust(9),  # 電影名稱
                    result['boxSplitUnit'][:8].rjust(10),  # 綜合票房
                    result['boxRate'][:8].rjust(13),  # 票房占比
                    result['avgSeatView'][:8].rjust(13),  # 場均上座率
                    result['avgShowView'][:8].rjust(13),  # 場均人次
                    result['showCount'][:8].rjust(13),  # '排片場次'
                    result['showCountRate'][:8].rjust(13),  # 排片占比
                    result['sumBoxDesc'][:8].rjust(13),  # 累積總票房
                    result['releaseInfo'][:8].rjust(13),  # 上映信息
                    sep='\t', end='\n\n'
                )
                break
            time.sleep(4)
 
    def get_parse(self):
        try:
            response = requests.get(self.url, headers=self.headers)
            if response.status_code == 200:
                return response.json()
        except requests.ConnectionError as e:
            print("ERROR:", e)
            return None
 
    def parse(self, result_json):
        if result_json:
            movies = result_json['movieList']['data']['list']
            # 場均上座率, 場均人次, 票房占比, 電影名稱,
            # 上映信息(上映天數), 排片場次, 排片占比, 綜合票房,累積總票房
            ticks = ['avgSeatView', 'avgShowView', 'boxRate', 'movieName',
                     'releaseInfo', 'showCount', 'showCountRate', 'boxSplitUnit', 'sumBoxDesc']
            for movie in movies:
                self.piaofang = {}
                for tick in ticks:
                    # 數字和單位分開需要join
                    if tick == 'boxSplitUnit':
                        movie[tick] = ''.join([str(i) for i in movie[tick].values()])
                    # 多層字典嵌套
                    if tick == 'movieName' or tick == 'releaseInfo':
                        movie[tick] = movie['movieInfo'][tick]
                    if movie[tick] == '':
                        movie[tick] = '此項數據為空'
                    self.piaofang[tick] = str(movie[tick])
                yield self.piaofang
 
 
if __name__ == '__main__':
    while True:
        pf = PF()
        pf.main()

3.3 結果展示 

四、 劇組照片爬取

4.1 網站選擇

4.2 代碼編寫

# -*- coding: utf-8 -*-
# !/usr/bin/env python
import requests
from bs4 import BeautifulSoup
import re
from PIL import Image
 
def get_data(url):
    # 請求網頁
    resp = requests.get(url)
    # headers 參數確定
    headers = {
        'user-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/80.0.3987.122 Safari/537.36'
    }
        # 對于獲取到的 HTML 二進制文件進行 'utf-8' 轉碼成字符串文件
    html = resp.content.decode('utf-8')
    # BeautifulSoup縮小查找范圍
    soup = BeautifulSoup(html, 'html.parser')
    # 獲取 a> 的超鏈接
    for link in soup.find_all('a'):
        a = link.get('href')
        if type(a) == str:
            b = re.findall('(.*?)jpg', a)
            try:
                print(b[0]+'jpg')
                img_urls = b[0] + '.jpg'
                # 保存數據
                for img_url in img_urls:
                    # 發送圖片 URL 請求
                    image = requests.get(img_url, headers=headers).content
                    # 保存數據
                    with open(r'E:/IMAGES/' + image, 'wb') as img_file:
                        img_file.write(image)
            except:
                pass
        else:
            pass
 
# 爬取目標網頁
if __name__ == '__main__':
    get_data('https://www.1905.com/newgallery/hdpic/1495100.shtml')

4.3 效果展示

五、 總結

看這部電影開始笑得有多開心,后面哭得就有多傷心,這部電影用孩子的視角,選取了母親在選擇愛情和婚姻期間所作出的選擇,通過對母親的觀察,體會母親所謂的幸福,并不是賈玲認為的:嫁給廠長的兒子就能獲得的,這是他們共同的選擇,無論經歷過多少次,母親都會義無反顧選擇適合自己的而不是別人認為的那種幸福的人生,這也間接告訴我們:我們追求幸福的過程中,要憑借自己的走,而不是要過別人眼中和口中的幸福,畢竟人生的很多選擇只有一次。 

到此這篇關于python爬蟲之你好,李煥英電影票房數據分析的文章就介紹到這了,更多相關python爬取電影票房內容請搜索腳本之家以前的文章或繼續瀏覽下面的相關文章希望大家以后多多支持腳本之家!

您可能感興趣的文章:
  • python 微信好友特征數據分析及可視化
  • python3對拉勾數據進行可視化分析的方法詳解
  • Python數據分析:手把手教你用Pandas生成可視化圖表的教程
  • Python數據可視化正態分布簡單分析及實現代碼
  • python數據分析之公交IC卡刷卡分析
  • python數據分析之用sklearn預測糖尿病
  • Python數據分析之pandas函數詳解
  • 如何使用Python對NetCDF數據做空間相關分析
  • python基于scrapy爬取京東筆記本電腦數據并進行簡單處理和分析
  • python數據分析之員工個人信息可視化

標簽:陽泉 赤峰 臨汾 克拉瑪依 貴州 金華 雙鴨山 日照

巨人網絡通訊聲明:本文標題《python爬蟲之你好,李煥英電影票房數據分析》,本文關鍵詞  python,爬蟲,之,你好,李煥英,;如發現本文內容存在版權問題,煩請提供相關信息告之我們,我們將及時溝通與處理。本站內容系統采集于網絡,涉及言論、版權與本站無關。
  • 相關文章
  • 下面列出與本文章《python爬蟲之你好,李煥英電影票房數據分析》相關的同類信息!
  • 本頁收集關于python爬蟲之你好,李煥英電影票房數據分析的相關信息資訊供網民參考!
  • 推薦文章
    婷婷综合国产,91蜜桃婷婷狠狠久久综合9色 ,九九九九九精品,国产综合av
    成人av综合一区| 日韩av在线播放中文字幕| 1000精品久久久久久久久| 国产乱妇无码大片在线观看| 26uuu另类欧美亚洲曰本| 国产精品中文字幕欧美| 国产精品网站在线观看| 成人高清视频在线观看| 一区二区三区中文字幕电影 | 欧美日韩激情一区二区三区| 亚洲综合在线观看视频| 欧美理论片在线| 国产一区二三区好的| 国产精品色婷婷久久58| 欧美视频三区在线播放| 日韩成人一级片| 国产亚洲欧美一级| 欧美吻胸吃奶大尺度电影 | 亚洲成人免费观看| 日韩欧美成人激情| 99久久伊人网影院| 日韩精品91亚洲二区在线观看 | 图片区小说区国产精品视频| 精品少妇一区二区三区免费观看| 粉嫩久久99精品久久久久久夜 | 久久99精品国产麻豆不卡| 国产午夜精品久久| 欧美午夜影院一区| 国产精选一区二区三区| 亚洲一区二区在线免费观看视频| 久久综合久久99| 欧美午夜精品电影| 风流少妇一区二区| 午夜国产不卡在线观看视频| 国产日韩亚洲欧美综合| 欧美日韩情趣电影| 菠萝蜜视频在线观看一区| 日韩av不卡在线观看| 亚洲柠檬福利资源导航| 久久久精品中文字幕麻豆发布| 欧美影院精品一区| 成人白浆超碰人人人人| 国产麻豆精品theporn| 免费高清在线一区| 一区二区三区日本| 中文字幕亚洲一区二区va在线| 精品久久久久一区| 91麻豆精品国产91| 欧洲另类一二三四区| 99视频超级精品| 波多野结衣一区二区三区| 国产自产视频一区二区三区| 日韩精品一二三四| 日韩高清中文字幕一区| 图片区小说区区亚洲影院| 亚洲制服丝袜av| 一区二区三区欧美日| ...中文天堂在线一区| 国产喷白浆一区二区三区| 久久久久久久久久久99999| 这里是久久伊人| 宅男噜噜噜66一区二区66| 欧美日本乱大交xxxxx| 欧美日韩高清一区| 欧美色图12p| 欧美日韩一区二区在线观看 | 不卡av电影在线播放| 精品亚洲免费视频| 久久电影国产免费久久电影| 免费精品99久久国产综合精品| 日韩中文字幕91| 日韩av一级片| 国模一区二区三区白浆| 国产精品一二三在| 国产a精品视频| 波多野结衣91| 欧美专区亚洲专区| 欧美美女一区二区在线观看| 欧美无人高清视频在线观看| 欧美日韩电影在线播放| 91麻豆精品91久久久久同性| 亚洲精品一区二区在线观看| 国产精品视频麻豆| 亚洲国产精品自拍| 另类小说图片综合网| 国产伦精品一区二区三区视频青涩| 国产一区二区三区免费在线观看| 丁香啪啪综合成人亚洲小说| 99免费精品在线观看| 精品视频一区 二区 三区| 精品国产区一区| 亚洲欧美日韩人成在线播放| 亚洲高清在线视频| 久久精品国产亚洲a| 成人高清av在线| 欧美日韩电影在线| 精品日韩成人av| 日韩久久一区二区| 亚洲福利一二三区| 久久99国产精品久久99| 粉嫩aⅴ一区二区三区四区| 在线免费av一区| 精品国产一区久久| 亚洲猫色日本管| 国产一区二区三区在线观看免费| 成人av免费在线观看| 日韩三级高清在线| 亚洲国产综合在线| www.久久精品| 欧美mv日韩mv国产| 天堂va蜜桃一区二区三区 | 欧美亚洲尤物久久| 久久综合视频网| 污片在线观看一区二区| av电影在线观看一区| 欧美mv日韩mv国产| 一区二区三区日韩欧美| 国产成人精品亚洲777人妖| 欧美二区在线观看| 亚洲欧洲综合另类| 国产麻豆日韩欧美久久| 日韩欧美激情四射| 日本怡春院一区二区| 欧美揉bbbbb揉bbbbb| 亚洲男同性视频| 99re热这里只有精品免费视频| 久久亚洲免费视频| 性做久久久久久免费观看| 色成人在线视频| 自拍视频在线观看一区二区| 国产91清纯白嫩初高中在线观看| 欧美成人video| 日本成人在线网站| 欧美精品久久天天躁| 亚洲国产中文字幕在线视频综合| 色婷婷av一区二区三区软件| 中文字幕一区二区三区蜜月| www.亚洲色图| 亚洲欧美一区二区三区孕妇| 97成人超碰视| 亚洲人成影院在线观看| 色婷婷国产精品久久包臀| 有码一区二区三区| 欧美另类久久久品| 青青草国产精品97视觉盛宴| 欧美成人精品二区三区99精品| 激情都市一区二区| 国产日韩欧美精品在线| 国产99精品在线观看| 国产精品丝袜91| 色狠狠色狠狠综合| 青青草国产精品亚洲专区无| 精品1区2区在线观看| 国产69精品久久777的优势| 亚洲色图一区二区三区| 欧美在线色视频| 日韩二区三区四区| 久久久久久久久一| 色综合久久九月婷婷色综合| 日韩和的一区二区| 久久九九久久九九| 97se亚洲国产综合自在线不卡| 亚洲二区在线观看| 欧美成人性战久久| 成人a级免费电影| 丝袜美腿亚洲色图| 国产欧美日韩麻豆91| 欧美三级视频在线| 国产成人免费视频精品含羞草妖精| 国产精品久久久一本精品| 欧美在线视频你懂得| 韩国毛片一区二区三区| 亚洲伦在线观看| 精品国产网站在线观看| 色婷婷综合久久久久中文一区二区| 午夜精品久久久久久| 国产欧美精品日韩区二区麻豆天美| 99在线视频精品| 久久se这里有精品| 亚洲在线观看免费视频| 久久久久久久性| 欧美影院精品一区| 成人永久免费视频| 午夜精品爽啪视频| 国产精品久久久久桃色tv| 日韩美女视频在线| 日韩视频在线永久播放| 国产一区二区久久| 午夜精品福利久久久| 国产精品高潮久久久久无| 日韩视频一区二区三区| 色婷婷国产精品久久包臀 | 欧美二区三区的天堂| 一本色道a无线码一区v| 国产一区啦啦啦在线观看| 亚洲成av人在线观看| 亚洲欧美偷拍三级| 国产精品国产自产拍高清av| 精品sm捆绑视频| 日韩欧美国产综合在线一区二区三区|