最近央視新聞記者王冰冰以清除可愛和專業(yè)的新聞業(yè)務(wù)水平深受眾多網(wǎng)友喜愛,b站也有很多up主剪輯了關(guān)于王冰冰的視頻。我們都是知道b站是一個彈幕網(wǎng)站,那你知道如何爬取b站實(shí)時彈幕嗎?本文以王冰冰視頻彈幕為例,向大家介紹Python爬蟲實(shí)現(xiàn)自動化爬取b站實(shí)時彈幕的過程。
1、導(dǎo)入需要的庫
import jieba # 分詞 from wordcloud import WordCloud # 詞云 from PIL import Image # 圖片處理 import numpy as np # 圖片處理 import matplotlib.pyplot as plt # 畫圖
2、 jieba分詞
所謂的分詞就是將一句話分成一個或幾個詞語的形式,
分詞代碼
# 讀取停用詞庫,注意編碼應(yīng)為‘utf8' f = open('小夜斗的停用詞表.txt', encoding='utf8') stopwords = f.read().split('\n') print(stopwords) # 打印停用詞 f.close() # 關(guān)閉停用詞文件
3、打印出的為一個停用詞列表
with open("冰冰vlog2.txt", "r", encoding='utf8') as fp: text = fp.read()
4、讀取冰冰彈幕數(shù)據(jù)文件的操作,將其保存到text變量中
segs = jieba.cut(text) # 進(jìn)行jieba分詞 mytext_list = [] # 構(gòu)建一個容納過濾掉停用詞的冰冰彈幕數(shù)據(jù)文件 # 文本清洗 for seg in segs: # 循環(huán)遍歷每一個分詞文本 # 如果該詞不屬于停用詞表 并且非空 長度不為1 if seg not in stopwords and seg != "" and len(seg) != 1: # 將該詞語添加到mytext_list列表中 mytext_list.append(seg.replace(" ", "")) print(mytext_list) # 打印過濾后的冰冰彈幕數(shù)據(jù)
5、獲取過濾停用詞后的冰冰彈幕數(shù)據(jù)
cloud_text = ",".join(mytext_list) # 連接列表里面的詞語 print(cloud_text)
到此這篇關(guān)于Python爬蟲自動化爬取b站實(shí)時彈幕實(shí)例方法的文章就介紹到這了,更多相關(guān)Python爬蟲如何實(shí)現(xiàn)自動化爬取b站實(shí)時彈幕內(nèi)容請搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關(guān)文章希望大家以后多多支持腳本之家!
標(biāo)簽:周口 周口 秦皇島 合肥 綏化 綿陽 淮安 百色
巨人網(wǎng)絡(luò)通訊聲明:本文標(biāo)題《Python爬蟲自動化爬取b站實(shí)時彈幕實(shí)例方法》,本文關(guān)鍵詞 Python,爬蟲,自動化,爬取,;如發(fā)現(xiàn)本文內(nèi)容存在版權(quán)問題,煩請?zhí)峁┫嚓P(guān)信息告之我們,我們將及時溝通與處理。本站內(nèi)容系統(tǒng)采集于網(wǎng)絡(luò),涉及言論、版權(quán)與本站無關(guān)。