主頁 > 知識庫 > Python爬蟲自動化爬取b站實時彈幕實例方法

Python爬蟲自動化爬取b站實時彈幕實例方法

熱門標簽:硅谷的囚徒呼叫中心 企業(yè)做大做強 電話運營中心 呼叫中心市場需求 語音系統(tǒng) 客戶服務 百度AI接口 Win7旗艦版

最近央視新聞記者王冰冰以清除可愛和專業(yè)的新聞業(yè)務水平深受眾多網(wǎng)友喜愛,b站也有很多up主剪輯了關于王冰冰的視頻。我們都是知道b站是一個彈幕網(wǎng)站,那你知道如何爬取b站實時彈幕嗎?本文以王冰冰視頻彈幕為例,向大家介紹Python爬蟲實現(xiàn)自動化爬取b站實時彈幕的過程。

1、導入需要的庫

import jieba # 分詞
from wordcloud import WordCloud # 詞云
from PIL import Image # 圖片處理
import numpy as np # 圖片處理
import matplotlib.pyplot as plt # 畫圖

2、 jieba分詞

所謂的分詞就是將一句話分成一個或幾個詞語的形式,

分詞代碼

# 讀取停用詞庫,注意編碼應為‘utf8'
f = open('小夜斗的停用詞表.txt', encoding='utf8')
stopwords = f.read().split('\n')
print(stopwords) # 打印停用詞
f.close() # 關閉停用詞文件

3、打印出的為一個停用詞列表

with open("冰冰vlog2.txt", "r", encoding='utf8') as fp:
text = fp.read()

4、讀取冰冰彈幕數(shù)據(jù)文件的操作,將其保存到text變量中

segs = jieba.cut(text) # 進行jieba分詞
mytext_list = [] # 構建一個容納過濾掉停用詞的冰冰彈幕數(shù)據(jù)文件
# 文本清洗
for seg in segs: # 循環(huán)遍歷每一個分詞文本
  # 如果該詞不屬于停用詞表 并且非空 長度不為1
  if seg not in stopwords and seg != "" and len(seg) != 1:
    # 將該詞語添加到mytext_list列表中
    mytext_list.append(seg.replace(" ", ""))
print(mytext_list) # 打印過濾后的冰冰彈幕數(shù)據(jù)

5、獲取過濾停用詞后的冰冰彈幕數(shù)據(jù)

cloud_text = ",".join(mytext_list) # 連接列表里面的詞語
print(cloud_text)

到此這篇關于Python爬蟲自動化爬取b站實時彈幕實例方法的文章就介紹到這了,更多相關Python爬蟲如何實現(xiàn)自動化爬取b站實時彈幕內(nèi)容請搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關文章希望大家以后多多支持腳本之家!

您可能感興趣的文章:
  • python實現(xiàn)百度文庫自動化爬取
  • Python自動化爬取天眼查數(shù)據(jù)的實現(xiàn)

標簽:濟南 山西 安康 長沙 海南 山西 崇左 喀什

巨人網(wǎng)絡通訊聲明:本文標題《Python爬蟲自動化爬取b站實時彈幕實例方法》,本文關鍵詞  ;如發(fā)現(xiàn)本文內(nèi)容存在版權問題,煩請?zhí)峁┫嚓P信息告之我們,我們將及時溝通與處理。本站內(nèi)容系統(tǒng)采集于網(wǎng)絡,涉及言論、版權與本站無關。
  • 相關文章
  • 收縮
    • 微信客服
    • 微信二維碼
    • 電話咨詢

    • 400-1100-266