1,使用到的第三方庫
requests
BeautifulSoup 美味湯
worldcloud 詞云
jieba 中文分詞
matplotlib 繪圖
2,代碼實(shí)現(xiàn)部分
import requests import wordcloud import jieba from bs4 import BeautifulSoup from matplotlib import pyplot as plt from pylab import mpl #設(shè)置字體 mpl.rcParams['font.sans-serif'] = ['SimHei'] mpl.rcParams['axes.unicode_minus'] = False url = 'https://s.weibo.com/top/summary?Refer=top_hottopnav=1wvr=6' try: #獲取數(shù)據(jù) r = requests.get(url) r.raise_for_status() r.encoding = r.apparent_encoding soup = BeautifulSoup(r.text,'html.parser') data = soup.find_all('a') d_list = [] for item in data: d_list.append(item.text) words = d_list[4:-11:] #中文分詞 result = list(jieba.cut(words[0])) for word in words[1::]: result.extend(jieba.cut(word)) redata = [] for it in result: if len(it) = 1: continue else: redata.append(it) result_str = ' '.join(redata) #輸出詞云圖 font = r'C:\Windows\Fonts\simhei.ttf' w = wordcloud.WordCloud(font_path=font,width=600,height=400) w.generate(result_str) w.to_file('微博熱搜關(guān)鍵詞詞云.png') key = list(set(redata)) x,y = [],[] #篩選數(shù)據(jù) for st in key: count = redata.count(st) if count = 1: continue else: x.append(st) y.append(count) x.sort() y.sort() #繪制結(jié)果圖 plt.plot(x,y) plt.show() except Exception as e: print(e)
3,運(yùn)行結(jié)果
到此這篇關(guān)于Python爬蟲分析微博熱搜關(guān)鍵詞的文章就介紹到這了,更多相關(guān)Python爬蟲微博熱搜內(nèi)容請搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關(guān)文章希望大家以后多多支持腳本之家!
標(biāo)簽:烏蘭察布 哈爾濱 合肥 海南 平頂山 烏蘭察布 郴州 大慶
巨人網(wǎng)絡(luò)通訊聲明:本文標(biāo)題《Python爬蟲分析微博熱搜關(guān)鍵詞的實(shí)現(xiàn)代碼》,本文關(guān)鍵詞 Python,爬蟲,分析,微博,熱搜,;如發(fā)現(xiàn)本文內(nèi)容存在版權(quán)問題,煩請?zhí)峁┫嚓P(guān)信息告之我們,我們將及時溝通與處理。本站內(nèi)容系統(tǒng)采集于網(wǎng)絡(luò),涉及言論、版權(quán)與本站無關(guān)。