1.登陸網(wǎng)站,開啟開發(fā)者模式。
可以在瀏覽器中點擊右鍵檢查或者F12打開開發(fā)者模式。
2.點選 NetWork,DOC,然后刷新頁面。
在 network 中選擇 doc,在請求的 headers 中搜索 cookie。
3.獲取對應(yīng)的 cookie 以及 user-agent。
4.在代碼中添加到 headers 里面。
def getHTMLText(url): kv = { 'cookie': 'adsgadfafegadsgadsfaefasdfaewfadsfag' 'uaer-agent': 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_14_4) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/73.0.3683.86 Safari/537.36' } try: r = requests.get(url, headers=kv, timeout=30) r.raise_for_status() r.encoding = r.apparent_encoding return r.text except: return "gg"
實例擴展:
程序的結(jié)構(gòu)設(shè)計
遇到問題
爬取成功,數(shù)據(jù)有問題
打印 html 文件,返回如下
script type="text/javascript"> TRLang = { ERROR_NICK_BLANK: "請?zhí)顚戀~戶名", ERROR_PASSWORD_BLANK: "請輸入密碼", ERROR_NICK_PASSWORD_BLANK: "請輸入賬戶名和密碼", ERROR_CHECKCODE_BLANK: "請輸入驗證碼", TIPS_REMEMBER_PASSWORD: "記住密碼", TIPS_NOT_REMEMBER_PSW_ON_PUBLIC: "不要在公共計算機記住密碼,防止賬戶被盜" }; /script>
到此這篇關(guān)于Python爬蟲爬取商品失敗處理方法的文章就介紹到這了,更多相關(guān)Python爬蟲爬取商品失敗內(nèi)容請搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關(guān)文章希望大家以后多多支持腳本之家!
標(biāo)簽:許昌 辛集 西安 濰坊 雅安 渭南 七臺河 贛州
巨人網(wǎng)絡(luò)通訊聲明:本文標(biāo)題《Python爬蟲爬取商品失敗處理方法》,本文關(guān)鍵詞 Python,爬蟲,爬取,商品,失敗,;如發(fā)現(xiàn)本文內(nèi)容存在版權(quán)問題,煩請?zhí)峁┫嚓P(guān)信息告之我們,我們將及時溝通與處理。本站內(nèi)容系統(tǒng)采集于網(wǎng)絡(luò),涉及言論、版權(quán)與本站無關(guān)。