新聞中心
這篇文章主要介紹了python反爬蟲中怎么躲避蜘蛛陷阱,具有一定借鑒價值,需要的朋友可以參考下。希望大家閱讀完這篇文章后大有收獲。下面讓小編帶著大家一起了解一下。
Spider Trap
蜘蛛陷阱導致網(wǎng)絡(luò)爬蟲進入無限循環(huán)之類的東西,這會浪費蜘蛛的資源,降低其生產(chǎn)力,并且在編寫得不好的爬蟲的情況下,可能導致程序崩潰。禮貌蜘蛛在不同主機之間交替請求,并且不會每隔幾秒鐘從同一服務器請求多次文檔,這意味著“禮貌”網(wǎng)絡(luò)爬蟲比“不禮貌”爬蟲的影響程度要小得多。
反爬方式:
創(chuàng)建無限深度的目錄結(jié)構(gòu)
HTTP://http://example.com/bar/foo/bar/foo/bar/foo/bar /
動態(tài)頁面,為網(wǎng)絡(luò)爬蟲生成無限數(shù)量的文檔。如由算法生成雜亂的文章頁面。
文檔中填充了大量字符,使解析文檔的詞法分析器崩潰。
此外,帶蜘蛛陷阱的網(wǎng)站通常都有robots.txt告訴機器人不要進入陷阱,因此合法的“禮貌”機器人不會陷入陷阱,而忽視robots.txt設(shè)置的“不禮貌”機器人會受到陷阱的影響。
爬蟲方法:
把網(wǎng)頁按照所引用的css文件進行聚類,通過控制類里較大能包含的網(wǎng)頁數(shù)量防止爬蟲進入trap后出不來,對不含css的網(wǎng)頁會給一個penalty,限制它能產(chǎn)生的鏈接數(shù)量。這個辦法理論上不保證能避免爬蟲陷入死循環(huán),但是實際上這個方案工作得挺好,因為絕大多數(shù)網(wǎng)頁都使用了css,動態(tài)網(wǎng)頁更是如此。
缺點:
反爬方式1,2會增加很多無用目錄或文件,造成資源浪費,也對正常的SEO十分不友好,可能會被懲罰。
感謝你能夠認真閱讀完這篇文章,希望小編分享python反爬蟲中怎么躲避蜘蛛陷阱內(nèi)容對大家有幫助,同時也希望大家多多支持創(chuàng)新互聯(lián)網(wǎng)站建設(shè)公司,,關(guān)注創(chuàng)新互聯(lián)行業(yè)資訊頻道,遇到問題就找創(chuàng)新互聯(lián)網(wǎng)站建設(shè)公司,,詳細的解決方法等著你來學習!
網(wǎng)站題目:python反爬蟲中怎么躲避蜘蛛陷阱-創(chuàng)新互聯(lián)
URL鏈接:http://www.ef60e0e.cn/article/cshsps.html