博客專欄

EEPW首頁 > 博客 > Python爬蟲基礎(chǔ)知識點分析

Python爬蟲基礎(chǔ)知識點分析

發(fā)布人:only1 時間:2020-09-16 來源:工程師 發(fā)布文章

  做數(shù)據(jù)分析和任何一門技術(shù)一樣,都應(yīng)該帶著目標(biāo)去學(xué)習(xí),目標(biāo)就像一座燈塔,指引你前進(jìn),很多人學(xué)著學(xué)著就學(xué)放棄了,很大部分原因是沒有明確目標(biāo),所以,一定要明確學(xué)習(xí)目的,在你準(zhǔn)備學(xué)爬蟲前,先問問自己為什么要學(xué)習(xí)爬蟲。有些人是為了一份工作,有些人是為了好玩,也有些人是為了實現(xiàn)某個黑科技功能。不過可以肯定的是,學(xué)會了爬蟲能給你的工作提供很多便利。

  小白入門必讀


  作為零基礎(chǔ)小白,大體上可分為三個階段去實現(xiàn)。


  第一階段是入門,掌握必備基礎(chǔ)知識,比如Python基礎(chǔ)、網(wǎng)絡(luò)請求的基本原理等;


  第二階段是模仿,跟著別人的爬蟲代碼學(xué),弄懂每一行代碼,熟悉主流的爬蟲工具,


  第三階段是自己動手,到了這個階段你開始有自己的解題思路了,可以獨立設(shè)計爬蟲系統(tǒng)。


  爬蟲涉及的技術(shù)包括但不限于熟練一門編程語言(這里以Python為例)HTML知識、HTTP協(xié)議的基本知識、正則表達(dá)式、數(shù)據(jù)庫知識,常用抓包工具的使用、爬蟲框架的使用、涉及到大規(guī)模爬蟲,還需要了解分布式的概念、消息隊列、常用的數(shù)據(jù)結(jié)構(gòu)和算法、緩存,甚至還包括機器學(xué)習(xí)的應(yīng)用,大規(guī)模的系統(tǒng)背后都是靠很多技術(shù)來支撐的。數(shù)據(jù)分析、挖掘、甚至是機器學(xué)習(xí)都離不開數(shù)據(jù),而數(shù)據(jù)很多時候需要通過爬蟲來獲取,因此,即使把爬蟲作為一門專業(yè)來學(xué)也是有很大前途的。


  那么是不是一定要把上面的知識全學(xué)完了才可以開始寫爬蟲嗎?當(dāng)然不是,學(xué)習(xí)是一輩子的事,只要你會寫Python代碼了,就直接上手爬蟲,好比學(xué)車,只要能開動了就上路吧,寫代碼可比開車安全多了。


  用Python寫爬蟲


  首先需要會Python,把基礎(chǔ)語法搞懂,知道怎么使用函數(shù)、類、list、dict中的常用方法就算基本入門。接著你需要了解HTML,HTML就是一個文檔樹結(jié)構(gòu),網(wǎng)上有個HTML30分鐘入門教程https://deerchao.net/tutorials/html/html.htm夠用了。


  關(guān)于HTTP的知識


  爬蟲基本原理就是通過網(wǎng)絡(luò)請求從遠(yuǎn)程服務(wù)器下載數(shù)據(jù)的過程,而這個網(wǎng)絡(luò)請求背后的技術(shù)就是基于HTTP協(xié)議。作為入門爬蟲來說,你需要了解HTTP協(xié)議的基本原理,雖然HTTP規(guī)范用一本書都寫不完,但深入的內(nèi)容可以放以后慢慢去看,理論與實踐相結(jié)合。


  網(wǎng)絡(luò)請求框架都是對HTTP協(xié)議的實現(xiàn),比如著名的網(wǎng)絡(luò)請求庫Requests就是一個模擬瀏覽器發(fā)送HTTP請求的網(wǎng)絡(luò)庫。了解HTTP協(xié)議之后,你就可以專門有針對性的學(xué)習(xí)和網(wǎng)絡(luò)相關(guān)的模塊了,比如Python自帶有urllib、urllib2(Python3中的urllib),httplib,Cookie等內(nèi)容,當(dāng)然你可以直接跳過這些,直接學(xué)習(xí)Requests怎么用,前提是你熟悉了HTTP協(xié)議的基本內(nèi)容,數(shù)據(jù)爬下來,大部分情況是HTML文本,也有少數(shù)是基于XML格式或者Json格式的數(shù)據(jù),要想正確處理這些數(shù)據(jù),你要熟悉每種數(shù)據(jù)類型的解決方案,比如JSON數(shù)據(jù)可以直接使用Python自帶的模塊json,對于HTML數(shù)據(jù),可以使用BeautifulSoup、lxml等庫去處理,對于xml數(shù)據(jù),除了可以使用untangle、xmltodict等第三方庫。


  爬蟲工具


  爬蟲工具里面,學(xué)會使用Chrome或者FireFox瀏覽器去審查元素,跟蹤請求信息等等,現(xiàn)在大部分網(wǎng)站有配有APP和手機瀏覽器訪問的地址,優(yōu)先使用這些接口,相對更容易。還有Fiddler等代理工具的使用。


  入門爬蟲,學(xué)習(xí)正則表達(dá)式并不是必須的,你可以在你真正需要的時候再去學(xué),比如你把數(shù)據(jù)爬取回來后,需要對數(shù)據(jù)進(jìn)行清洗,當(dāng)你發(fā)現(xiàn)使用常規(guī)的字符串操作方法根本沒法處理時,這時你可以嘗試了解一下正則表達(dá)式,往往它能起到事半功倍的效果。Python的re模塊可用來處理正則表達(dá)式。


  數(shù)據(jù)清洗


  數(shù)據(jù)清洗完最終要進(jìn)行持久化存儲,你可以用文件存儲,比如CSV文件,也可以用數(shù)據(jù)庫存儲,簡單的用SQLite,專業(yè)點用MySQL,或者是分布式的文檔數(shù)據(jù)庫MongoDB,這些數(shù)據(jù)庫對Python都非常友好,有現(xiàn)成的庫支持,你要做的就是熟悉這些API怎么使用。


  進(jìn)階之路


  從數(shù)據(jù)的抓取到清洗再到存儲的基本流程都走完了,也算是基本入門了,接下來就是考驗內(nèi)功的時候了,很多網(wǎng)站都設(shè)有反爬蟲策略,他們想方設(shè)法阻止你用非正常手段獲取數(shù)據(jù),比如會有各種奇奇怪怪的驗證碼限制你的請求操作、對請求速度做限制,對IP做限制、甚至對數(shù)據(jù)進(jìn)行加密操作,總之,就是為了提高獲取數(shù)據(jù)的成本。這時你需要掌握的知識就要更多了,你需要深入理解HTTP協(xié)議,你需要理解常見的加解密算法,你要理解HTTP中的cookie,HTTP代理,HTTP中的各種HEADER。爬蟲與反爬蟲就是相愛相殺的一對,道高一次魔高一丈。


  如何應(yīng)對反爬蟲沒有既定的統(tǒng)一的解決方案,靠的是你的經(jīng)驗以及你所掌握的知識體系。這不是僅憑21天入門教程就能達(dá)到的高度。


  進(jìn)行大規(guī)模爬蟲,通常都是從一個URL開始爬,然后把頁面中解析的URL鏈接加入待爬的URL集合中,我們需要用到隊列或者優(yōu)先隊列來區(qū)別對待有些網(wǎng)站優(yōu)先爬,有些網(wǎng)站后面爬。每爬去一個頁面,是使用深度優(yōu)先還是廣度優(yōu)先算法爬取下一個鏈接。每次發(fā)起網(wǎng)絡(luò)請求的時候,會涉及到一個DNS的解析過程(將****轉(zhuǎn)換成IP)為了避免重復(fù)地DNS解析,我們需要把解析好的IP緩存下來。URL那么多,如何判斷哪些****已經(jīng)爬過,哪些沒有爬過,簡單點就是是使用字典結(jié)構(gòu)來存儲已經(jīng)爬過的的URL,但是如果碰過海量的URL時,字典占用的內(nèi)存空間非常大,此時你需要考慮使用BloomFilter(布隆過濾器),用一個線程逐個地爬取數(shù)據(jù),效率低得可憐,如果提高爬蟲效率,是使用多線程,多進(jìn)程還是協(xié)程,還是分布式操作,都需要反復(fù)實踐。


  通過詳細(xì)的了解扣丁學(xué)堂關(guān)于Python爬蟲知識點的詳細(xì)梳理,是否對扣丁學(xué)堂的了解想要更進(jìn)一步啊,我們扣丁學(xué)堂不僅僅有師資雄厚的教學(xué)團對以及配套的Python學(xué)習(xí)視頻等線上教學(xué),還有額外的推薦就業(yè)等福利,因此,有想法的學(xué)生還在等什么啊,趕快行動起來吧!扣丁學(xué)堂Python技術(shù)交流群:816572891。

*博客內(nèi)容為網(wǎng)友個人發(fā)布,僅代表博主個人觀點,如有侵權(quán)請聯(lián)系工作人員刪除。



關(guān)鍵詞:

相關(guān)推薦

技術(shù)專區(qū)

關(guān)閉