大數據時代,各行各業對數據采集的需求日益增多,網絡爬蟲的運用也更為廣泛,越來越多的人開始學習網絡爬蟲這項技術,K哥爬蟲此前已經推出不少爬蟲進階、逆向相關文章,為實現從易到難全方位覆蓋,特設【0基礎學爬蟲】專欄,幫助小白快速入門爬蟲,本期為爬蟲的基本介紹。
一、爬蟲概述 爬蟲又稱網絡蜘蛛、網絡機器人,網絡爬蟲按照系統結構和實現技術,大緻可以分為以下幾種類型:
通用網絡爬蟲(Scalable Web Crawler):抓取互聯網上所有數據,爬取對象從一些種子 URL 擴充到整個 Web,主要為門戶站點搜索引擎和大型 Web 服務提供商采集數據,是捜索引擎抓取系統(Baidu、Google、Yahoo 等)的重要組成部分。聚焦網絡爬蟲(Focused Crawler):抓取互聯網上特定數據,按照預先定義好的主題有選擇地進行網頁爬取的一種爬蟲,将爬取的目标網頁定位在與主題相關的頁面中,選擇性地爬取特定領域信息。增量式網絡爬蟲(Incremental Web Crawler):抓取互聯網上剛更新的數據,采取增量式更新和隻爬取新産生的或者已經發生變化網頁,它能夠在一定程度上保證所爬取的頁面是盡可能新的頁面,減少時間和空間上的耗費。深層網絡爬蟲(Deep Web Crawler):表層網頁(Surface Web)是指傳統搜索引擎可以索引的頁面,以超鍊接可以到達的靜态網頁為主構成的 Web 頁面;深層網頁(Deep Web)是指不能通過靜态鍊接獲取的、隐藏在搜索表單後的,隻有用戶提交一些關鍵詞才能獲得的 Web 頁面。在互聯網中,深層頁面的數量往往比表層頁面的數量要多很多。 爬蟲程序能模拟浏覽器請求站點的行為,把站點返回的HTML代碼/JSON數據/二進制數據(圖片、視頻、音頻) 等爬取到本地,進而提取自己需要的數據,并存放起來使用,每一個程序都有自己的規則,網絡爬蟲也不例外,它會根據人們施加的規則去采集信息,這些規則為網絡爬蟲算法,根據使用者的目的,爬蟲可以實現不同的功能,但所有爬蟲的本質,都是方便人們在海量的互聯網信息中找到并下載到自己要的那一類,提升信息獲取效率。
爬蟲采集的都是正常用戶能浏覽到的内容,而非所謂的 ”入侵服務器“,常說高水準者可 ”所見即所得“,意為隻要是能看的内容就能爬取到,希望各位都能達到這個程度~
二、爬蟲的用途 現如今大數據時代已經到來,網絡爬蟲技術成為這個時代不可或缺的一部分,企業需要數據來分析用戶行為、自己産品的不足之處以及競争對手的信息等,而這一切的首要條件就是數據的采集。網絡爬蟲的價值其實就是數據的價值,在互聯網社會中,數據是無價之寶,一切皆為數據,誰擁有了大量有用的數據,誰就擁有了決策的主動權。
網絡爬蟲目前主要的應用領域如:搜索引擎、數據采集、數據分析、信息聚合、競品監控、認知智能、輿情分析等等,爬蟲業務相關的公司數不勝數,如百度、谷歌、天眼查、企查查、新榜、飛瓜等等,在大數據時代,爬蟲的應用範圍廣、需求大,簡單舉幾個貼近生活的例子:
求職需求:獲取各個城市的招聘信息及薪資标準,方便篩選出适合自己的;租房需求:獲取各個城市的租房信息,以便挑選出心儀的房源;美食需求:獲取各個地方的好評美食,讓吃貨不迷路;購物需求:獲取各個商家同一個商品的價格及折扣信息,讓購物更實惠;購車需求:獲取心儀車輛近年的價格波動,以及不同渠道各車型的價格,助力挑選愛車。三、URI 及 URL 的含義 URI(Uniform Resource Identifier),即統一資源标志符,URI(Uniform Resource Location),即統一資源定位符,例如 httl,表示我們訪問 /file/index.html 這個文件;parameters:參數,用來指定訪問某個資源時的附加信息,主要作用就是像服務器提供額外的參數,用來表示本次請求的一些特性,例如 htt取資源,而資源都存儲在某個主機上,所以爬蟲爬取數據時必須要有一個目标的 URL 才可以獲取數據,因此,URL 是爬蟲獲取數據的基本依據,準确理解 URL 的含義對爬蟲學習有很大幫助。
四、爬蟲的基本流程發起請求:通過 URL 向服務器發起 Request 請求(同打開浏覽器,輸入網址浏覽網頁),請求可以包含額外的 headers、cookies、proxies、data 等信息,Python 提供了許多庫,幫助我們實現這個流程,完成 HTTP 請求操作,如 urllib、requests 等;獲取響應内容:如果服務器正常響應,會接收到 Response,Response 即為我們所請求的網頁内容,包含 HTML(網頁源代碼),JSON 數據或者二進制的數據(視頻、音頻、圖片)等;解析内容:接收到響應内容後,需要對其進行解析,提取數據内容,如果是 HTML(網頁源代碼),則可以使用網頁解析器進行解析,如正則表達式(re)、Beautiful Soup、pyquery、lxml 等;如果是 JSON 數據,則可以轉換成 JSON 對象進行解析;如果是二進制的數據,則可以保存到文件進行進一步處理;保存數據:可以保存到本地文件(txt、json、csv 等),或者保存到數據庫(MySQL,Redis,MongoDB 等),也可以保存至遠程服務器,如借助 SFTP 進行操作等。五、爬蟲的基本架構 爬蟲的基本架構主要由五個部分組成,分别是爬蟲調度器、URL 管理器、網頁下載器、網頁解析器、信息采集器:
爬蟲調度器:相當于一台電腦的 CPU,主要負責調度 URL 管理器、下載器、解析器之間的協調工作,用于各個模塊之間的通信,可以理解為爬蟲的入口與核心,爬蟲的執行策略在此模塊進行定義;URL 管理器:包括待爬取的 URL 地址和已爬取的 URL 地址,防止重複抓取 URL 和循環抓取 URL,實現 URL 管理器主要用三種方式,通過内存、數據庫、緩存數據庫來實現;網頁下載器:負責通過 URL 将網頁進行下載,主要是進行相應的僞裝處理模拟浏覽器訪問、下載網頁,常用庫為 urllib、requests 等;網頁解析器:負責對網頁信息進行解析,可以按照要求提取出有用的信息,也可以根據 DOM 樹的解析方式來解析。如正則表達式(re)、Beautiful Soup、pyquery、lxml 等,根據實際情況靈活使用;數據存儲器:負責将解析後的信息進行存儲、顯示等數據處理。
六、robots 協議 robots 協議也稱爬蟲協議、爬蟲規則等,是指網站可建立一個 robots.txt 文件來告訴搜索引擎哪些頁面可以抓取,哪些頁面不能抓取,而搜索引擎則通過讀取 robots.txt 文件來識别這個頁面是否允許被抓取。但是,這個robots協議不是防火牆,也沒有強制執行力,搜索引擎完全可以忽視 robots.txt 文件去抓取網頁的快照。 如果想單獨定義搜索引擎的漫遊器訪問子目錄時的行為,那麼可以将自定的設置合并到根目錄下的 robots.txt,或者使用 robots 元數據(Metadata,又稱元數據)。
robots 協議并不是一個規範,而隻是約定俗成的,所以并不能保證網站的隐私,俗稱 “君子協議”。
robots.txt 文件内容含義:
User-agent:*, 這裡的 * 代表的所有的搜索引擎種類,* 是一個通配符Disallow: /admin/, 這裡定義是禁止爬取 admin 目錄下面的目錄Disallow: /require/, 這裡定義是禁止爬取 require 目錄下面的目錄Disallow:/ABC/, 這裡定義是禁止爬取 ABC 目錄下面的目錄Disallow:/cgi-bin/*.htm, 禁止訪問 /cgi-bin/ 目錄下的所有以 .htm 為後綴的 URL(包含子目錄)Disallow:/*?*, 禁止訪問網站中所有包含問号 (?) 的網址Disallow:/.jpg$, 禁止抓取網頁所有的 .jpg 格式的圖片Disallow:/ab/adc.html, 禁止爬取 ab 文件夾下面的 adc.html 文件Allow:/cgi-bin/, 這裡定義是允許爬取 cgi-bin 目錄下面的目錄Allow:/tmp, 這裡定義是允許爬取 tmp 的整個目錄Allow: .htm$, 僅允許訪問以 .htm 為後綴的 URLAllow: .gif$, 允許抓取網頁和 gif 格式圖片Sitemap:網站地圖, 告訴爬蟲這個頁面是網站地圖 查看網站 robots 協議,網站 url 加上後綴 robotst.txt 即可,以快代理為例:
htt
更多精彩资讯请关注tft每日頭條,我们将持续为您更新最新资讯!