反反爬 | 如何巧過 CloudFlare 5秒盾?
- 2019 年 10 月 6 日
- 筆記

巧破 Cloudflare 5秒盾
相信下面這個介面大家都不會陌生。【圖1-1】

圖1-1
當我們第一次訪問使用 CloudFlare 加速的網站時,網站就會出現讓我們等待 5 秒種的提示,當我們需要的通過爬蟲爬取這類網站的時候,應該如何爬取呢?
分析請求
首先我們需要分析在這個等待的時間裡瀏覽器做了哪些操作。
通過抓包,我們可以看到在等待的過程中,瀏覽器做了下面的三次請求【圖1-2】- 【圖1-4】:
【圖1-2】請求 1 寫入 cookie 欄位 __cfduid

圖1-2
【圖1-3】請求 2 帶有疑似加密的請求參數請求並寫入 cookie 欄位 cf_clearance

圖1-3
【圖1-4】請求 3 帶上前面寫入的cookie
請求網站首頁,返回首頁內容。

圖1-4
這整個過程需要的請求現在已經分析清楚了,接下來就是使用 Python 實現這個請求流程,不過是這樣的話就配不上這個標題了。
先說說這個按照正常流程是怎麼實現抓取繞過的:
- 使用瀏覽器模擬技術請求目標網站,例如:Selenium、 PhantomJS等
- 破解請求 2 的加密參數使用請求庫模擬整個請求過程
這兩個方法當然是可以抓取的,但是都不符合標題的巧
字。
接下來給大家介紹一個專門為了繞過這個 CloudFlare 開發的 Python 庫 cloudflare-scrape
用上它就可以無感爬取使用了 CloudFlare 的網站,使用這個庫非常簡單。
安裝
使用pip install cfscrape
安裝cloudflare-scrape
,同時確認本地是否安裝node.js
開發環境,如果沒有,需要安裝配置nodejs
開發環境。
使用實例
處理 get 請求的 CloudFlare
import cfscrape # 實例化一個create_scraper對象 scraper = cfscrape.create_scraper() # 請求報錯,可以加上時延 # scraper = cfscrape.create_scraper(delay = 10) # 獲取網頁源程式碼 web_data = scraper.get("https://wallhere.com/").content print(web_data)
處理 post 請求的 CloudFlare
# import cfscrape # 實例化一個create_scraper對象 scraper = cfscrape.create_scraper() # 獲取真實網頁源程式碼 web_data = scraper.post("http://example.com").content print(web_data)
使用cloudflare-scrape
後整個請求過程如絲般順滑。