Python網路爬蟲實戰(三)照片定位與B站彈幕
- 2019 年 10 月 3 日
- 筆記
之前兩篇已經說完了如何爬取網頁以及如何解析其中的數據,那麼今天我們就可以開始第一次實戰了。
這篇實戰包含兩個內容。
* 利用爬蟲調用Api來解析照片的拍攝位置
* 利用爬蟲爬取Bilibili影片中的彈幕
關於爬蟲調用Api這一說法,其實就是通過get或者post請求攜帶著參數,將內容發給對方伺服器,伺服器會根據請求的Api是哪個來進行處理。
比如說/delete?id=2和/save?id=1&name=antz這兩個請求就分別是刪除id等於2的數據,保存一條id等於1姓名為antz的數據。
此時我們就只需要向對方伺服器發送出這個請求就可以了,requests.get(url)就這麼簡單。
一.根據照片解析定位
不知道你平常拍照片有沒有在你手機的設置里仔細查看過,比如說下面這個選項【地理位置】。
打開它之後,我拍的照片上也沒有顯示地理位置啊?
這是因為這些數據被放在了照片文件數據裡面,可能你很難理解,你可以回想一下之前我們說的get之後的響應,響應體分為響應頭和響應體。照片的數據也是一樣,有資訊頭(隨便叫的)和數據體,資訊頭裡面有你這張照片的各種資訊,拍攝時間地點設備等,而數據體就是你用看圖軟體打開時顯示在你眼中的那些了,我們平常關注到的只有數據體,只關心照片是不是好看,而資訊頭的內容對我們來說其實無關緊要。
下面是我之前拍的一張照片經過解析獲得的資訊頭數據,從裡面可以看到照片尺寸,我的Make設備是HUAWEI,我的鏡頭數據,時間等等。
在Python中我們可以使用exifread庫來解析圖片的頭資訊。
pip install exifread
調用exifread的process_file方法,參數傳入file,就可以得到照片的exif資訊了。
img_exif = exifread.process_file(open("路徑", 'rb'))
返回的img_exif是一個字典數據,我們可以直接根據上面那張頭數據裡面的標題來拿到對應的數據。
# 緯度數 latitude_gps = img_exif['GPS GPSLatitude'] # N,S 南北緯方向 latitude_direction = img_exif['GPS GPSLatitudeRef'] # 經度數 longitude_gps = img_exif['GPS GPSLongitude'] # E,W 東西經方向 longitude_direction = img_exif['GPS GPSLongitudeRef']
這樣我們就拿到南北緯以及經緯度了。
那麼如何根據這些數據來獲得定位呢?
我們可以利用高德地圖開放的Api來將經緯度轉換為我們能夠直接讀懂的位置資訊。
url = 'https://restapi.amap.com/v3/geocode/regeo?key={}&location={}'
上面是高德地圖逆向解析定位的api地址,key需要在高德地圖官網申請開發者之後拿到(很容易),location就是經緯度南北緯資訊了。
resp = requests.get(url.format(api_key, location)) location_data = json.loads(resp.text) address = location_data.get('regeocode').get('formatted_address')
上面的程式碼是不是已經很簡單了,requests.get請求api拿到對方返回的結果,返回的數據的json數據,所以loads解析之後直接拿address即可。
這樣我們就可以拿到這張照片的拍攝地點了。
二.Bilibili彈幕爬蟲
先來思考一個問題,B站一個影片的彈幕最多會有多少?
比較多的會有2000條吧,這麼多數據,B站肯定是不會直接把彈幕和這個影片綁在一起的。
也就是說,有一個影片地址為https://www.bilibili.com/video/av67946325,你如果直接去requests.get這個地址,裡面是不會有彈幕的,回想第一篇說到的攜程非同步載入數據的方式,B站的彈幕也一定是先載入當前影片的介面,然後再非同步填充彈幕的。
接下來我們就可以打開火狐瀏覽器(平常可以火狐Google控制台都使用,因為Google裡面因為插件被攔截下來的包在火狐可以抓到,同理Google也是)的控制台來觀察網路請求了。
經過仔細排查之後,我找到了一個請求xml的,它後面跟了一個oid,查看它的響應內容之後可以發現它就是彈幕文件。
它的響應時間98毫秒,遠超其它幾個響應,所以說如果把彈幕直接放在影片頁面,用戶體驗一定會很差。
找到彈幕了,爬取它很容易,但是我們想要是爬取固定av號影片的彈幕,而不是說隨意去找一個oid來爬取彈幕,這樣我們都不知道爬下來的彈幕是哪個影片的。
接下來我們就可以複製oid的117784982值,去影片頁面搜索看看了,通過影片來獲得它的oid再來爬xml彈幕就很方便了。
這次用了Google瀏覽器,在裡面通過搜索oid果然搜索到相關的數據了。
其中cid是彈幕對應的id,aid對應影片av號。
先把這個頁面爬取下來。
# encoding: utf-8 import requests headers = { 'User-Agent':'Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/69.0.3497.100 Safari/537.36', 'Accept': 'text/html', 'Cookie': "_uuid=1DBA4F96-2E63-8488-DC25-B8623EFF40E773841infoc; buvid3=FE0D3174-E871-4A3E-877C-A4ED86E20523155831infoc; LIVE_BUVID=AUTO8515670521735348; sid=l765gx48; DedeUserID=33717177; DedeUserID__ckMd5=be4de02fd64f0e56; SESSDATA=cf65a5e0%2C1569644183%2Cc4de7381; bili_jct=1e8cdbb5755b4ecd0346761a121650f5; CURRENT_FNVAL=16; stardustvideo=1; rpdid=|(umY))|ukl~0J'ulY~uJm)kJ; UM_distinctid=16ce0e51cf0abc-02da63c2df0b4b-5373e62-1fa400-16ce0e51cf18d8; stardustpgcv=0606; im_notify_type_33717177=0; finger=b3372c5f; CURRENT_QUALITY=112; bp_t_offset_33717177=300203628285382610" } resp = requests.get('https://www.bilibili.com/video/av67946325',headers=headers) print(resp.text)
拿到了內容我們就要從中解析彈幕id了,對於這種規則紊亂的網頁,我們就不能用上一篇中Bs4解析了,而是使用正則表達式。
正則表達式最簡單的使用方式其實就是直接match。
re.search(匹配規則,文本).group()
觀察這裡的內容,我們大致的匹配規則就有了。
cid={目標}&aid=av號
117784982就是我們的目標。
av_id = '67946325' resp = requests.get('https://www.bilibili.com/video/av'+av_id,headers=headers) match_rule = r'cid=(.*?)&aid' oid = re.search(match_rule,resp.text).group().replace('cid=','').replace('&aid','') print('oid='+oid)
先根據av號拿到影片頁面,然後解析影片頁面拿到oid,最後用oid去請求xml彈幕文件。
xml_url = 'https://api.bilibili.com/x/v1/dm/list.so?oid='+oid resp = requests.get(xml_url,headers=headers) print(resp)
這樣我們就完成B站彈幕爬蟲了。