一鍵分析你的上網行為, 看看你平時上網都在幹嘛?
- 2019 年 10 月 3 日
- 筆記
一鍵分析你的上網行為, 看看你平時上網都在幹嘛?
簡介
想看看你最近一年都在幹嘛?看看你平時上網是在摸魚還是認真工作?想寫年度彙報總結,但是苦於沒有數據?現在,它來了。
這是一個能讓你了解自己的瀏覽歷史的Chrome瀏覽歷史記錄分析程式,當然了,他僅適用於Chrome瀏覽器或者以Chrome為內核的瀏覽器。
在該頁面中你將可以查看有關自己在過去的時間裡所訪問瀏覽的域名、URL以及忙碌天數的前十排名以及相關的數據圖表。
部分截圖
程式碼思路
1. 目錄結構
首先,我們先看一下整體目錄結構
Code ├─ app_callback.py 回調函數,實現後台功能 ├─ app_configuration.py web伺服器配置 ├─ app_layout.py web前端頁面配置 ├─ app_plot.py web圖表繪製 ├─ app.py web伺服器的啟動 ├─ assets web所需的一些靜態資源文件 │ ├─ css web前端元素布局文件 │ │ ├─ custum-styles_phyloapp.css │ │ └─ stylesheet.css │ ├─ image web前端logo圖標 │ │ ├─ GitHub-Mark-Light.png │ └─ static web前端幫助頁面 │ │ ├─ help.html │ │ └─ help.md ├─ history_data.py 解析chrome歷史記錄文件 └─ requirement.txt 程式所需依賴庫
-
app_callback.py
該程式基於python,使用dash web輕量級框架進行部署。app_callback.py
主要用於回調,可以理解為實現後台功能。 -
app_configuration.py
顧名思義,對web伺服器的一些配置操作。 -
app_layout..py
web前端頁面配置,包含html, css元素。 -
app_plot.py
這個主要是為實現一些web前端的圖表數據。 -
app.py
web伺服器的啟動。 -
assets
靜態資源目錄,用於存儲一些我們所需要的靜態資源數據。 -
history_data.py
通過連接sqlite資料庫,並解析Chrome歷史記錄文件。 -
requirement.txt
運行本程式所需要的依賴庫。
2. 解析歷史記錄文件數據
與解析歷史記錄文件數據有關的文件為history_data.py
文件。我們一一分析。
# 查詢資料庫內容 def query_sqlite_db(history_db, query): # 查詢sqlite資料庫 # 注意,History是一個文件,沒有後綴名。它不是一個目錄。 conn = sqlite3.connect(history_db) cursor = conn.cursor() # 使用sqlite查看軟體,可清晰看到表visits的欄位url=表urls的欄位id # 連接表urls和visits,並獲取指定數據 select_statement = query # 執行資料庫查詢語句 cursor.execute(select_statement) # 獲取數據,數據格式為元組(tuple) results = cursor.fetchall() # 關閉 cursor.close() conn.close() return results
該函數的程式碼流程為:
- 連接sqlite資料庫,執行查詢語句,返回查詢結構,最終關閉資料庫連接。
# 獲取排序後的歷史數據 def get_history_data(history_file_path): try: # 獲取資料庫內容 # 數據格式為元組(tuple) select_statement = "SELECT urls.id, urls.url, urls.title, urls.last_visit_time, urls.visit_count, visits.visit_time, visits.from_visit, visits.transition, visits.visit_duration FROM urls, visits WHERE urls.id = visits.url;" result = query_sqlite_db(history_file_path, select_statement) # 將結果按第1個元素進行排序 # sort和sorted內建函數會優先排序第1個元素,然後再排序第2個元素,依此類推 result_sort = sorted(result, key=lambda x: (x[0], x[1], x[2], x[3], x[4], x[5], x[6], x[7], x[8])) # 返回排序後的數據 return result_sort except: # print('讀取出錯!') return 'error'
該函數的程式碼流程為:
- 設置資料庫查詢語句
select_statement
,調用query_sqlite_db()
函數,獲取解析後的歷史記錄文件數據。並對返回後的歷史記錄數據文件按照不同元素規則進行排序。至此,經過排序的解析後的歷史記錄數據文件獲取成功。
3. web伺服器基本配置
與web伺服器基本配置有關的文件為app_configuration.py
和app.py
文件。包括設置web伺服器的埠號,訪問許可權,靜態資源目錄等。
4. 前端頁面部署
與前端部署有關的文件為app_layout.py
和app_plot.py
以及assets
目錄。
前端布局主要包括以下幾個元素:
- 上傳歷史記錄文件組件
- 繪製頁面訪問次數組件
- 繪製頁面訪問停留總時間排名組件
- 每日頁面訪問次數散點圖組件
- 某日不同時刻訪問次數散點圖組件
- 訪問次數最多的10個URL組件
- 搜索關鍵詞排名組件
- 搜索引擎使用情況組件
在app_layout.py
中,這些組件的配置大多一樣,和平常的html, css配置一樣,所以我們僅僅以配置頁面訪問次數排名組件
為例子。
# 頁面訪問次數排名 html.Div( style={'margin-bottom':'150px'}, children=[ html.Div( style={'border-top-style':'solid','border-bottom-style':'solid'}, className='row', children=[ html.Span( children='頁面訪問次數排名, ', style={'font-weight': 'bold', 'color':'red'} ), html.Span( children='顯示個數:', ), dcc.Input( id='input_website_count_rank', type='text', value=10, style={'margin-top':'10px', 'margin-bottom':'10px'} ), ] ), html.Div( style={'position': 'relative', 'margin': '0 auto', 'width': '100%', 'padding-bottom': '50%', }, children=[ dcc.Loading( children=[ dcc.Graph( id='graph_website_count_rank', style={'position': 'absolute', 'width': '100%', 'height': '100%', 'top': '0', 'left': '0', 'bottom': '0', 'right': '0'}, config={'displayModeBar': False}, ), ], type='dot', style={'position': 'absolute', 'top': '50%', 'left': '50%', 'transform': 'translate(-50%,-50%)'} ), ], ) ] )
可以看到,雖然是python編寫的,但是只要具備前端經驗的人,都可以輕而易舉地在此基礎上新增或者刪除一些元素,所以我們就不詳細講如何使用html和css了。
在app_plot.py
中,主要是以繪製圖表相關的。使用的是plotly
庫,這是一個用於具有web交互的畫圖組件庫。
這裡以繪製頁面訪問頻率排名 柱狀圖
為例子,講講如何使用plotly
庫進行繪製。
# 繪製 頁面訪問頻率排名 柱狀圖 def plot_bar_website_count_rank(value, history_data): # 頻率字典 dict_data = {} # 對歷史記錄文件進行遍歷 for data in history_data: url = data[1] # 簡化url key = url_simplification(url) if (key in dict_data.keys()): dict_data[key] += 1 else: dict_data[key] = 0 # 篩選出前k個頻率最高的數據 k = convert_to_number(value) top_10_dict = get_top_k_from_dict(dict_data, k) figure = go.Figure( data=[ go.Bar( x=[i for i in top_10_dict.keys()], y=[i for i in top_10_dict.values()], name='bar', marker=go.bar.Marker( color='rgb(55, 83, 109)' ) ) ], layout=go.Layout( showlegend=False, margin=go.layout.Margin(l=40, r=0, t=40, b=30), paper_bgcolor='rgba(0,0,0,0)', plot_bgcolor='rgba(0,0,0,0)', xaxis=dict(title='網站'), yaxis=dict(title='次數') ) ) return figure
該函數的程式碼流程為:
- 首先,對解析完資料庫文件後返回的
history_data
進行遍歷,獲得url
數據,並調用url_simplification(url)
對齊進行簡化。接著,依次將簡化後的url
存入字典中。 - 調用
get_top_k_from_dict(dict_data, k)
,從字典dict_data
中獲取前k
個最大值的數據。 - 接著,開始繪製柱狀圖了。使用
go.Bar()
繪製柱狀圖,其中,x
和y
代表的是屬性和屬性對應的數值,為list
格式。
xaxis和
yaxis`分別設置相應坐標軸的標題 - 返回一個
figure
對象,以便於傳輸給前端。
而assets
目錄下包含的數據為image
和css
,都是用於前端布局。
5. 後台部署
與後台部署有關的文件為app_callback.py
文件。這個文件使用回調的方式對前端頁面布局進行更新。
首先,我們看看關於頁面訪問頻率排名
的回調函數:
# 頁面訪問頻率排名 @app.callback( dash.dependencies.Output('graph_website_count_rank', 'figure'), [ dash.dependencies.Input('input_website_count_rank', 'value'), dash.dependencies.Input('store_memory_history_data', 'data') ] ) def update(value, store_memory_history_data): # 正確獲取到歷史記錄文件 if store_memory_history_data: history_data = store_memory_history_data['history_data'] figure = plot_bar_website_count_rank(value, history_data) return figure else: # 取消更新頁面數據 raise dash.exceptions.PreventUpdate("cancel the callback")
該函數的程式碼流程為:
- 首先確定好輸入是什麼(觸發回調的數據),輸出是什麼(回調輸出的數據),需要帶上什麼數據。
dash.dependencies.Input
指的是觸發回調的數據,而dash.dependencies.Input('input_website_count_rank', 'value')
表示當id
為input_website_count_rank
的組件的value
發生改變時,會觸發這個回調。而該回調經過update(value, store_memory_history_data)
的結果會輸出到id
為graph_website_count_rank
的value
,通俗來講,就是改變它的值。 - 對於
def update(value, store_memory_history_data)
的解析。首先是判斷輸入數據store_memory_history_data
是否不為空對象,接著讀取歷史記錄文件history_data
,接著調用剛才所說的app_plot.py
文件中的plot_bar_website_count_rank()
,返回一個figure
對象,並將這個對象返回到前端。至此,前端頁面的布局就會顯示出頁面訪問頻率排名
的圖表了。
還有一個需要說的就是關於上次文件的過程,這裡我們先貼出程式碼:
# 上傳文件回調 @app.callback( dash.dependencies.Output('store_memory_history_data', 'data'), [ dash.dependencies.Input('dcc_upload_file', 'contents') ] ) def update(contents): if contents is not None: # 接收base64編碼的數據 content_type, content_string = contents.split(',') # 將客戶端上傳的文件進行base64解碼 decoded = base64.b64decode(content_string) # 為客戶端上傳的文件添加後綴,防止文件重複覆蓋 # 以下方式確保文件名不重複 suffix = [str(random.randint(0,100)) for i in range(10)] suffix = "".join(suffix) suffix = suffix + str(int(time.time())) # 最終的文件名 file_name = 'History_' + suffix # print(file_name) # 創建存放文件的目錄 if (not (exists('data'))): makedirs('data') # 欲寫入的文件路徑 path = 'data' + '/' + file_name # 寫入本地磁碟文件 with open(file=path, mode='wb+') as f: f.write(decoded) # 使用sqlite讀取本地磁碟文件 # 獲取歷史記錄數據 history_data = get_history_data(path) # 獲取搜索關鍵詞數據 search_word = get_search_word(path) # 判斷讀取到的數據是否正確 if (history_data != 'error'): # 找到 date_time = time.strftime('%Y-%m-%d %H:%M:%S', time.localtime(time.time())) print('新接收到一條客戶端的數據, 數據正確, 時間:{}'.format(date_time)) store_data = {'history_data': history_data, 'search_word': search_word} return store_data else: # 沒找到 date_time = time.strftime('%Y-%m-%d %H:%M:%S', time.localtime(time.time())) print('新接收到一條客戶端的數據, 數據錯誤, 時間:{}'.format(date_time)) return None return None
該函數的程式碼流程為:
-
首先判斷用戶上傳的數據
contents
是否不為空,接著將客戶端上傳的文件進行base64解碼。並且,為客戶端上傳的文件添加後綴,防止文件重複覆蓋,最終將客戶端上傳的文件寫入本地磁碟文件。 -
寫入完畢後,使用sqlite讀取本地磁碟文件,若讀取正確,則返回解析後的數據,否則返回
None
接下來,就是我們數據提取最核心的部分了,即從Chrome歷史記錄文件中提取出我們想要的數據。由於Chrome歷史記錄文件是一個sqlite資料庫,所以我們需要使用資料庫語法提取出我們想要的內容。
# 獲取排序後的歷史數據 def get_history_data(history_file_path): try: # 獲取資料庫內容 # 數據格式為元組(tuple) select_statement = "SELECT urls.id, urls.url, urls.title, urls.last_visit_time, urls.visit_count, visits.visit_time, visits.from_visit, visits.transition, visits.visit_duration FROM urls, visits WHERE urls.id = visits.url;" result = query_sqlite_db(history_file_path, select_statement) # 將結果按第1個元素進行排序 # sort和sorted內建函數會優先排序第1個元素,然後再排序第2個元素,依此類推 result_sort = sorted(result, key=lambda x: (x[0], x[1], x[2], x[3], x[4], x[5], x[6], x[7], x[8])) # 返回排序後的數據 return result_sort except: # print('讀取出錯!') return 'error'
上面select_statement
指的是查詢資料庫的規則,規則如下:
-
從(FROM)表
urls
中選擇(SELECT)出以下欄位urls.id
,urls.url
,urls.title
,urls.last_visit_time
,urls.visit_count
,依次代表URL的ID
,URL的地址
,URL的標題
,URL最後的訪問時間
,URL的訪問次數
。 -
接著,從(FROM)表
visits
中選擇(SELECT)出以下欄位visits.visit_time
,visits.from_visit
,visits.transition
,visits.visit_duration
,分別代表的是訪問時間
,從哪個鏈接跳轉過來的
,訪問跳轉
,訪問停留的時間
。 -
對
步驟1
和步驟2
的結果進行連接,形成一個表格。然後從中(WHERE)篩選出符合urls.id = visits.url
的行。在urls
中,id
代表的是URL的id
,在visits
中,url
代表的也是URL的id
,所以只有當兩者相等,才能連接一起,才能保留,否則就要去除這一行。 -
使用排序函數
sorted
,這個函數依次是以x[0]
,x[1]
,x[2]
,x[3]
,x[4]
,x[5]
,x[6]
,x[7]
,x[8]
進行排序,也就是指的是urls.id
,urls.url
,urls.title
,urls.last_visit_time
,urls.visit_count
,visits.visit_time
,visits.from_visit
,visits.transition
,visits.visit_duration
。 -
返回一個排序好的數據
這裡我們列出每個欄位代表的意思:
欄位名 | 含義 |
---|---|
urls.id | url的編號 |
urls.url | url的地址 |
urls.title | url的標題 |
urls.last_visit_time | url的最後訪問時間 |
urls.visit_count | url的訪問次數 |
urls.visit_time | url的訪問時間 |
urls.from_visit | 從哪裡訪問到這個url |
urls.transition | url的跳轉 |
urls.visit_duration | url的停留時間 |
6. 如何獲取Chrome歷史記錄文件
-
首先,打開瀏覽器,輸入
chrome://version/
,其中,個人資料路徑
即為存放歷史文件所在的目錄。
-
跳轉到
個人資料路徑
,比如/Users/xxx/Library/Application Support/Google/Chrome/Default
,找到一個叫History
的文件,這個文件即為歷史記錄文件。
如何運行
在線演示程式:http://39.106.118.77:8090(普通伺服器,勿測壓)
運行本程式十分簡單,只需要按照以下命令即可運行:
# 跳轉到當前目錄 cd 目錄名 # 先卸載依賴庫 pip uninstall -y -r requirement.txt # 再重新安裝依賴庫 pip install -r requirement.txt # 開始運行 python app.py # 運行成功後,通過瀏覽器打開http://localhost:8090
補充
完整版源程式碼存放在github上,有需要的可以下載
項目持續更新,歡迎您star本項目