超简单,带你学会多线程爬虫

  • 2019 年 11 月 11 日
  • 筆記

作者:Tango 编辑:王老湿

今天我们来介绍了一些爬虫的技术,实现基本的抓取需求。但是随着数据量变大时,我们之前的爬虫的效率或者说执行速度就会出现问题,之前我们都是一条数据爬取完成后才继续下一条数据的爬取,这种模式我们通常称它为单线程或者串行爬虫。那么该如何改善呢?通过本章的学习你将掌握以下内容:

  • 多线程:了解多线程的基本概念
  • 多进程:了解多进程的概念
  • 性能对比:通过一个爬虫案例对比它们之间的性能
  • 多进程的使用

多线程与多进程

1. 多线程和多进程概述

当计算机运行程序时,就会创建包含代码和状态的进程。这些进程会通过计算机的一个或多个CPU执行。不过,同一时刻每个CPU只会执行一个进程,然后不同进程间快速切换,给我们一种错觉,感觉好像多个程序在同时进行。

一个进程中,程序的执行也是在不同的线程间进行切换,每个线程执行程序的不同部分。

例如:有一个大型工厂,该工厂负责生产电脑,工厂有很多的车间用来生产不同的电脑部件。每个车间又有很多工人互相合作共享资源来生产某个电脑部件。这里的工厂相当于一个爬虫工程,每个车间相当于一个进程,每个工人就相当于线程。

2. 多进程的使用方法

我们这里为大家介绍的是Python中的multiprocessing库,使用方法如下:

import re    from multiprocessing import Pool  pool = Pool(processes = 4) # 这个4代表着进程数  pool.map(func, iterable) # func 为方法名, iterable为可迭代的参数

3. 性能对比

我们这里以糗事百科的用户名称为例,分别对单进程,2进程,4进程的性能进行对比,代码如下:

import requests  import re  import time  from multiprocessing import Pool      headers = {'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64)       AppleWebKit/537.36 (KHTML, like Gecko) Chrome/76.0.3809.132 Safari/537.36'}    def spyder(url):      '''      解析页面      '''      res = requests.get(url, headers = headers)      ids = re.findall('<h2>(.*?)</h2>', res.text, re.S) # 获取用户名      time.sleep(1)    if __name__ == "__main__":      urls = ["https://www.qiushibaike.com/text/page/{}/".format(str(i)) for i in range(1, 10)]      start_1 = time.time()      for url in urls:          spyder(url)      end_1 = time.time()      print("单进程:",end_1 - start_1)        start_2 = time.time()      pool = Pool(processes = 2)      pool.map(spyder, urls)      end_2 = time.time()      print("2进程:",end_2 - start_2)        start_3 = time.time()      pool = Pool(processes = 4)      pool.map(spyder, urls)      end_3 = time.time()      print("2进程:",end_3 - start_3)

运行结果:

这里只是获取了用户名的信息,大家可以将其他信息也爬取出来看看,动手试试看看能缩少多少时间。好了这周的内容就这么多,虽然内容不是很多,但却很重要,大家要多多练习。