爬虫之urllib库的使用

  • 2019 年 10 月 7 日
  • 筆記

昨天在了解了网页基本的请求和响应之后,今天我们来了解下python内置HTTP请求库urllib库的使用。

首先什么是库?

简单的说就是别人写好的东西,你拿来调用就可以实现基本的操作。比如电视你只用看,不用知道他是如何成像的。

urllib库之request(用来模拟HTTP请求)模块

request的第一个方法urlopen()

我们以淘宝为例写上这样一段代码:

read()是返回得到的内容,decode('utf8')是编码格式。

返回的结果如下:

如果我们不想获取页面,只想获取请求的状态码或者头信息只需要

print(html.status)获取状态码,print(html.getheaders())获取头信息,可能你会说那莫多方法我怎么知道他有什么方法,此时只需要print(dir(html))一下,所有的方法,属性尽收眼底。那我怎么知道他是干什么的呢?help()一下就知道。

接下来我们来说一下urlopen()方法的参数:

我们利用上面说的去看一下有什么参数:

得到如下结果:

卧槽?怎么全英文???无奈,苦逼的我只好打开谷歌翻译。。。

data参数:

data参数是干什么的?我们知道我们在登录的时候的会填写账号密码,那么我们模拟登录的时候也要填写,这个参数就是做这个的!值得注意的是当我们添加了这个参数之后请求方式就不再是GET,而是POST请求。并且data参数是字节流编码格式我们需要转化一下。

httpbin.org/post是一个请求测试网站,如下我们可以看到我们传递的参数已经在里面了。

timeout参数:

tomeout参数是设置超时时间的,如果超出这个时间未得到响应就会抛出超时异常。下面我们来练习一下:

iisinstance()函数用来判断是否是超时,socket.timeout就是超时异常,而e.reason是捕捉的异常,做一个判断。

结果如下:

其他参数用到的时候再说,目前不需要了解吧。

request的第二个方法Request()

同样以淘宝为例:

结果和上面的结果是一样的,我们可以发现只是请求的对象发生了改变,这有什么用了?这样会让我们更灵活的添加参数或者配置,没什么其他卵用,来说一下Request的参数吧。

help一下:

url,data和上面的一样,headers表示请求头,是一个字典,我们在爬取网站的时候通常会加上一个User-Agent参数,防止被识别为爬虫,修改它,伪装成浏览器。origin_reg_host是指请求的ip或者host,unverifiable是是否有抓取的权限没有为True,否者是False,mothod为请求方式。

我们试着去添加多个参数:

结果:

也可以用方法去添加,这个就自己去试吧。

error模块

1,URLError类

昨天我们导入包的方式感觉很烦,每次写都会很长

想要变得简单点可以这样写:

随便输入一个网址,并没有直接报错。

2,HTTPError类(针对HTTP请求错误的类,使用方式和上面的一样)

结果:

  • reason:返回错误原因
  • code:返回状态码
  • headers:返回请求头信息

这里只针对爬虫用到的来说一下。

parse模块

paese模块总的来说就是对url的操作,各种解析和合并等

拆分的有:

  • urlparse()
  • urlsplit()

结果:

urlsplit()和urlparse()一样,不同是是urlsplit()的结果将parsms合并到了path里

合并的有:

  • urlunparse()合并的列表长度必须为6个
  • urlunsplit()合并的列表长度变成了5个

结果:

urlunsplit()的写法也一样只是变成了长度变成了5。

序列化和反序列化(我的理解是转化成符合某种格式)

urlencode():将字典转化为get请求的编码格式

parse_qs():将GET请求的参数转化成字典

结果 :

当url中有汉字时我们需要转化成url的编码格式quote()转化回来unquote()

结果:

其实上面讲的有三个模块,request请求模块,parse对url的处理模块和error异常处理模块。