Python 增加博客园阅读量

  • 2020 年 1 月 26 日
  • 筆記

一、原理

  一般来说,阅读量是通过 ip 识别的,如果一个 ip 已经请求过了,下一次就不再增加阅读量。因此,想要增加阅读量,就需要不同的 ip 进行请求。大致清楚了之后,就可以开始写代码了。

二、获取代理 ip

  国内有很多代理 ip 的网站,这里我就推荐 http://31f.cn/http-proxy/ ,我们直接通过爬虫对 ip 和端口号进行获取,用 requests 和 BeautifulSoup ,由于这个网站的结构比较简单,就直接上代码了(记得导包)。

def getIPList(url="http://31f.cn/http-proxy/"):      proxies = []      headers = {          'User_Agent': 'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/60.0.3112.101 Safari/537.36',      }        res = requests.get(url, headers=headers)        soup = BeautifulSoup(res.text, 'lxml')        ip_list = soup.select("body > div > table.table.table-striped > tr > td:nth-of-type(2)")      port_list = soup.select("body > div > table.table.table-striped > tr > td:nth-of-type(3)")        for i in range(len(port_list)):          proxies.append(ip_list[i].text + ":" + port_list[i].text)        return proxies

  如果想要获取更多的 ip 可以让这个方法不带参数,直接通过循环对多个页面进行抓取,毕竟大部分代理 ip 的有效期都很短。

三、发出请求

  其实在一开始,我是直接对 https://www.cnblogs.com/lyuzt/p/10381107.html 进行请求的,但是我发现用 requests 请求这个网址并不能增加阅读量。因为其他的文件并没有像平时打开网站那样加载,而且增加阅读量应该是由另外的网址进行,所以要好好分析一下,到底是通过什么增加阅读量的。

   从控制台可以看到有一个 put 请求的,域名的开头为 count,这个才是阅读量增加的关键。所以改一下 url 再请求。

  代码如下:

IPs = getIPList_2()  #print(IPs)  for i in range(len(IPs)):      print("开始请求")      user_agent = random.choice(user_agents)      proxy = IPs[i]      res = requests.get(blog_url, headers={'user_agent': user_agent}, proxies={'http': proxy})      print(user_agent + 't' + proxy, end='t')      print(res)      print("请求结束,准备下一次请求......")      time.sleep(10)

  ps:" user_agents " 这个变量是一个列表,相当于一个 user_agent 池,它的每个元素都是一个 user_agent 。这个就不展示了,可以上网复制。

四、总结

  经过测试,博客的阅读量有所增加,但由于大部分代理 ip 的有效期短,基本上只能增加一点点。有些网站可以通过直接请求网址增加阅读量,有一些网站则是通过请求其他的文件增加的,如果觉得去分析有点麻烦可以直接用 selenium 让浏览器自动请求,至于这个方法就不尝试了。

  虽然阅读量少,但我只试了一次,毕竟不能被这个数字左右,要端正心态。只要有技术,这些东西真的无所谓(不带出处转载这个就不能忍了,毕竟侵权了)。最后强调一下,这篇博客重在交流!