您好, 欢迎来到 !    登录 | 注册 | | 设为首页 | 收藏本站

python网络爬虫之如何伪装逃过反爬虫程序的方法

5b51 2022/1/14 8:16:01 python 字数 1888 阅读 330 来源 www.jb51.cc/python

有的时候,我们本来写得好好的爬虫代码,之前还运行得Ok,一下子突然报错了。

概述

有的时候,我们本来写得好好的爬虫代码,之前还运行得Ok,一下子突然报错了。

报错信息如下:

Http 800 Internal internet error

这是因为你的对象网站设置了反爬虫程序,如果用现有的爬虫代码,会被拒绝。

之前正常的爬虫代码如下:

from urllib.request import urlopen
...
html = urlopen(scrapeUrl)
bsObj = BeautifulSoup(html.read(),"html.parser")

这个时候,需要我们给我们的爬虫代码做下伪装,

给它添加表头伪装成是来自浏览器的请求

修改后的代码如下:

import urllib.parse
import urllib.request
from bs4 import BeautifulSoup
...
req = urllib.request.Request(scrapeUrl)
req.add_header('User-Agent','Mozilla/4.0 (compatible; MSIE 5.5; Windows NT)') 
response = urllib.request.urlopen(req) 
html = response.read()
 
bsObj = BeautifulSoup(html,"html.parser")

Ok,一切搞定,又可以继续爬了。

以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持编程小技巧。

总结

以上是编程之家为你收集整理的python网络爬虫之如何伪装逃过反爬虫程序的方法全部内容,希望文章能够帮你解决python网络爬虫之如何伪装逃过反爬虫程序的方法所遇到的程序开发问题。


如果您也喜欢它,动动您的小指点个赞吧

除非注明,文章均由 laddyq.com 整理发布,欢迎转载。

转载请注明:
链接:http://laddyq.com
来源:laddyq.com
著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。


联系我
置顶