Python爬虫基础-使用代理
为什么需要代理?
我们爬取数据的时候,开始可以正常爬取,但是过了一段时间,网站可能就会提示“您的IP访问频率过高”,然后就无法正常访问网站。
这是因为网站采取了反爬策略,某个ip访问频率超过一个阈值后,就会被禁止访问。
这时候我们就可以利用代理ip,来正常访问该网站。(或者,你可以等第二天,ip恢复正常后再访问)
使用代理
首先你要获取一个代理,获取方法很多,网上有免费和付费的代理。
这里我使用的是utanshu.com。免费版单日ip上限是5000个,足够个人使用了。用手机号注册,完成职业认证和身份认证就可以使用了。(这个认证是防止滥用ip做一些违法的事情)
目前这个网站主要功能就是提供分布式代理池,后面估计其它的两个功能也会开放。
我已经申请了一个账号。登陆后选择分布式代理池,网页会有一个提取API选项,
通过网页访问该API(或requests.get(api_url))就会返回一个txt或json格式的数据。
里面包含了ip和port。
将下面代码中的代理ip、代理端口、代理账号、代理密码替换成自己的即可使用代理获取网页。
import requests
import time
url='http://www.httpbin.org/get'
proxyaddr = "代理IP地址" #代理IP地址
proxyport = 57114 #代理IP端口
proxyusernm = "代理帐号t" #代理帐号
proxypasswd = "代理密码" #代理密码
#name = input();
proxyurl="http://" proxyusernm ":" proxypasswd "@" proxyaddr ":" "%d"%proxyport
t1 = time.time()
r = requests.get(url,proxies={'http':proxyurl,'https':proxyurl},headers={
"Accept":"text/html,application/xhtml xml,application/xml;q=0.9,image/webp,image/apng,*/*;q=0.8",
"Accept-Encoding":"gzip, deflate",
"Accept-Language":"zh-CN,zh;q=0.9",
"Cache-Control":"max-age=0",
"User-Agent":"Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/71.0.3578.98 Safari/537.36"})
r.encoding='gb2312'
t2 = time.time()
print(r.text)
print("时间差:" , (t2 - t1));
打印的内容包含了请求ip地址,发现该地址变成了代理ip,而不是自己的本机ip了。
这篇好文章是转载于:学新通技术网
- 版权申明: 本站部分内容来自互联网,仅供学习及演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,请提供相关证据及您的身份证明,我们将在收到邮件后48小时内删除。
- 本站站名: 学新通技术网
- 本文地址: /boutique/detail/tanhhabhbc
系列文章
更多
同类精品
更多
-
photoshop保存的图片太大微信发不了怎么办
PHP中文网 06-15 -
word里面弄一个表格后上面的标题会跑到下面怎么办
PHP中文网 06-20 -
《学习通》视频自动暂停处理方法
HelloWorld317 07-05 -
photoshop扩展功能面板显示灰色怎么办
PHP中文网 06-14 -
Android 11 保存文件到外部存储,并分享文件
Luke 10-12 -
微信公众号没有声音提示怎么办
PHP中文网 03-31 -
TikTok加速器哪个好免费的TK加速器推荐
TK小达人 10-01 -
excel下划线不显示怎么办
PHP中文网 06-23 -
excel打印预览压线压字怎么办
PHP中文网 06-22 -
怎样阻止微信小程序自动打开
PHP中文网 06-13