- 在线时间
- 1630 小时
- 最后登录
- 2024-1-29
- 注册时间
- 2017-5-16
- 听众数
- 82
- 收听数
- 1
- 能力
- 120 分
- 体力
- 559123 点
- 威望
- 12 点
- 阅读权限
- 255
- 积分
- 173110
- 相册
- 1
- 日志
- 0
- 记录
- 0
- 帖子
- 5313
- 主题
- 5273
- 精华
- 18
- 分享
- 0
- 好友
- 163
TA的每日心情 | 开心 2021-8-11 17:59 |
---|
签到天数: 17 天 [LV.4]偶尔看看III 网络挑战赛参赛者 网络挑战赛参赛者 - 自我介绍
- 本人女,毕业于内蒙古科技大学,担任文职专业,毕业专业英语。
 群组: 2018美赛大象算法课程 群组: 2018美赛护航培训课程 群组: 2019年 数学中国站长建 群组: 2019年数据分析师课程 群组: 2018年大象老师国赛优 |
9 G2 c4 ?8 H4 D! ]& V
Python爬虫常用小技巧之设置代理IP
# d2 E7 d; x) Z. M$ n T( x% [( R0 p; d2 Z/ Q$ a
设置代理IP的原因
" O1 F2 }* Z: a* \0 L/ _- Z4 J我们在使用Python爬虫爬取一个网站时,通常会频繁访问该网站。假如一个网站它会检测某一段时间某个IP的访问次数,如果访问次数过多,它会禁止你的访问。所以你可以设置一些代理服务器来帮助你做工作,每隔一段时间换一个代理,这样便不会出现因为频繁访问而导致禁止访问的现象。
% |. c$ P1 c7 g( J7 q& C' W7 r) h我们在学习Python爬虫的时候,也经常会遇见所要爬取的网站采取了反爬取技术导致爬取失败。高强度、高效率地爬取网页信息常常会给网站服务器带来巨大压力,所以同一个IP反复爬取同一个网页,就很可能被封,所以下面这篇文章讲述一个爬虫技巧,设置代理IP- [" N+ r1 y2 q! W8 Y# u
代理的获取有很多方式,网上有很多免费的可以去爬取一些试试,但是免费的代理使用起来也是 很吃力的。还有就是现在网上有很多的代理供应商,可以在网上寻找下,然后找家靠谱的使用。毕竟网络太大了,代理供应商肯定也是参差不齐的,所以找到合适的代理还是需要花点时间的。在这里我就是使用了我们长期使用的一家质量好的代理,亿牛云代理,而且是使用的他们的爬虫代理(动态转发)和一般的api模式不一样。这种更简单更方便,对于懒人来说绝对是最佳选择。
) K! O& @4 m$ e6 g3 G具体代码的使用
0 [' W6 U, B" Z+ K- T0 |#! -*- encoding:utf-8 -*-2 W6 K. e; V* ^
d- t, s9 R( c! U9 Y import requests
. P* R' U( B7 q6 v4 g import random
9 ^; \2 ?7 d! G) E7 U8 y. y
0 Y! L7 r( t8 h0 B; E' V # 要访问的目标页面/ f5 [* d' S9 x* I! U+ E
targetUrl = "http://httpbin.org/ip"
) r' O5 G% l9 r; _3 V8 `$ `5 E* \. H8 T4 B" c' }
# 要访问的目标HTTPS页面9 ]# A$ {' P* E
# targetUrl = "https://httpbin.org/ip"' D( {" ^3 W. R- O" n. D0 P
3 ^# _; s' h: x2 o0 Z6 f5 Z8 }2 p # 代理服务器
$ ~7 Q: Q7 K- O9 E v proxyHost = "t.16yun.cn". e( V2 G( I$ o# P2 M6 H, E
proxyPort = "31111"
: U8 S- o+ V3 w( Q8 A) p. P" }9 s( E4 ]# B" @6 S% c2 u( P3 E
# 代理隧道验证信息
/ v( ~8 i6 V1 @1 `# \( D6 l7 U proxyUser = "username"
: p7 Q, ]$ y* R9 Z proxyPass = "password"
" V$ _; p0 J; H2 j& X
9 P' p9 B8 W; l proxyMeta = "http://%(user)s:%(pass)s@%(host)s:%(port)s" % {
/ {9 O/ I+ `5 |: o1 Z7 Q4 E "host" : proxyHost,
0 T2 B8 K; N3 M! _' [7 V "port" : proxyPort,6 P+ y1 {: P% n- G: g+ D2 L A
"user" : proxyUser,
& n s7 {$ F6 V. N% H4 q6 _ "pass" : proxyPass,5 B0 M/ E2 n4 Z& b p1 v
}' E @# M; G* g/ O
8 Y5 Q; F3 p* i+ Z& S # 设置 http和https访问都是用HTTP代理0 N& p( b+ T8 ^" }0 J2 o) ?
proxies = {3 @+ B+ C+ c2 E7 X
"http" : proxyMeta,
: f1 S2 @# A+ W) `- {0 \ "https" : proxyMeta,
1 M. s( k, M; ^; c4 K2 J1 x }2 ?& f4 `8 b1 |" H- J/ A' w
8 X/ v3 g6 T% [* r& e* k6 ~; r* i. ~, l! B" E3 p) r
# 设置IP切换头' i) D) K1 `# P$ O: T- V# V! [' u: {
tunnel = random.randint(1,10000)
. ~4 U- R8 D% J$ N headers = {"Proxy-Tunnel": str(tunnel)}" S, f7 d1 m7 e; r4 Z
resp = requests.get(targetUrl, proxies=proxies, headers=headers)* e, Z: Z, W9 v' ~( [# e, j2 \7 p
& n7 M) s5 {. i7 c2 A' c( K" V
print resp.status_code( h7 w H' j! P9 ^" d- E- l
print resp.text9 I# ^# r& e' @
总结
" ^) ~3 F5 | u6 W E; r以上就是这篇文章的全部内容了,希望本文的内容对大家的学习或者工作具有一定的参考学习价值,如果有疑问大家可以留言交流$ w) Z/ h% A' N; f
! T0 s4 ~( }1 D% L' n+ x
|
zan
|