- 在线时间
- 1630 小时
- 最后登录
- 2024-1-29
- 注册时间
- 2017-5-16
- 听众数
- 82
- 收听数
- 1
- 能力
- 120 分
- 体力
- 563402 点
- 威望
- 12 点
- 阅读权限
- 255
- 积分
- 174243
- 相册
- 1
- 日志
- 0
- 记录
- 0
- 帖子
- 5313
- 主题
- 5273
- 精华
- 3
- 分享
- 0
- 好友
- 163
TA的每日心情 | 开心 2021-8-11 17:59 |
|---|
签到天数: 17 天 [LV.4]偶尔看看III 网络挑战赛参赛者 网络挑战赛参赛者 - 自我介绍
- 本人女,毕业于内蒙古科技大学,担任文职专业,毕业专业英语。
 群组: 2018美赛大象算法课程 群组: 2018美赛护航培训课程 群组: 2019年 数学中国站长建 群组: 2019年数据分析师课程 群组: 2018年大象老师国赛优 |
d: ~7 `& D) OPython爬虫常用小技巧之设置代理IP 7 ?# P# X# I5 L+ O' T8 \# M* p
) v( S0 M$ q8 ?) a
设置代理IP的原因+ @ U4 x) H& v/ ]8 a
我们在使用Python爬虫爬取一个网站时,通常会频繁访问该网站。假如一个网站它会检测某一段时间某个IP的访问次数,如果访问次数过多,它会禁止你的访问。所以你可以设置一些代理服务器来帮助你做工作,每隔一段时间换一个代理,这样便不会出现因为频繁访问而导致禁止访问的现象。, s6 r! o" p+ }6 M7 o. r9 K% N. A
我们在学习Python爬虫的时候,也经常会遇见所要爬取的网站采取了反爬取技术导致爬取失败。高强度、高效率地爬取网页信息常常会给网站服务器带来巨大压力,所以同一个IP反复爬取同一个网页,就很可能被封,所以下面这篇文章讲述一个爬虫技巧,设置代理IP9 y& ?4 w3 T8 @& F* t
代理的获取有很多方式,网上有很多免费的可以去爬取一些试试,但是免费的代理使用起来也是 很吃力的。还有就是现在网上有很多的代理供应商,可以在网上寻找下,然后找家靠谱的使用。毕竟网络太大了,代理供应商肯定也是参差不齐的,所以找到合适的代理还是需要花点时间的。在这里我就是使用了我们长期使用的一家质量好的代理,亿牛云代理,而且是使用的他们的爬虫代理(动态转发)和一般的api模式不一样。这种更简单更方便,对于懒人来说绝对是最佳选择。% r+ ^: M& X2 Q2 O0 W
具体代码的使用$ u* g! {6 O. v
#! -*- encoding:utf-8 -*-7 |' l5 t# x9 }1 ?/ ^/ J
% h0 B; j. E/ G2 ~ import requests
2 |: p, A- @) M5 q import random
) K7 [ [3 o% J# L s
* F) S6 E6 c5 A5 J4 i8 |# O # 要访问的目标页面
2 S) O5 _8 A+ h% g targetUrl = "http://httpbin.org/ip"3 z4 _ x( \5 _% S3 v. J+ c
9 Y; ^* b, X. i4 w # 要访问的目标HTTPS页面
$ l6 j; b2 o9 [9 s # targetUrl = "https://httpbin.org/ip"% ?) I6 U8 ?4 n, G$ w+ E( J
0 X* v, w5 }/ p/ q
# 代理服务器
; t+ t0 P1 [1 Y( ~7 y* m4 i/ g8 w proxyHost = "t.16yun.cn"0 P6 J/ R# u" W# e$ K
proxyPort = "31111"" p# u, B: P! z1 n$ e; z
/ x5 C' Q1 |: W5 m A
# 代理隧道验证信息
) v4 J; ]) i% |* q7 p proxyUser = "username"$ h+ J- g- A- Y1 |* ?
proxyPass = "password"$ _$ r+ B r! I8 d5 R
P# P8 `! A7 m( e5 X proxyMeta = "http://%(user)s:%(pass)s@%(host)s:%(port)s" % {
( h/ a4 B1 ^2 q3 K3 l3 | "host" : proxyHost,
6 ~* {1 C6 q, A7 N$ W "port" : proxyPort,& ~# _( O! k" ~& q! E' H3 \7 v
"user" : proxyUser,8 X+ K! L& h' c1 |
"pass" : proxyPass,
, |* @7 f% Q. e( x/ j }5 w) ?) \" h1 Z0 X! b _ k
6 X0 q- g3 o5 b0 t5 ^
# 设置 http和https访问都是用HTTP代理; x6 l4 w% ]) f' V" I& M$ V
proxies = {
/ M" X& _4 t! M- ~ "http" : proxyMeta,
" v' L; M; T3 X "https" : proxyMeta,8 }0 z7 \" l; v0 l1 g
}
% F& i. @, G* \. s: u" `( J7 B' k
: [) z/ N, P. ?; D) Z8 a
# 设置IP切换头
1 \- J) Q( [4 C7 ?7 T' K tunnel = random.randint(1,10000)
% C0 I# S& B- R9 y; K1 }: ` headers = {"Proxy-Tunnel": str(tunnel)}" T3 |! K/ x9 f( }2 N
resp = requests.get(targetUrl, proxies=proxies, headers=headers)
8 J1 Q, p" L8 s
) H* W' Q4 ] r* j2 U4 P print resp.status_code
0 |0 n' A, H5 {+ Y print resp.text
. h1 T5 e' G1 h$ r2 u# o* m总结% @* q& x6 K) g: j! U2 n9 {+ a
以上就是这篇文章的全部内容了,希望本文的内容对大家的学习或者工作具有一定的参考学习价值,如果有疑问大家可以留言交流+ B9 y m. |3 G! F) p3 Y
* z7 H4 Y9 @) T# r }: Q |
zan
|