- 在线时间
- 1630 小时
- 最后登录
- 2024-1-29
- 注册时间
- 2017-5-16
- 听众数
- 82
- 收听数
- 1
- 能力
- 120 分
- 体力
- 563412 点
- 威望
- 12 点
- 阅读权限
- 255
- 积分
- 174246
- 相册
- 1
- 日志
- 0
- 记录
- 0
- 帖子
- 5313
- 主题
- 5273
- 精华
- 3
- 分享
- 0
- 好友
- 163
TA的每日心情 | 开心 2021-8-11 17:59 |
|---|
签到天数: 17 天 [LV.4]偶尔看看III 网络挑战赛参赛者 网络挑战赛参赛者 - 自我介绍
- 本人女,毕业于内蒙古科技大学,担任文职专业,毕业专业英语。
 群组: 2018美赛大象算法课程 群组: 2018美赛护航培训课程 群组: 2019年 数学中国站长建 群组: 2019年数据分析师课程 群组: 2018年大象老师国赛优 |
1 q! x' A8 t0 e4 n9 |: `. Y% jPython爬虫常用小技巧之设置代理IP : |% I+ T! r+ {! ]" O# {
- ?: G2 U* R8 x0 K& `/ s设置代理IP的原因$ i; {& T' c1 D4 [+ j K
我们在使用Python爬虫爬取一个网站时,通常会频繁访问该网站。假如一个网站它会检测某一段时间某个IP的访问次数,如果访问次数过多,它会禁止你的访问。所以你可以设置一些代理服务器来帮助你做工作,每隔一段时间换一个代理,这样便不会出现因为频繁访问而导致禁止访问的现象。1 `- o1 o3 r2 z! s$ x" Q# N+ \
我们在学习Python爬虫的时候,也经常会遇见所要爬取的网站采取了反爬取技术导致爬取失败。高强度、高效率地爬取网页信息常常会给网站服务器带来巨大压力,所以同一个IP反复爬取同一个网页,就很可能被封,所以下面这篇文章讲述一个爬虫技巧,设置代理IP# Y, X: }( n5 S% W6 K: U
代理的获取有很多方式,网上有很多免费的可以去爬取一些试试,但是免费的代理使用起来也是 很吃力的。还有就是现在网上有很多的代理供应商,可以在网上寻找下,然后找家靠谱的使用。毕竟网络太大了,代理供应商肯定也是参差不齐的,所以找到合适的代理还是需要花点时间的。在这里我就是使用了我们长期使用的一家质量好的代理,亿牛云代理,而且是使用的他们的爬虫代理(动态转发)和一般的api模式不一样。这种更简单更方便,对于懒人来说绝对是最佳选择。
5 a9 ?3 R3 d6 T+ k, t, z, P3 A具体代码的使用1 k) x d1 ]& m8 n! s, H6 {) R
#! -*- encoding:utf-8 -*-
1 m) i( C# o! c* u% _( ^8 E5 i0 H4 m! e' L h; L7 Y4 z \6 A
import requests
- w6 |6 f, ]' e/ ~! } import random
) y& Y* ~/ W/ |, q
* K3 c' A; ]* j8 l* z # 要访问的目标页面) \2 r) T2 o; H5 P. B0 l n
targetUrl = "http://httpbin.org/ip"% n6 ?, E. |9 r+ B
/ ]2 N3 I% e7 j # 要访问的目标HTTPS页面4 ?8 i4 ?4 e$ D, u h8 g- J% @
# targetUrl = "https://httpbin.org/ip"$ H! h+ x) x* J, i8 v" o* s
/ r4 d, j1 r- d% L4 p* D$ p( }# z # 代理服务器* J* _- B2 M! c6 A8 o F6 T
proxyHost = "t.16yun.cn", f8 \& Y/ e6 i+ z% n+ {4 [
proxyPort = "31111"
* R6 J& j2 {, P: z3 p( u/ e B# H) f
# 代理隧道验证信息2 F6 Q Q1 g+ X; p8 t) t
proxyUser = "username"6 j7 F! U1 e8 E v
proxyPass = "password"( m9 n2 Y8 P$ S# e5 p8 L
8 B/ |! r% R: x$ {0 K" l6 o
proxyMeta = "http://%(user)s:%(pass)s@%(host)s:%(port)s" % {( e2 v% M, D& M8 y" S& z7 n% i$ M: _
"host" : proxyHost,
3 Q1 M8 f; B8 G: J1 W5 e "port" : proxyPort,
7 p s# X1 B, Z6 R+ a p+ N( N( q "user" : proxyUser,
j: O$ d7 K; M; K- [- n9 T# R "pass" : proxyPass,2 k* m9 q+ X( E2 C/ N
}
! B+ l: ~ s' o5 Q$ z" z) b, n3 i2 s, W& I: j
# 设置 http和https访问都是用HTTP代理7 A( y! G9 D) w4 W1 Z4 _" }( V3 Y9 s
proxies = {* {* Z! L( a& i1 n! t. R+ d
"http" : proxyMeta,8 ?/ U. o' {/ I2 @* a( ?% y
"https" : proxyMeta,
- d5 R* |, |0 i/ ~6 ~# f6 ` }
l; J# d$ x: C4 _$ h( I: b3 y$ J3 ] M: k' [) K
0 G7 v) q) {* ^8 \
# 设置IP切换头
* G' o9 w9 S" Y2 I- {; } tunnel = random.randint(1,10000)& ^% a9 I( } M. J5 y5 f
headers = {"Proxy-Tunnel": str(tunnel)}
5 W& M% F5 F6 j+ h resp = requests.get(targetUrl, proxies=proxies, headers=headers)+ T: {5 S4 J% Y. C' G: P
% g# c% ^) i3 h+ B4 ?. _
print resp.status_code
t! t% W& q; D2 a7 X h, j print resp.text
# J5 w' I3 S- U1 D: i总结3 B' a8 b( @6 A6 Z+ y1 U% V7 {
以上就是这篇文章的全部内容了,希望本文的内容对大家的学习或者工作具有一定的参考学习价值,如果有疑问大家可以留言交流7 W5 L& M H: V: }3 x. f- X
+ z _+ x# i' [ u6 O |
zan
|