- 在线时间
- 1630 小时
- 最后登录
- 2024-1-29
- 注册时间
- 2017-5-16
- 听众数
- 82
- 收听数
- 1
- 能力
- 120 分
- 体力
- 558577 点
- 威望
- 12 点
- 阅读权限
- 255
- 积分
- 172946
- 相册
- 1
- 日志
- 0
- 记录
- 0
- 帖子
- 5313
- 主题
- 5273
- 精华
- 18
- 分享
- 0
- 好友
- 163
TA的每日心情 | 开心 2021-8-11 17:59 |
|---|
签到天数: 17 天 [LV.4]偶尔看看III 网络挑战赛参赛者 网络挑战赛参赛者 - 自我介绍
- 本人女,毕业于内蒙古科技大学,担任文职专业,毕业专业英语。
 群组: 2018美赛大象算法课程 群组: 2018美赛护航培训课程 群组: 2019年 数学中国站长建 群组: 2019年数据分析师课程 群组: 2018年大象老师国赛优 |
/ E" W4 \/ f4 k" Q6 r; u8 ~
Python爬虫常用小技巧之设置代理IP
F: B# o5 U- [9 b5 m! d" U& t4 R; c* e6 Z+ B h+ n$ i
设置代理IP的原因
$ G! I% }3 C" I+ h; P我们在使用Python爬虫爬取一个网站时,通常会频繁访问该网站。假如一个网站它会检测某一段时间某个IP的访问次数,如果访问次数过多,它会禁止你的访问。所以你可以设置一些代理服务器来帮助你做工作,每隔一段时间换一个代理,这样便不会出现因为频繁访问而导致禁止访问的现象。
4 n: ~7 ], b2 ?我们在学习Python爬虫的时候,也经常会遇见所要爬取的网站采取了反爬取技术导致爬取失败。高强度、高效率地爬取网页信息常常会给网站服务器带来巨大压力,所以同一个IP反复爬取同一个网页,就很可能被封,所以下面这篇文章讲述一个爬虫技巧,设置代理IP' p- q% D0 f( D/ J" B, i+ f% E
代理的获取有很多方式,网上有很多免费的可以去爬取一些试试,但是免费的代理使用起来也是 很吃力的。还有就是现在网上有很多的代理供应商,可以在网上寻找下,然后找家靠谱的使用。毕竟网络太大了,代理供应商肯定也是参差不齐的,所以找到合适的代理还是需要花点时间的。在这里我就是使用了我们长期使用的一家质量好的代理,亿牛云代理,而且是使用的他们的爬虫代理(动态转发)和一般的api模式不一样。这种更简单更方便,对于懒人来说绝对是最佳选择。$ _* ?8 |+ V- x2 |
具体代码的使用' b/ `. r% f' f& C0 t2 \# n
#! -*- encoding:utf-8 -*-$ m* C' z8 k( v1 [. T2 t3 ]% u
* I0 r8 @- g4 d/ r# R5 W
import requests$ I5 x& i8 `) G5 x
import random' ]( ?, T0 M9 m( F5 f/ c5 T
4 j7 k" P' ?, e# U9 @0 x4 I # 要访问的目标页面" l E$ o& q+ N* [4 p4 |
targetUrl = "http://httpbin.org/ip"
" t% ?3 ~4 n5 r+ _, U- e: I2 u4 K+ C4 G: `$ X( Z9 g
# 要访问的目标HTTPS页面+ E* ~( [) C' a2 ?6 }
# targetUrl = "https://httpbin.org/ip"1 [+ R( _0 Z3 H- _2 }/ U( q
4 r( g5 w# B$ \6 ~( }! W `
# 代理服务器2 ^' ?8 h: x, w' {
proxyHost = "t.16yun.cn"0 a' Q; K+ G3 W/ u: T8 w( ]9 c' i
proxyPort = "31111"
1 g1 L. U1 r% ?: Y1 z: Q( p* ^- D4 h; A2 U9 y1 k
# 代理隧道验证信息
3 m% n9 g1 N) q0 O0 h9 z1 } proxyUser = "username"7 t0 U+ o j' q" v& v. e8 K, z
proxyPass = "password"
4 N3 q" ^$ m4 u1 U
) O& \5 V; ?/ p9 y' T0 Z$ L) T proxyMeta = "http://%(user)s:%(pass)s@%(host)s:%(port)s" % {5 ?( N& F6 e; C7 K9 O& i5 l; o$ I
"host" : proxyHost,3 V g% i) g. Z" t7 [4 X2 j
"port" : proxyPort,
6 b- I6 `/ H) L "user" : proxyUser,
. d. b" E" t9 q" T( X5 w0 S "pass" : proxyPass,9 i/ c0 D8 O1 @2 O; L/ m
}. K4 x. L+ J% h9 a, c1 U9 c
6 k6 K2 ^4 d! U+ p8 v # 设置 http和https访问都是用HTTP代理
1 K& V( T: |* V8 N' e+ B proxies = {* L1 i- N/ g) `5 n& w
"http" : proxyMeta,! O; q# T/ [5 r
"https" : proxyMeta,$ @& S1 W6 S# X4 {' A
}8 t5 v# N0 \% t- X ]4 u+ y$ O
Z |! e/ G9 x3 p; ]
- ]7 s; t) f3 t* X( y8 H2 T6 i- N
# 设置IP切换头0 z* h# L2 Y' o6 {
tunnel = random.randint(1,10000)
/ Q* ?5 C8 V0 ]' L5 ~ headers = {"Proxy-Tunnel": str(tunnel)}
1 l- f6 x: a" D+ v resp = requests.get(targetUrl, proxies=proxies, headers=headers)
$ y3 u0 o2 ?0 m2 I) e/ R
. ^6 Q1 {8 I2 w; |! E4 A" U* X5 ]' f print resp.status_code
7 [4 u, Q2 I4 {: D I print resp.text B6 p/ r% |7 t* \$ q/ a7 t- I
总结
' L# D) d& @) t8 z' k以上就是这篇文章的全部内容了,希望本文的内容对大家的学习或者工作具有一定的参考学习价值,如果有疑问大家可以留言交流: n" F9 ^, z9 c
( T1 K* P5 }% O+ x9 M8 R
|
zan
|