- 在线时间
- 1630 小时
- 最后登录
- 2024-1-29
- 注册时间
- 2017-5-16
- 听众数
- 82
- 收听数
- 1
- 能力
- 120 分
- 体力
- 563368 点
- 威望
- 12 点
- 阅读权限
- 255
- 积分
- 174233
- 相册
- 1
- 日志
- 0
- 记录
- 0
- 帖子
- 5313
- 主题
- 5273
- 精华
- 3
- 分享
- 0
- 好友
- 163
TA的每日心情 | 开心 2021-8-11 17:59 |
|---|
签到天数: 17 天 [LV.4]偶尔看看III 网络挑战赛参赛者 网络挑战赛参赛者 - 自我介绍
- 本人女,毕业于内蒙古科技大学,担任文职专业,毕业专业英语。
 群组: 2018美赛大象算法课程 群组: 2018美赛护航培训课程 群组: 2019年 数学中国站长建 群组: 2019年数据分析师课程 群组: 2018年大象老师国赛优 |
6 ~1 v3 D; V/ U% R, ePython爬虫常用小技巧之设置代理IP
8 Z1 y/ P- F" y0 ~2 {+ y! K- P8 J& k1 P! w4 j
设置代理IP的原因
! `2 W, Y: M3 u) N6 v我们在使用Python爬虫爬取一个网站时,通常会频繁访问该网站。假如一个网站它会检测某一段时间某个IP的访问次数,如果访问次数过多,它会禁止你的访问。所以你可以设置一些代理服务器来帮助你做工作,每隔一段时间换一个代理,这样便不会出现因为频繁访问而导致禁止访问的现象。/ p# |4 h. [% ]
我们在学习Python爬虫的时候,也经常会遇见所要爬取的网站采取了反爬取技术导致爬取失败。高强度、高效率地爬取网页信息常常会给网站服务器带来巨大压力,所以同一个IP反复爬取同一个网页,就很可能被封,所以下面这篇文章讲述一个爬虫技巧,设置代理IP" O! k# Y; I7 d" i
代理的获取有很多方式,网上有很多免费的可以去爬取一些试试,但是免费的代理使用起来也是 很吃力的。还有就是现在网上有很多的代理供应商,可以在网上寻找下,然后找家靠谱的使用。毕竟网络太大了,代理供应商肯定也是参差不齐的,所以找到合适的代理还是需要花点时间的。在这里我就是使用了我们长期使用的一家质量好的代理,亿牛云代理,而且是使用的他们的爬虫代理(动态转发)和一般的api模式不一样。这种更简单更方便,对于懒人来说绝对是最佳选择。( [& z6 G$ W1 Z/ l' _
具体代码的使用
6 A- r2 z" F/ A w }#! -*- encoding:utf-8 -*-/ V. b5 Z0 q8 U7 H% R5 ?, F" K
. z; P' R9 b5 l4 y# B
import requests; [' w% Z0 r" t% ^
import random( x; H J& \0 W! k [) j/ C
. k. z1 N; C8 ]% e # 要访问的目标页面
% N0 e7 ^- S5 _! H! a+ p. v# { targetUrl = "http://httpbin.org/ip"0 E. e' F& W4 U9 l1 @
. v1 r0 i% J, ?* a. f' K # 要访问的目标HTTPS页面
1 Y& k7 V4 g1 V$ n% x# O # targetUrl = "https://httpbin.org/ip"
: @$ {- W0 P+ g$ I/ l! A2 K0 y
. q L/ q y& a- u* ?& M+ g # 代理服务器- G- |$ m! z# N" u/ S# T: k" K+ n
proxyHost = "t.16yun.cn"( _3 c/ f+ I k; S
proxyPort = "31111"
( T3 k% t) [9 |& H) ]0 }$ i6 I; j3 j0 c4 K. l' Q- d8 [
# 代理隧道验证信息
1 k0 K/ V+ L$ Z* x6 ~; \3 A proxyUser = "username"
6 N0 A: n1 A% H* A proxyPass = "password"% l$ e! v! I$ t: `& \) K
* L/ Q, |/ P9 o7 M proxyMeta = "http://%(user)s:%(pass)s@%(host)s:%(port)s" % {% t6 V5 R! l9 J
"host" : proxyHost,
7 Q" k) b7 e6 \6 @+ Z6 L "port" : proxyPort,+ i x; {, d) C% g1 @
"user" : proxyUser,* F$ h/ p) `' u. I* ^ Z
"pass" : proxyPass,
# l* d3 d- i1 ]" R }
! Z0 @8 ^9 j6 W/ e) f+ y+ q( a# D$ t3 t( {( E
# 设置 http和https访问都是用HTTP代理
1 s5 | Y7 d( a% T proxies = { {6 y/ w+ h* B8 a4 L+ ~3 H
"http" : proxyMeta,& P w. F/ @) ^9 {; g
"https" : proxyMeta, g5 }, N! s) {( Z D& ^
}( {% |# V, W2 ]# m r6 T3 s) m: l
* p/ H4 t4 B& m' _; F+ G3 q
* A) b( c4 q' X, y; i- ~% m # 设置IP切换头9 Y" H: L! ^) S- t8 w, a
tunnel = random.randint(1,10000)
; a4 T8 E9 `5 a9 l headers = {"Proxy-Tunnel": str(tunnel)}
5 k$ p6 c, B& g1 ^' r: } resp = requests.get(targetUrl, proxies=proxies, headers=headers)
+ G7 w5 f; @' E' m; X1 l8 w- L, y
2 ]% ^7 b' |9 l- e! M) W- |+ z print resp.status_code3 |! K$ D) K# ` T7 h% { Q
print resp.text
! _% X9 o( Y+ p8 w! I总结4 Z% M- B( S+ W9 O
以上就是这篇文章的全部内容了,希望本文的内容对大家的学习或者工作具有一定的参考学习价值,如果有疑问大家可以留言交流 a- N- `5 z- D
! X; Y1 t2 [, p- ~+ Z
|
zan
|