- 在线时间
- 1630 小时
- 最后登录
- 2024-1-29
- 注册时间
- 2017-5-16
- 听众数
- 82
- 收听数
- 1
- 能力
- 120 分
- 体力
- 563391 点
- 威望
- 12 点
- 阅读权限
- 255
- 积分
- 174240
- 相册
- 1
- 日志
- 0
- 记录
- 0
- 帖子
- 5313
- 主题
- 5273
- 精华
- 3
- 分享
- 0
- 好友
- 163
TA的每日心情 | 开心 2021-8-11 17:59 |
|---|
签到天数: 17 天 [LV.4]偶尔看看III 网络挑战赛参赛者 网络挑战赛参赛者 - 自我介绍
- 本人女,毕业于内蒙古科技大学,担任文职专业,毕业专业英语。
 群组: 2018美赛大象算法课程 群组: 2018美赛护航培训课程 群组: 2019年 数学中国站长建 群组: 2019年数据分析师课程 群组: 2018年大象老师国赛优 |
: _' N7 O' t) R5 D' ?; UPython爬虫常用小技巧之设置代理IP
* b$ S9 h2 i" y2 y p0 |" V
+ |- K f* R- C设置代理IP的原因
% F( S. `' d: O+ W4 o我们在使用Python爬虫爬取一个网站时,通常会频繁访问该网站。假如一个网站它会检测某一段时间某个IP的访问次数,如果访问次数过多,它会禁止你的访问。所以你可以设置一些代理服务器来帮助你做工作,每隔一段时间换一个代理,这样便不会出现因为频繁访问而导致禁止访问的现象。6 q6 t1 Y1 A, Y$ |
我们在学习Python爬虫的时候,也经常会遇见所要爬取的网站采取了反爬取技术导致爬取失败。高强度、高效率地爬取网页信息常常会给网站服务器带来巨大压力,所以同一个IP反复爬取同一个网页,就很可能被封,所以下面这篇文章讲述一个爬虫技巧,设置代理IP
2 ~+ d* @) [; B代理的获取有很多方式,网上有很多免费的可以去爬取一些试试,但是免费的代理使用起来也是 很吃力的。还有就是现在网上有很多的代理供应商,可以在网上寻找下,然后找家靠谱的使用。毕竟网络太大了,代理供应商肯定也是参差不齐的,所以找到合适的代理还是需要花点时间的。在这里我就是使用了我们长期使用的一家质量好的代理,亿牛云代理,而且是使用的他们的爬虫代理(动态转发)和一般的api模式不一样。这种更简单更方便,对于懒人来说绝对是最佳选择。- H7 S3 e; W. `- Z
具体代码的使用 y; u' `# ?8 {4 N
#! -*- encoding:utf-8 -*-
. ~0 F1 p3 W/ f; ?2 I
9 @" V$ s0 P- s0 C) v9 z: { import requests
' z; R6 b$ ?1 o8 J import random/ g% E5 r, E# [3 t% N% S) b
; g1 D$ `/ t6 z8 _ # 要访问的目标页面
& `* z# a, E* q9 n4 D) Z targetUrl = "http://httpbin.org/ip"
" {2 O3 [4 O. w) Q$ }
& T5 X& @& x& t9 h. H) s, C8 P # 要访问的目标HTTPS页面
$ X- J( m4 Q3 V! j1 @# _& a # targetUrl = "https://httpbin.org/ip"
+ W0 e% U' d9 Z$ c
1 t5 ^1 G4 l$ D5 R3 ]: X( G. r& W" x # 代理服务器
" n/ { X8 G6 d% ]$ u$ e proxyHost = "t.16yun.cn"9 E# W' z9 }# Q' l, ~
proxyPort = "31111"
/ ^& V& R# E' A. h) e* V; l2 f* L- i. v
# 代理隧道验证信息
; J* T+ B0 @" g; x S0 H proxyUser = "username"
0 r- H- i* e* W& w7 ^ proxyPass = "password"
+ j6 C, w' f- W% N/ g' V
5 \$ s$ G0 N2 ^1 ]8 G }5 L proxyMeta = "http://%(user)s:%(pass)s@%(host)s:%(port)s" % {
2 T9 I+ D( |$ f5 \! y "host" : proxyHost,0 e9 ~8 Z7 o8 y8 ?* J
"port" : proxyPort,9 k" |: V3 I, x& w7 Y7 P8 R
"user" : proxyUser,% ^/ R x9 L! K3 f/ b8 _9 L% E. |8 h
"pass" : proxyPass,; A8 p8 [) W: F# A! P: x; j
}! @7 h: T, K7 ]) Q/ b$ M
) I, H% u `: }1 U8 d; F/ w) Q
# 设置 http和https访问都是用HTTP代理1 X* X3 w* M. s* P+ S. o0 Q
proxies = {/ v/ j0 V' ?5 [1 I) R# Y$ s! d; u
"http" : proxyMeta,
2 `+ U1 V" s* y! G "https" : proxyMeta,) Y4 O" A% r8 S# J$ G+ r
}" G. F r) h- C; [7 A) l# c
2 u% ]) W9 `" l
# ]* ^ I8 M& c5 |6 Y/ I
# 设置IP切换头$ _) _- u( g" T" D, o) `3 y
tunnel = random.randint(1,10000)
- `% Q2 W0 n/ D9 g$ \ headers = {"Proxy-Tunnel": str(tunnel)}
/ C t- ~- n* `4 w# u6 X( i8 _* h resp = requests.get(targetUrl, proxies=proxies, headers=headers)1 p# f" I0 L" u* n, k; |
, o% O4 k l& i; j8 V, x p4 r
print resp.status_code6 N) s( P6 T5 a, G
print resp.text i. |+ j% L2 a! ^
总结2 x6 @( O. X. a! z. _3 O- k
以上就是这篇文章的全部内容了,希望本文的内容对大家的学习或者工作具有一定的参考学习价值,如果有疑问大家可以留言交流
4 Y2 b$ j3 d; H/ G$ b: l Q$ I4 J7 r; ^6 w2 ~( O: p- {
|
zan
|