- 在线时间
- 1630 小时
- 最后登录
- 2024-1-29
- 注册时间
- 2017-5-16
- 听众数
- 82
- 收听数
- 1
- 能力
- 120 分
- 体力
- 563371 点
- 威望
- 12 点
- 阅读权限
- 255
- 积分
- 174234
- 相册
- 1
- 日志
- 0
- 记录
- 0
- 帖子
- 5313
- 主题
- 5273
- 精华
- 3
- 分享
- 0
- 好友
- 163
TA的每日心情 | 开心 2021-8-11 17:59 |
|---|
签到天数: 17 天 [LV.4]偶尔看看III 网络挑战赛参赛者 网络挑战赛参赛者 - 自我介绍
- 本人女,毕业于内蒙古科技大学,担任文职专业,毕业专业英语。
 群组: 2018美赛大象算法课程 群组: 2018美赛护航培训课程 群组: 2019年 数学中国站长建 群组: 2019年数据分析师课程 群组: 2018年大象老师国赛优 |
9 m: q+ E) R% F- WPython爬虫常用小技巧之设置代理IP + M' J" q; e; v( Y8 X5 x+ n, e
% j' U( Q7 F c$ T6 d) s设置代理IP的原因
. i# S, t/ i9 G. o" v k3 L) M我们在使用Python爬虫爬取一个网站时,通常会频繁访问该网站。假如一个网站它会检测某一段时间某个IP的访问次数,如果访问次数过多,它会禁止你的访问。所以你可以设置一些代理服务器来帮助你做工作,每隔一段时间换一个代理,这样便不会出现因为频繁访问而导致禁止访问的现象。( |: E3 L1 d) H5 j9 p9 w
我们在学习Python爬虫的时候,也经常会遇见所要爬取的网站采取了反爬取技术导致爬取失败。高强度、高效率地爬取网页信息常常会给网站服务器带来巨大压力,所以同一个IP反复爬取同一个网页,就很可能被封,所以下面这篇文章讲述一个爬虫技巧,设置代理IP
& K: S' T1 \, J3 w- q9 U8 ^代理的获取有很多方式,网上有很多免费的可以去爬取一些试试,但是免费的代理使用起来也是 很吃力的。还有就是现在网上有很多的代理供应商,可以在网上寻找下,然后找家靠谱的使用。毕竟网络太大了,代理供应商肯定也是参差不齐的,所以找到合适的代理还是需要花点时间的。在这里我就是使用了我们长期使用的一家质量好的代理,亿牛云代理,而且是使用的他们的爬虫代理(动态转发)和一般的api模式不一样。这种更简单更方便,对于懒人来说绝对是最佳选择。
$ i$ P- r2 x8 Y5 `具体代码的使用
3 }3 h! N4 n4 [; w3 k, E#! -*- encoding:utf-8 -*-# k$ l) i" E5 B' s
# g7 _6 Y2 F( j import requests& L9 P7 D/ T( v6 Q1 b9 h
import random7 s! o; S% J( w+ Y
" A# w2 X7 }. g. U
# 要访问的目标页面
% Z: ]! u9 a( O: \* o targetUrl = "http://httpbin.org/ip"
. _1 ~9 u8 t8 F6 S& B" A1 ~- B7 p: {* P
# 要访问的目标HTTPS页面& s7 \) E. F( \
# targetUrl = "https://httpbin.org/ip"% W) E/ q/ d# N5 ~ I& Z! R- ^4 f
3 N% q7 r2 P* k. r4 f* z7 C
# 代理服务器8 \5 |4 ~9 i0 i2 T% Y @7 e/ t
proxyHost = "t.16yun.cn"
3 G* y# @+ w1 S. R$ N& j9 s+ X proxyPort = "31111"
% w- ` C0 S- W% y m, o5 q' a( Z# D( u* H+ d" c# K
# 代理隧道验证信息" F/ u; P) L- E Q' F8 \
proxyUser = "username"
: l, {# K, y8 R6 R% w proxyPass = "password"
4 [& W6 I5 ^. f# L* M( Z9 v0 f; z$ T2 o8 V/ {7 N* x+ p
proxyMeta = "http://%(user)s:%(pass)s@%(host)s:%(port)s" % {, r) q" I2 y) o
"host" : proxyHost,
; h8 d# h1 U/ ~* U4 c' h "port" : proxyPort,
( g3 x5 F% M1 o& U: S- I* d( g! A' c$ O "user" : proxyUser,
; p+ l1 D8 Y9 M% Y. V2 ? "pass" : proxyPass,
+ @- B& h8 H/ L( T6 x }
7 t4 h1 g/ U' ~
. \' d; T" o5 v7 T$ ? # 设置 http和https访问都是用HTTP代理
P. E1 N% }, n% ~2 V proxies = {
7 f, c2 G1 M3 B) p' f' i7 H$ d% ^ "http" : proxyMeta,
: |, |8 ]8 l* O: M! Z* e "https" : proxyMeta,8 |4 d' ]* V. H' y( q
}. q* o O* ~) l2 V0 s
o# ^+ N' w3 `/ A0 U2 E
2 N" A+ Q. P" J5 A3 L2 Q0 g # 设置IP切换头& ^9 y0 j" P9 Z0 ?
tunnel = random.randint(1,10000)
9 K" u' k0 w( x) m% A$ n2 `! j headers = {"Proxy-Tunnel": str(tunnel)}
5 x' e* R1 [0 Y& g resp = requests.get(targetUrl, proxies=proxies, headers=headers)
2 F5 f# j0 M, S- x( g: i. R7 F" {# l9 A& }: V! r" v
print resp.status_code2 j3 F( N0 a& o0 X+ _6 p1 y$ z
print resp.text
) L' r' R: v9 ^8 U5 G总结
' o4 Z5 r3 i7 C c, ^) W2 J以上就是这篇文章的全部内容了,希望本文的内容对大家的学习或者工作具有一定的参考学习价值,如果有疑问大家可以留言交流- n: @9 D. Y& N2 V4 g" m8 t, X
4 X" _5 } \$ W# ^' k: Z( ^8 A- p
|
zan
|