- 在线时间
- 1630 小时
- 最后登录
- 2024-1-29
- 注册时间
- 2017-5-16
- 听众数
- 82
- 收听数
- 1
- 能力
- 120 分
- 体力
- 563384 点
- 威望
- 12 点
- 阅读权限
- 255
- 积分
- 174238
- 相册
- 1
- 日志
- 0
- 记录
- 0
- 帖子
- 5313
- 主题
- 5273
- 精华
- 3
- 分享
- 0
- 好友
- 163
TA的每日心情 | 开心 2021-8-11 17:59 |
|---|
签到天数: 17 天 [LV.4]偶尔看看III 网络挑战赛参赛者 网络挑战赛参赛者 - 自我介绍
- 本人女,毕业于内蒙古科技大学,担任文职专业,毕业专业英语。
 群组: 2018美赛大象算法课程 群组: 2018美赛护航培训课程 群组: 2019年 数学中国站长建 群组: 2019年数据分析师课程 群组: 2018年大象老师国赛优 |
4 l6 b; }8 G7 }# v
Python爬虫常用小技巧之设置代理IP ! X9 B7 z, r$ K4 O+ ]
1 P1 N- ]' m1 \% f- G4 q- [
设置代理IP的原因4 g- S6 H+ [4 h8 k& l' s
我们在使用Python爬虫爬取一个网站时,通常会频繁访问该网站。假如一个网站它会检测某一段时间某个IP的访问次数,如果访问次数过多,它会禁止你的访问。所以你可以设置一些代理服务器来帮助你做工作,每隔一段时间换一个代理,这样便不会出现因为频繁访问而导致禁止访问的现象。5 J" [9 Z0 D: m' j) F+ \- U$ m! C
我们在学习Python爬虫的时候,也经常会遇见所要爬取的网站采取了反爬取技术导致爬取失败。高强度、高效率地爬取网页信息常常会给网站服务器带来巨大压力,所以同一个IP反复爬取同一个网页,就很可能被封,所以下面这篇文章讲述一个爬虫技巧,设置代理IP" c9 N9 _9 t- a7 w
代理的获取有很多方式,网上有很多免费的可以去爬取一些试试,但是免费的代理使用起来也是 很吃力的。还有就是现在网上有很多的代理供应商,可以在网上寻找下,然后找家靠谱的使用。毕竟网络太大了,代理供应商肯定也是参差不齐的,所以找到合适的代理还是需要花点时间的。在这里我就是使用了我们长期使用的一家质量好的代理,亿牛云代理,而且是使用的他们的爬虫代理(动态转发)和一般的api模式不一样。这种更简单更方便,对于懒人来说绝对是最佳选择。 U4 D# w) k4 l: I; Z
具体代码的使用: E8 H$ p# ^9 i
#! -*- encoding:utf-8 -*-
% }. Z0 u, C- l9 _) j5 w, t5 m) j: e" p9 k& H0 e% }$ O
import requests( c. Y/ }. `( `1 ?+ E) q/ @$ A. F
import random
" T: ^1 t% b" W0 v. |1 L4 G/ J
; A7 P/ W! W8 D/ E0 c% ^2 {0 M5 ] # 要访问的目标页面! e$ g& v- D/ p
targetUrl = "http://httpbin.org/ip"% K/ g; D0 X9 F0 l; C! k
# J M7 P/ H; }2 V- b; Y
# 要访问的目标HTTPS页面
: F9 r3 d, \1 S$ j # targetUrl = "https://httpbin.org/ip"% s: |: E0 Z0 T$ b: I
, p; E( S7 F/ o3 @- l # 代理服务器5 `3 `: t, Y0 J3 |+ E0 A. ?3 Q0 F
proxyHost = "t.16yun.cn"( \! j1 Z! i6 Q7 a) y* K
proxyPort = "31111"
Q4 }9 D a, d) g P! \! a7 [. l' W, v7 S
# 代理隧道验证信息, ^, H2 k0 ?; @6 x. ^0 n
proxyUser = "username"
: T$ b6 \1 U7 p! e$ e* m& ^3 k proxyPass = "password"2 m& n0 I* N6 v! s; V @6 v7 q; Q
7 _/ p v* P1 H2 f, r proxyMeta = "http://%(user)s:%(pass)s@%(host)s:%(port)s" % {
4 J- v3 s8 ]9 p4 c; s: _- Y "host" : proxyHost,# \6 B& Q$ @2 V% P2 t# \
"port" : proxyPort,
# h, G N' N8 B1 T9 y4 ~ "user" : proxyUser,& X$ e) J+ B* G2 c4 z1 R
"pass" : proxyPass,) s8 H; e- k1 b) @
}
' v2 V% `( g4 L) Z6 n9 z5 @
6 A4 i5 u1 N# x( ^1 @" l$ f& q& \ # 设置 http和https访问都是用HTTP代理
- M; U4 W% A2 t+ k proxies = {
$ w8 z; ? X' |0 o: R "http" : proxyMeta,$ T7 _+ T% Z1 K7 q2 D) Z
"https" : proxyMeta,* b7 ~- @% o0 V( |2 @/ c
}/ M) o7 V# F: j8 O6 U) N# a5 q
' G: M3 Q4 A' y6 J, F+ X2 x C! r
, S1 R; z% e; X; s# v2 i # 设置IP切换头
2 G8 ^7 n" @3 M& v* m tunnel = random.randint(1,10000) w; D6 \/ n! _8 J, ~/ m
headers = {"Proxy-Tunnel": str(tunnel)}
, d6 ~, X4 M4 }# S resp = requests.get(targetUrl, proxies=proxies, headers=headers)
0 Y0 T O8 H. K+ K5 Q$ t9 ^$ c4 d3 J! ]- Y
print resp.status_code; E/ G6 M* X4 W* D$ e' ?
print resp.text
5 I i5 O1 L! i# r, o' L总结
: v$ [+ X, Q8 ~/ ~以上就是这篇文章的全部内容了,希望本文的内容对大家的学习或者工作具有一定的参考学习价值,如果有疑问大家可以留言交流: ^3 n% J, V% [
% e. d a4 p/ T$ q5 b0 U/ V |
zan
|