QQ登录

只需要一步,快速开始

 注册地址  找回密码
查看: 4851|回复: 0
打印 上一主题 下一主题

Python爬虫常用小技巧之设置代理IP

[复制链接]
字体大小: 正常 放大
杨利霞        

5273

主题

82

听众

17万

积分

  • TA的每日心情
    开心
    2021-8-11 17:59
  • 签到天数: 17 天

    [LV.4]偶尔看看III

    网络挑战赛参赛者

    网络挑战赛参赛者

    自我介绍
    本人女,毕业于内蒙古科技大学,担任文职专业,毕业专业英语。

    群组2018美赛大象算法课程

    群组2018美赛护航培训课程

    群组2019年 数学中国站长建

    群组2019年数据分析师课程

    群组2018年大象老师国赛优

    跳转到指定楼层
    1#
    发表于 2021-1-8 17:22 |只看该作者 |倒序浏览
    |招呼Ta 关注Ta

    1 q! x' A8 t0 e4 n9 |: `. Y% j
    Python爬虫常用小技巧之设置代理IP
    : |% I+ T! r+ {! ]" O# {

    - ?: G2 U* R8 x0 K& `/ s设置代理IP的原因$ i; {& T' c1 D4 [+ j  K
    我们在使用Python爬虫爬取一个网站时,通常会频繁访问该网站。假如一个网站它会检测某一段时间某个IP的访问次数,如果访问次数过多,它会禁止你的访问。所以你可以设置一些代理服务器来帮助你做工作,每隔一段时间换一个代理,这样便不会出现因为频繁访问而导致禁止访问的现象。1 `- o1 o3 r2 z! s$ x" Q# N+ \
    我们在学习Python爬虫的时候,也经常会遇见所要爬取的网站采取了反爬取技术导致爬取失败。高强度、高效率地爬取网页信息常常会给网站服务器带来巨大压力,所以同一个IP反复爬取同一个网页,就很可能被封,所以下面这篇文章讲述一个爬虫技巧,设置代理IP# Y, X: }( n5 S% W6 K: U
    代理的获取有很多方式,网上有很多免费的可以去爬取一些试试,但是免费的代理使用起来也是 很吃力的。还有就是现在网上有很多的代理供应商,可以在网上寻找下,然后找家靠谱的使用。毕竟网络太大了,代理供应商肯定也是参差不齐的,所以找到合适的代理还是需要花点时间的。在这里我就是使用了我们长期使用的一家质量好的代理,亿牛云代理,而且是使用的他们的爬虫代理(动态转发)和一般的api模式不一样。这种更简单更方便,对于懒人来说绝对是最佳选择。
    5 a9 ?3 R3 d6 T+ k, t, z, P3 A具体代码的使用1 k) x  d1 ]& m8 n! s, H6 {) R
    #! -*- encoding:utf-8 -*-
    1 m) i( C# o! c* u% _( ^8 E5 i0 H4 m! e' L  h; L7 Y4 z  \6 A
            import requests
    - w6 |6 f, ]' e/ ~! }        import random
    ) y& Y* ~/ W/ |, q
    * K3 c' A; ]* j8 l* z        # 要访问的目标页面) \2 r) T2 o; H5 P. B0 l  n
            targetUrl = "http://httpbin.org/ip"% n6 ?, E. |9 r+ B

    / ]2 N3 I% e7 j        # 要访问的目标HTTPS页面4 ?8 i4 ?4 e$ D, u  h8 g- J% @
            # targetUrl = "https://httpbin.org/ip"$ H! h+ x) x* J, i8 v" o* s

    / r4 d, j1 r- d% L4 p* D$ p( }# z        # 代理服务器* J* _- B2 M! c6 A8 o  F6 T
            proxyHost = "t.16yun.cn", f8 \& Y/ e6 i+ z% n+ {4 [
            proxyPort = "31111"
    * R6 J& j2 {, P: z3 p( u/ e  B# H) f
            # 代理隧道验证信息2 F6 Q  Q1 g+ X; p8 t) t
            proxyUser = "username"6 j7 F! U1 e8 E  v
            proxyPass = "password"( m9 n2 Y8 P$ S# e5 p8 L
    8 B/ |! r% R: x$ {0 K" l6 o
            proxyMeta = "http://%(user)s:%(pass)s@%(host)s:%(port)s" % {( e2 v% M, D& M8 y" S& z7 n% i$ M: _
                "host" : proxyHost,
    3 Q1 M8 f; B8 G: J1 W5 e            "port" : proxyPort,
    7 p  s# X1 B, Z6 R+ a  p+ N( N( q            "user" : proxyUser,
      j: O$ d7 K; M; K- [- n9 T# R            "pass" : proxyPass,2 k* m9 q+ X( E2 C/ N
            }
    ! B+ l: ~  s' o5 Q$ z" z) b, n3 i2 s, W& I: j
            # 设置 http和https访问都是用HTTP代理7 A( y! G9 D) w4 W1 Z4 _" }( V3 Y9 s
            proxies = {* {* Z! L( a& i1 n! t. R+ d
                "http"  : proxyMeta,8 ?/ U. o' {/ I2 @* a( ?% y
                "https" : proxyMeta,
    - d5 R* |, |0 i/ ~6 ~# f6 `        }
      l; J# d$ x: C4 _$ h( I: b3 y$ J3 ]  M: k' [) K
    0 G7 v) q) {* ^8 \
            #  设置IP切换头
    * G' o9 w9 S" Y2 I- {; }        tunnel = random.randint(1,10000)& ^% a9 I( }  M. J5 y5 f
            headers = {"Proxy-Tunnel": str(tunnel)}
    5 W& M% F5 F6 j+ h        resp = requests.get(targetUrl, proxies=proxies, headers=headers)+ T: {5 S4 J% Y. C' G: P
    % g# c% ^) i3 h+ B4 ?. _
            print resp.status_code
      t! t% W& q; D2 a7 X  h, j        print resp.text
    # J5 w' I3 S- U1 D: i总结3 B' a8 b( @6 A6 Z+ y1 U% V7 {
    以上就是这篇文章的全部内容了,希望本文的内容对大家的学习或者工作具有一定的参考学习价值,如果有疑问大家可以留言交流7 W5 L& M  H: V: }3 x. f- X

    + z  _+ x# i' [  u6 O
    zan
    转播转播0 分享淘帖0 分享分享0 收藏收藏0 支持支持0 反对反对0 微信微信
    您需要登录后才可以回帖 登录 | 注册地址

    qq
    收缩
    • 电话咨询

    • 04714969085
    fastpost

    关于我们| 联系我们| 诚征英才| 对外合作| 产品服务| QQ

    手机版|Archiver| |繁體中文 手机客户端  

    蒙公网安备 15010502000194号

    Powered by Discuz! X2.5   © 2001-2013 数学建模网-数学中国 ( 蒙ICP备14002410号-3 蒙BBS备-0002号 )     论坛法律顾问:王兆丰

    GMT+8, 2026-4-21 03:08 , Processed in 0.473981 second(s), 50 queries .

    回顶部