QQ登录

只需要一步,快速开始

 注册地址  找回密码
查看: 3998|回复: 2
打印 上一主题 下一主题

网络爬虫—利用SAS抓取网页方法

[复制链接]
字体大小: 正常 放大

1341

主题

738

听众

2万

积分

数学中国总编辑

  • TA的每日心情

    2016-11-18 10:46
  • 签到天数: 206 天

    [LV.7]常住居民III

    超级版主

    社区QQ达人 邮箱绑定达人 元老勋章 发帖功臣 新人进步奖 原创写作奖 最具活力勋章 风雨历程奖

    群组2011年第一期数学建模

    群组第一期sas基础实训课堂

    群组第二届数模基础实训

    群组2012第二期MCM/ICM优秀

    群组MCM优秀论文解析专题

    跳转到指定楼层
    1#
    发表于 2012-2-27 15:19 |只看该作者 |倒序浏览
    |招呼Ta 关注Ta |邮箱已经成功绑定
    万维网过多的信息,股票报价,电影评论,市场价格趋势话题,几乎所有的东西,可以发现在点击一个按钮。在分析数据中发现,许多SAS用户感兴趣在网络上,但你得到这个数据的SAS环境呢?有很多方法,如 SAS数据步骤中的代码在设计你自己的网络爬虫或利用SAS%TMFILTER宏 ® 文本挖掘。在本文中,我们将审查一个网络爬虫的总体架构。我们将讨论获得网站的方法到SAS的信息,以及审查内部所谓的SAS搜索从实验项目的实验代码管道。我们也将提供咨询如何轻松定制一个网络爬虫,以适应个性化需求,以及如何具体的数据导入到SAS ® 企业矿工™。* f/ Y6 e; ~, b! c4 ^3 j, T& v
    简介:互联网已经成为一个有用的信息来源。通常是Web上的数据,我们要使用内的SAS,所以我们需要找到一种方式来获得这个数据。最好的办法是使用一个网络爬虫。 SAS提供几个从Web爬行和提取信息的方法。您可以使用基本的SAS数据步骤中的代码,或SAS文本矿工的%TMFILTER宏。虽然目前无法使用,SAS搜索管道将是一个功能强大的Web爬行产品,并提供更多的工具,网络爬行。每种方法都有其优点和缺点,所以取决于你想实现抓取的,它是最好对其进行审查。" i) z, H! K8 _/ H  N5 b
    " w2 J5 v$ k) q0 m8 \( o
    首先,重要的是要了解网络爬虫是如何工作的。你应该熟悉数据步骤的代码,宏,和SAS过程PROC SQL,然后再继续。
    3 }9 V3 }+ a) `* }% R+ H网络爬虫概述:一个网络爬虫是一个程序,一个或多个起始地址作为“种子URL”,下载网站这些URL相关的网页,在网页中包含的任何超链接提取,并递归地继​​续这些超链接标识下载Web页。从概念上讲,网络爬虫是很简单的。  k" l% {! Q- m8 w
    一个Web 履带式有四项职责:
    " ~0 d" x9 K1 @. C. ^! v: I1。从候选人中选择一个网址。5 ^# \# u( A* T8 |
    2。它下载相关的Web页。
    , E4 ~. Z. g4 W  y& q; W3。它提取物在网页中的URL(超链接)。" {9 ]: P7 N6 Q4 A$ C8 Q
    4。它补充说,未曾遇到的候选集的URL" L( p) k& R" ?' t3 T
    方法1:在WEB SAS数据步骤中的代码履带式
    + p6 G5 f( D0 c; \, u$ u: h( s首先创建一个网址的网站的Web crawler将开始列表。3 O% L" N* g+ ]5 D" t- E
    data work.links_to_crawl;2 @% B8 Y7 H! w$ {  A4 I, ~2 j3 G
    length url $256 ;
    " [9 ~, M" Q4 d! f( _input url $;! G& F8 q# F7 J. W" J/ s
    datalines;
    & ?2 y: T; B0 W& b& E3 ^http://www.yahoo.com
    / L8 i) {9 {# ]http://www.madio.net5 _/ g6 G: Y8 U
    http://www.google.com: B' V/ H3 r3 j$ I8 |
    ;
    . ~( g, V; q0 t! frun
    2 x: m$ R, M  G- ^9 D! a为了确保我们不抓取相同的URL一次以上,持有环节已创建一个数据抓取。
    * V! n" G9 U- Y# ~当Web数据集将在开始时是空的,但一个网站的网址将被添加到数据集履带式完成抓取该网站。+ c% Q1 @( D; Z% J* v3 w
    data work.links_crawled; , M% ?* P5 E1 ]1 Y/ z. C  W
    length url $256;
    3 M$ ^5 W9 Q* o& [4 O" _- }) P( S+ w1 Qrun;* N, F- ^0 A* x
    现在我们开始爬行!该代码需要我们的 work.links_to_crawl数据集的第一个URL。在第一观察“_N_式1”,网址是投入名为 next_url 宏变量,所有剩余的URL放回我们的种子URL数据集,使他们在未来的迭代。
    3 h) a5 i7 Y) i" K+ `( P0 H/* pop the next url off */) F: l  g  `  z; ^
    %let next_url = ;; q+ r/ s" Q5 y  C# c
    data work.links_to_crawl;. S- F( V0 Y. ?2 t, C& I- A
    set work.links_to_crawl;% S8 }# Q9 w$ ^' s9 ]
    if _n_ eq 1 then call symput(“next_url”, url);3 c( W7 @; d6 j' Z' y7 g
    else output;
    # `: y( h) h. ^; P* T7 P; erun;
    ! g' u6 H# c% e, s7 [9 b  t: I现在,从互联网上下载的网址。创建一个文件名​​称 _nexturl 。我们让SAS知道它是一个URL 而且可以发现,AT&next_url,这是我们的宏观变量,它包含的网址我们从拉 work.links_to_crawl数据集。/ g( |, F) o/ o6 j
    /* crawl the url */) `) x# Y+ A7 R  M2 }, A- Q  P
    filename _nexturl url “&next_url”1 O* h8 [$ S* h
    建立后的文件名​​的URL参考,确定一个地方把我们下载的文件。创建另一个文件名​​引用所谓 htmlfilm的条目,并在那里把从 url_file.html收集到的信息。  V& M# ]/ e( \2 m& r! L
    /* put the file we crawled here */& ^' {) z5 O3 `$ t+ t1 ]
    filename htmlfile “url_file.html”7 f$ B* B6 M6 j6 \* Z) ?
    接下来,我们通过数据的循环,把它写htmlfilm的条目文件名​​参考,并寻找更多的网址添加到我们的 work.links_to_crawl数据集。
    ' i* K1 \: y! n' b* q8 Z, H/* find more urls */ ; I. Z& g& Q% R! F# s
    data work._urls(keep=url);! o/ T3 v% y( w6 ]/ I7 R
    length url $256 ;
    0 D, Z3 ^- P" I  tfile htmlfile;: @0 B- {& O+ ?7 r- w
    infile _nexturl length=len;1 J9 d0 r6 K* C! i' g/ h* f
    input text $varying2000. len;
    3 h; T2 }0 ^+ W7 Y" h4 d4 Fput text;
    * r" L1 B) g9 j3 wstart = 1;" d& L; ^+ k. w, n0 e
    stop = length(text);
    7 F( {( M( k* ?! v) [使用正则表达式一个网站的网址,以帮助搜索。正则表达式的匹配方法文本字符串,如字,词,或字符模式。 SAS已经提供了许多强大的字符串功能。然而,正则表达式通常会提供一个更简洁的方式,操纵和匹配的文本.
    5 W- O" ]6 o, Q1 W+ T, ?6 `if _n_ = 1 then do;
    : H( l: I8 \7 I2 y. oretain patternID;
    / ]+ y. v& t4 m7 o( G) K" g, qpattern = ‘/href=”([^"]+)”/i’;
    + P8 |8 u' Q3 n% ?  K0 A+ R1 fpatternID = prxparse(pattern);1 D: w* T5 [. b  v
    end5 \1 j/ H+ h& ]+ c. Q) E) J
    首次观察到,创建一个patternID将保持整个数据步运行。寻找的模式是: “/href=”([^"]+)”/i’”.,这意味着我们正在寻找字符串“HREF =”“,然后再寻找任何字符串,是至少有一个字符长,不包含引号(“),并结束在引号(”)。在’我’ 目的的手段使用不区分大小写的方法,以配合我们的正则表达式。" P$ U& a' Q; Q4 ~
    As a result, the Web crawler will find these types of strings:
      l% j$ p' u- b* G4 g, r9 ]0 Y; O$ ]href=”sgf/2010/papers.html” ; q1 j. c" V/ H0 H* J4 \
    href=”www.yahoo.com& _0 N7 N5 P; V/ }& F' d+ T( W( e
    HREF=”www.google.com
    * k( C  p8 p' e+ bhReF=”http://www.madio.net  g; g8 G' r6 G5 V8 }
    现在正则表达式匹配的一个网站上的文字。 PRXNEXT需要五个参数:正则表达式我们要寻找,寻找开始寻找正则表达式的开始位置,结束位置停止正则表达式,一旦发现字符串中的位置,而字符串的长度,如果发现的位置将是0,如果没有找到字符串。 PRXNEXT也改变了开始的参数,使搜索重新开始后的最后一场比赛是发现。. j% n& i$ g- s4 |. T, s8 e. B  h# w
    call prxnext(patternID, start, stop, text, position, length);
    8 Z1 |; O/ e! T4 z0 d代码中的循环,在网站上找到的所有环节显示的文本。
    ) M: m& j8 ^& D: Qdo while (position ^= 0);( T8 }6 ^5 D, j' [( ]* }% n
    url = substr(text, position+6, length-7);
    9 ?( ~( w( F7 a. @4 M! O8 ]  n# Loutput;
    / q# s0 n) g5 v0 q1 s" q# jcall prxnext(patternID, start, stop, text, position, length);* [6 A- e5 g; z% I' p
    end;
    9 p" R. V* U3 D, V) nrun;
    2 b8 v3 }" }$ K' z0 C( e如果代码发现一个网址,它会检索唯一的URL的一部分,启动后的第一个引号。例如,如果代码中发现的HREF =“http://www.new-site.com”,那么它应该保持 http://www.new-site.com 。使用 substr到删除前的6个字符和最后一个字符的URL的其余部分输出的work._urls 数据集。现在,我们插入的URL代码只是以跟踪抓取到一个数据集名为 work.links_crawled 我们已经和确保我们不再次浏览有。$ l: n1 [: q: b0 z4 ]
    /* add the current link to the list of urls we have already crawled */ 9 A! W# }$ d, ^* M
    data work._old_link;3 E( J7 y& E# G  R; s
    url = “&next_url”;) p% ^5 {/ ?# o3 [0 a! P
    run;
    & i, x, u$ h; X5 q7 {: k/ t5 Y4 Rproc append base=work.links_crawled data=work._old_link force;
    3 {& a& q7 x, [run;' h  A& d0 d- U. m+ ^
    下一步是在数据集 work._urls 的过程中发现的网址列表,以确保:
    5 c, d- E2 N5 j$ |- @' a2 L1。我们尚未抓取他们,换句话说URL是不是在 work.links_crawled)。
    3 ^! L  d4 k5 f+ w2。我们没有排队抓取的URL(网址换句话说,是不是在work.links_to_crawl )。- a- s9 H5 f* p; m6 k" S# z7 j
    /*8 v8 P  F' ?* b+ Q* S* V
    * only add urls that we have not already crawled
    3 i: K0 H/ p; o1 ?" W" E# |! O6 X* or that are not queued up to be crawled
    9 l2 `6 w0 O) d* f*
    # n: a# p& M9 R0 x- H& B*/
    2 K! U! ]* w- w+ Sproc sql noprint;
    5 P4 ^0 C, b( zcreate table work._append as
    ) i1 |( V8 F6 S+ ~& dselect url
    # X) [0 L: U& ~1 F/ ]$ A" Yfrom work._urls
    : A! ?0 ~3 r6 e3 k4 M; Pwhere url not in (select url from work.links_crawled)
    " t. F- u& V* _! e9 E3 `; R  Gand url not in (select url from work.links_to_crawl);& h1 p  \- Q( {  ~
    quit;
    * K. c5 i4 K/ R4 Y然后,我们添加网址还没有被抓取,而不是已经排队 work.links_to_crawl数据集。& T% Z/ H! X% N+ I
    /* add new links */
    $ @1 P6 Q: R$ z2 t$ Iproc append base=work.links_to_crawl data=work._append force;  ^6 m% g) G1 m7 _* O4 `! Z8 x. H
    run;0 G/ R: `8 p7 ?( @( m# R
    此时的代码循环回到开始劫掠 work.links_to_crawl数据集的下一个URL。( L5 |8 R1 L5 O1 V7 P
    zan
    转播转播0 分享淘帖0 分享分享0 收藏收藏0 支持支持0 反对反对0 微信微信
    叶纯萱 实名认证       

    2

    主题

    3

    听众

    107

    积分

    升级  3.5%

  • TA的每日心情
    开心
    2012-5-6 09:13
  • 签到天数: 34 天

    [LV.5]常住居民I

    群组数学专业考研加油站

    群组Matlab讨论组

    群组C 语言讨论组

    群组Linux推广

    群组EXCEL

    回复

    使用道具 举报

    0

    主题

    4

    听众

    35

    积分

    升级  31.58%

  • TA的每日心情
    开心
    2015-7-2 14:33
  • 签到天数: 11 天

    [LV.3]偶尔看看II

    自我介绍
    我是来自浙江工业大学的学生

    群组数学建模培训课堂1

    回复

    使用道具 举报

    您需要登录后才可以回帖 登录 | 注册地址

    qq
    收缩
    • 电话咨询

    • 04714969085
    fastpost

    关于我们| 联系我们| 诚征英才| 对外合作| 产品服务| QQ

    手机版|Archiver| |繁體中文 手机客户端  

    蒙公网安备 15010502000194号

    Powered by Discuz! X2.5   © 2001-2013 数学建模网-数学中国 ( 蒙ICP备14002410号-3 蒙BBS备-0002号 )     论坛法律顾问:王兆丰

    GMT+8, 2025-12-29 21:06 , Processed in 2.750031 second(s), 65 queries .

    回顶部