QQ登录

只需要一步,快速开始

 注册地址  找回密码
查看: 4039|回复: 2
打印 上一主题 下一主题

网络爬虫—利用SAS抓取网页方法

[复制链接]
字体大小: 正常 放大

1341

主题

738

听众

2万

积分

数学中国总编辑

  • TA的每日心情

    2016-11-18 10:46
  • 签到天数: 206 天

    [LV.7]常住居民III

    超级版主

    社区QQ达人 邮箱绑定达人 元老勋章 发帖功臣 新人进步奖 原创写作奖 最具活力勋章 风雨历程奖

    群组2011年第一期数学建模

    群组第一期sas基础实训课堂

    群组第二届数模基础实训

    群组2012第二期MCM/ICM优秀

    群组MCM优秀论文解析专题

    跳转到指定楼层
    1#
    发表于 2012-2-27 15:19 |只看该作者 |倒序浏览
    |招呼Ta 关注Ta |邮箱已经成功绑定
    万维网过多的信息,股票报价,电影评论,市场价格趋势话题,几乎所有的东西,可以发现在点击一个按钮。在分析数据中发现,许多SAS用户感兴趣在网络上,但你得到这个数据的SAS环境呢?有很多方法,如 SAS数据步骤中的代码在设计你自己的网络爬虫或利用SAS%TMFILTER宏 ® 文本挖掘。在本文中,我们将审查一个网络爬虫的总体架构。我们将讨论获得网站的方法到SAS的信息,以及审查内部所谓的SAS搜索从实验项目的实验代码管道。我们也将提供咨询如何轻松定制一个网络爬虫,以适应个性化需求,以及如何具体的数据导入到SAS ® 企业矿工™。
    : X" m  {7 B" P3 `- \, \简介:互联网已经成为一个有用的信息来源。通常是Web上的数据,我们要使用内的SAS,所以我们需要找到一种方式来获得这个数据。最好的办法是使用一个网络爬虫。 SAS提供几个从Web爬行和提取信息的方法。您可以使用基本的SAS数据步骤中的代码,或SAS文本矿工的%TMFILTER宏。虽然目前无法使用,SAS搜索管道将是一个功能强大的Web爬行产品,并提供更多的工具,网络爬行。每种方法都有其优点和缺点,所以取决于你想实现抓取的,它是最好对其进行审查。  x  I/ H2 t) ?' x$ L
      D; p' b2 a: q1 G* r5 R" e* T
    首先,重要的是要了解网络爬虫是如何工作的。你应该熟悉数据步骤的代码,宏,和SAS过程PROC SQL,然后再继续。
    2 Z3 x4 m- {6 {1 J. A1 ~6 i网络爬虫概述:一个网络爬虫是一个程序,一个或多个起始地址作为“种子URL”,下载网站这些URL相关的网页,在网页中包含的任何超链接提取,并递归地继​​续这些超链接标识下载Web页。从概念上讲,网络爬虫是很简单的。
    $ h: Q/ S* Y: E: w* o' ?一个Web 履带式有四项职责:6 i2 ^) N& G7 h) {
    1。从候选人中选择一个网址。1 q8 p* a# s  T4 H4 ]4 S+ o+ B
    2。它下载相关的Web页。
    $ M6 n4 N+ |2 t+ u+ a3。它提取物在网页中的URL(超链接)。( N0 F: |' k( `# E% T
    4。它补充说,未曾遇到的候选集的URL
    % T6 ~1 T4 Z$ E' l2 _方法1:在WEB SAS数据步骤中的代码履带式
    - F. R* W7 P' |$ x首先创建一个网址的网站的Web crawler将开始列表。8 L. T/ i6 C- b! ~* i. _4 d4 v$ p! g0 z
    data work.links_to_crawl;
    , J# B7 c4 v7 Ilength url $256 ;
    ; g0 ?+ T5 A5 K9 K; Ginput url $;) o6 y8 D( K9 v' x" ]% `0 o# X
    datalines;
    / ^% p1 M4 f1 r8 }http://www.yahoo.com
    ( E- d/ M% @3 p8 Q3 khttp://www.madio.net
    5 y) ]9 J) H# Q2 p8 ~: b+ Thttp://www.google.com
    9 `, z! j- J7 C" k+ ]  a;7 v2 ?: U! w' F, Q
    run2 x" k) m  ]& ]+ f$ O& C/ g
    为了确保我们不抓取相同的URL一次以上,持有环节已创建一个数据抓取。
    + k8 J, ]. z4 t# l9 S当Web数据集将在开始时是空的,但一个网站的网址将被添加到数据集履带式完成抓取该网站。+ O$ v7 o+ g# P
    data work.links_crawled; ! s7 q, F( _6 ]' y+ W
    length url $256;! D# X  s: t7 t( w  y% p
    run;' K( ], D1 y, |
    现在我们开始爬行!该代码需要我们的 work.links_to_crawl数据集的第一个URL。在第一观察“_N_式1”,网址是投入名为 next_url 宏变量,所有剩余的URL放回我们的种子URL数据集,使他们在未来的迭代。$ V# {0 Q- w# X& S
    /* pop the next url off */; U- |- [1 j9 c
    %let next_url = ;+ n; }3 p7 m4 @% ]
    data work.links_to_crawl;
    - j( O- f8 k0 f8 u9 f: v2 Y! Iset work.links_to_crawl;
    ' T5 w0 a! n) t* x6 Gif _n_ eq 1 then call symput(“next_url”, url);
    9 o$ j' b( C- @* q. X. [+ Zelse output;
    ; K: y/ G3 k0 I: L( \run;
    7 L) e) E' E( T! s4 s现在,从互联网上下载的网址。创建一个文件名​​称 _nexturl 。我们让SAS知道它是一个URL 而且可以发现,AT&next_url,这是我们的宏观变量,它包含的网址我们从拉 work.links_to_crawl数据集。
    0 K$ P$ {6 h# e7 f/* crawl the url */  ^/ l# ?" J4 K- r* I
    filename _nexturl url “&next_url”- h# A. Z. s  ]6 ]5 w' b% g5 h
    建立后的文件名​​的URL参考,确定一个地方把我们下载的文件。创建另一个文件名​​引用所谓 htmlfilm的条目,并在那里把从 url_file.html收集到的信息。
    0 `$ m& `5 {- p+ A9 v$ A4 T/* put the file we crawled here */
    & j+ r7 v0 v# }# g$ J- y* \+ l. @& Tfilename htmlfile “url_file.html”
    9 @4 U/ d" T  V% W2 m# K接下来,我们通过数据的循环,把它写htmlfilm的条目文件名​​参考,并寻找更多的网址添加到我们的 work.links_to_crawl数据集。
    ( p0 ?& K8 a6 F5 W1 j/* find more urls */
    ; `( U) P0 N- ], H2 E) |data work._urls(keep=url);0 u* ~! @: e4 R2 O. `% l% O' c
    length url $256 ;! _+ J: {) E( ^/ m- W
    file htmlfile;- n! k+ p( ^8 n6 I2 g
    infile _nexturl length=len;
    ! U4 M. \$ P* F( j0 `5 H, m2 v, Kinput text $varying2000. len;
    ' N" E& v- q' E' v" f" Vput text;, m" s5 |5 B; u  G8 h: E; o1 r
    start = 1;( s; N3 O2 }# ~2 \( h% J
    stop = length(text);
    * ?* p/ r% h' E使用正则表达式一个网站的网址,以帮助搜索。正则表达式的匹配方法文本字符串,如字,词,或字符模式。 SAS已经提供了许多强大的字符串功能。然而,正则表达式通常会提供一个更简洁的方式,操纵和匹配的文本.
    $ n% s* `, h& M9 L9 Tif _n_ = 1 then do;
    : m  L+ ?/ ^) x: yretain patternID;
    6 e8 f" E# O2 A4 H2 e/ ]/ D+ Upattern = ‘/href=”([^"]+)”/i’;
    4 T) U" ~; \; u# RpatternID = prxparse(pattern);5 h& F% f# j+ r) z3 e
    end' Q% U: Y( k% i  N- b
    首次观察到,创建一个patternID将保持整个数据步运行。寻找的模式是: “/href=”([^"]+)”/i’”.,这意味着我们正在寻找字符串“HREF =”“,然后再寻找任何字符串,是至少有一个字符长,不包含引号(“),并结束在引号(”)。在’我’ 目的的手段使用不区分大小写的方法,以配合我们的正则表达式。8 X, G5 D2 }& v: h& ~$ |
    As a result, the Web crawler will find these types of strings:$ p3 V5 Z2 c% W
    href=”sgf/2010/papers.html” * J) e- e) Q% e1 ~+ ^# T. N- T% r
    href=”www.yahoo.com4 R: B' C5 o& i( l
    HREF=”www.google.com, U& \2 w; F+ l) a( D0 R
    hReF=”http://www.madio.net+ f+ B: {$ M- C  O2 H2 Z
    现在正则表达式匹配的一个网站上的文字。 PRXNEXT需要五个参数:正则表达式我们要寻找,寻找开始寻找正则表达式的开始位置,结束位置停止正则表达式,一旦发现字符串中的位置,而字符串的长度,如果发现的位置将是0,如果没有找到字符串。 PRXNEXT也改变了开始的参数,使搜索重新开始后的最后一场比赛是发现。0 V' y2 |* V$ C) Q
    call prxnext(patternID, start, stop, text, position, length);. y( Z% L5 I0 U) }+ D
    代码中的循环,在网站上找到的所有环节显示的文本。( }! y- A) k& `7 ^! _; Y
    do while (position ^= 0);
    4 M3 f) \0 t8 `7 X. }, B/ L# `; Murl = substr(text, position+6, length-7);5 V0 A5 y' @6 R8 s
    output;
    / y! g; V; \8 R/ z; Y. Xcall prxnext(patternID, start, stop, text, position, length);7 W- i, m. }/ @& c( F, ^" B
    end;( D) ^5 ~+ u6 f& d
    run;: P1 k8 Z: ]+ n$ T* m' c# N, }
    如果代码发现一个网址,它会检索唯一的URL的一部分,启动后的第一个引号。例如,如果代码中发现的HREF =“http://www.new-site.com”,那么它应该保持 http://www.new-site.com 。使用 substr到删除前的6个字符和最后一个字符的URL的其余部分输出的work._urls 数据集。现在,我们插入的URL代码只是以跟踪抓取到一个数据集名为 work.links_crawled 我们已经和确保我们不再次浏览有。
    * o& r/ V7 l4 c: K( b2 A/* add the current link to the list of urls we have already crawled */
    , l5 l1 K  H3 Q8 Ydata work._old_link;5 `. P) L$ P5 L8 c4 N# {7 g
    url = “&next_url”;' O" ^( E% e! J% {" @5 A7 k
    run;
      [" X: {# k  g3 U9 Iproc append base=work.links_crawled data=work._old_link force;2 Y& A" [- H+ W3 G$ j  f
    run;# N7 x) O1 {* v% U* V1 ^3 a
    下一步是在数据集 work._urls 的过程中发现的网址列表,以确保:  W, Q  ^. C7 |/ @
    1。我们尚未抓取他们,换句话说URL是不是在 work.links_crawled)。) V+ u. ^8 O& A! q" p
    2。我们没有排队抓取的URL(网址换句话说,是不是在work.links_to_crawl )。
    2 t3 f3 S4 Y$ a1 Y/*) S( V- N6 c. y- E
    * only add urls that we have not already crawled) Q; `7 V! O/ Z. j& i8 h  |
    * or that are not queued up to be crawled
    # Q; @6 V: h# |+ [0 x*
    . K6 v/ l& T7 I, M: Y9 g) B*/
    ! M6 v8 g! E* j. d, Vproc sql noprint;
    ' O2 c; t6 J' i/ t% ^create table work._append as" s- E, O, y, h8 e1 C' O$ B2 s
    select url; C, }. t  _- E1 u& `9 i3 Q
    from work._urls
    . d8 M8 u! Y! v% H) ^8 F- @" f' P% |where url not in (select url from work.links_crawled)
      f4 B% j7 P7 h  _and url not in (select url from work.links_to_crawl);
    , |4 d5 z$ H: W" uquit;* B, ?3 t' x5 C& ?
    然后,我们添加网址还没有被抓取,而不是已经排队 work.links_to_crawl数据集。
    # M" |5 p9 k* R6 P) D/* add new links */
    ! K9 C+ Y7 T9 a* l& y/ pproc append base=work.links_to_crawl data=work._append force;
    % N# V: Z* H9 m' m8 I7 w$ F  p8 O% `. N1 rrun;/ ^9 a# O) `; T* z! X4 e* h
    此时的代码循环回到开始劫掠 work.links_to_crawl数据集的下一个URL。
    3 M+ N- L$ ^" ~. f% i3 @
    zan
    转播转播0 分享淘帖0 分享分享0 收藏收藏0 支持支持0 反对反对0 微信微信
    叶纯萱 实名认证       

    2

    主题

    3

    听众

    107

    积分

    升级  3.5%

  • TA的每日心情
    开心
    2012-5-6 09:13
  • 签到天数: 34 天

    [LV.5]常住居民I

    群组数学专业考研加油站

    群组Matlab讨论组

    群组C 语言讨论组

    群组Linux推广

    群组EXCEL

    回复

    使用道具 举报

    0

    主题

    4

    听众

    35

    积分

    升级  31.58%

  • TA的每日心情
    开心
    2015-7-2 14:33
  • 签到天数: 11 天

    [LV.3]偶尔看看II

    自我介绍
    我是来自浙江工业大学的学生

    群组数学建模培训课堂1

    回复

    使用道具 举报

    您需要登录后才可以回帖 登录 | 注册地址

    qq
    收缩
    • 电话咨询

    • 04714969085
    fastpost

    关于我们| 联系我们| 诚征英才| 对外合作| 产品服务| QQ

    手机版|Archiver| |繁體中文 手机客户端  

    蒙公网安备 15010502000194号

    Powered by Discuz! X2.5   © 2001-2013 数学建模网-数学中国 ( 蒙ICP备14002410号-3 蒙BBS备-0002号 )     论坛法律顾问:王兆丰

    GMT+8, 2026-4-16 23:49 , Processed in 0.454840 second(s), 65 queries .

    回顶部