QQ登录

只需要一步,快速开始

 注册地址  找回密码
查看: 3839|回复: 2
打印 上一主题 下一主题

网络爬虫—利用SAS抓取网页方法

[复制链接]
字体大小: 正常 放大

1341

主题

738

听众

2万

积分

数学中国总编辑

  • TA的每日心情

    2016-11-18 10:46
  • 签到天数: 206 天

    [LV.7]常住居民III

    超级版主

    社区QQ达人 邮箱绑定达人 元老勋章 发帖功臣 新人进步奖 原创写作奖 最具活力勋章 风雨历程奖

    群组2011年第一期数学建模

    群组第一期sas基础实训课堂

    群组第二届数模基础实训

    群组2012第二期MCM/ICM优秀

    群组MCM优秀论文解析专题

    跳转到指定楼层
    1#
    发表于 2012-2-27 15:19 |只看该作者 |倒序浏览
    |招呼Ta 关注Ta |邮箱已经成功绑定
    万维网过多的信息,股票报价,电影评论,市场价格趋势话题,几乎所有的东西,可以发现在点击一个按钮。在分析数据中发现,许多SAS用户感兴趣在网络上,但你得到这个数据的SAS环境呢?有很多方法,如 SAS数据步骤中的代码在设计你自己的网络爬虫或利用SAS%TMFILTER宏 ® 文本挖掘。在本文中,我们将审查一个网络爬虫的总体架构。我们将讨论获得网站的方法到SAS的信息,以及审查内部所谓的SAS搜索从实验项目的实验代码管道。我们也将提供咨询如何轻松定制一个网络爬虫,以适应个性化需求,以及如何具体的数据导入到SAS ® 企业矿工™。
    . y- l4 x4 `- \7 c2 u) g( [* ]简介:互联网已经成为一个有用的信息来源。通常是Web上的数据,我们要使用内的SAS,所以我们需要找到一种方式来获得这个数据。最好的办法是使用一个网络爬虫。 SAS提供几个从Web爬行和提取信息的方法。您可以使用基本的SAS数据步骤中的代码,或SAS文本矿工的%TMFILTER宏。虽然目前无法使用,SAS搜索管道将是一个功能强大的Web爬行产品,并提供更多的工具,网络爬行。每种方法都有其优点和缺点,所以取决于你想实现抓取的,它是最好对其进行审查。% Z7 n: Q- x9 t- [7 D0 J/ j( q

    6 `* o% K% m5 L0 ?) v: N首先,重要的是要了解网络爬虫是如何工作的。你应该熟悉数据步骤的代码,宏,和SAS过程PROC SQL,然后再继续。
    + h: e; M6 a' X网络爬虫概述:一个网络爬虫是一个程序,一个或多个起始地址作为“种子URL”,下载网站这些URL相关的网页,在网页中包含的任何超链接提取,并递归地继​​续这些超链接标识下载Web页。从概念上讲,网络爬虫是很简单的。8 A; ?( n3 o: ]2 P3 q7 a
    一个Web 履带式有四项职责:. M9 m+ T5 a" A+ f2 q/ F
    1。从候选人中选择一个网址。
    ! `% k, S9 L, {: O2 q- p% e2。它下载相关的Web页。
    " D8 }2 a% H# V) f8 s8 ]3。它提取物在网页中的URL(超链接)。
    ; s9 O5 A$ }( d! _4。它补充说,未曾遇到的候选集的URL+ `0 a8 P' V/ G
    方法1:在WEB SAS数据步骤中的代码履带式
    $ x3 N' X+ j5 F' Q首先创建一个网址的网站的Web crawler将开始列表。
    1 n9 r# v2 Q' e9 d0 ydata work.links_to_crawl;
      K/ H$ B: }& F  V' A) G/ m7 ilength url $256 ;. H7 H- L! T! t, i/ k' T
    input url $;
    : o  P/ V- k8 w& u& a$ w+ |0 ^. a3 Ddatalines;
    ; G& w! d. ?% L' Xhttp://www.yahoo.com3 D7 P$ r$ p5 |1 V
    http://www.madio.net
    - i# W; ~) F4 Z' M  c0 dhttp://www.google.com
    $ O% w! g7 E. C* B# y5 u. ^% q;
    & p3 e1 N1 t2 N- T2 \3 Q+ X# r$ n( brun
      a2 [( c! R# t# Q( c0 t* |为了确保我们不抓取相同的URL一次以上,持有环节已创建一个数据抓取。
    2 T% p: x4 {3 f) y1 W2 w2 {当Web数据集将在开始时是空的,但一个网站的网址将被添加到数据集履带式完成抓取该网站。' b# r! \- b2 j
    data work.links_crawled;   l9 B* H4 G+ B0 o
    length url $256;
    3 l6 l+ b" ]; V& F3 |. |5 Erun;
    * W; D7 Y8 [" V( H( h# I现在我们开始爬行!该代码需要我们的 work.links_to_crawl数据集的第一个URL。在第一观察“_N_式1”,网址是投入名为 next_url 宏变量,所有剩余的URL放回我们的种子URL数据集,使他们在未来的迭代。( O- j3 m' s0 r  `& n( p
    /* pop the next url off */
    ! f3 p; E4 [, o0 U  H3 m%let next_url = ;* o2 W3 W* i5 M6 p% x
    data work.links_to_crawl;
    3 k. @1 }% @5 @0 H7 Rset work.links_to_crawl;
    ' X9 H# Q( K  V3 Jif _n_ eq 1 then call symput(“next_url”, url);7 p( U) W6 b" T% Y# x. o# k
    else output;% {4 ^. Z: ^, B; z
    run;
    + l7 \! ^/ }5 @- |) ~现在,从互联网上下载的网址。创建一个文件名​​称 _nexturl 。我们让SAS知道它是一个URL 而且可以发现,AT&next_url,这是我们的宏观变量,它包含的网址我们从拉 work.links_to_crawl数据集。. b" e/ G7 C4 H2 Q% u* y
    /* crawl the url */5 i* W# {# P# E! _  w2 `  s% K9 @
    filename _nexturl url “&next_url”
    3 V2 ]( |! Z: J5 }建立后的文件名​​的URL参考,确定一个地方把我们下载的文件。创建另一个文件名​​引用所谓 htmlfilm的条目,并在那里把从 url_file.html收集到的信息。3 q' J/ |3 x8 |  l
    /* put the file we crawled here */7 J9 e+ h8 I' d0 i0 Z
    filename htmlfile “url_file.html”* D& S  I  e( p/ z
    接下来,我们通过数据的循环,把它写htmlfilm的条目文件名​​参考,并寻找更多的网址添加到我们的 work.links_to_crawl数据集。8 l) }0 A* I  k
    /* find more urls */ - k* s8 Y8 _" J0 D. G( L: h
    data work._urls(keep=url);
    * }) r; z1 J) T: Plength url $256 ;
    6 H, ^- z9 V* F) Vfile htmlfile;6 m) j0 P# d: p0 L5 r% }/ T
    infile _nexturl length=len;
    3 _. X% R% V, D  [input text $varying2000. len;6 j3 U5 n: z, r! c
    put text;+ y7 d+ \+ w8 B* [, h6 q
    start = 1;
    7 ]5 a1 a+ z& F+ g3 Z6 Kstop = length(text);
    ' H2 D% M9 Z# M使用正则表达式一个网站的网址,以帮助搜索。正则表达式的匹配方法文本字符串,如字,词,或字符模式。 SAS已经提供了许多强大的字符串功能。然而,正则表达式通常会提供一个更简洁的方式,操纵和匹配的文本.) F% {; K4 C( w$ Y, T' t
    if _n_ = 1 then do;
    ) P5 q; K2 @6 T4 H0 I* E+ Cretain patternID;- b  @( L1 F5 i2 \$ g; a
    pattern = ‘/href=”([^"]+)”/i’;
    * X( s1 D# c1 e/ ~patternID = prxparse(pattern);$ u+ h7 D" ?' o# g3 U' c" c6 c
    end
    ! J8 Q# X' T) P7 f+ i0 j/ r2 B" v首次观察到,创建一个patternID将保持整个数据步运行。寻找的模式是: “/href=”([^"]+)”/i’”.,这意味着我们正在寻找字符串“HREF =”“,然后再寻找任何字符串,是至少有一个字符长,不包含引号(“),并结束在引号(”)。在’我’ 目的的手段使用不区分大小写的方法,以配合我们的正则表达式。
    # H- v8 h+ W# F: L) y  ]As a result, the Web crawler will find these types of strings:6 X& A, b1 P' |+ F& ?9 Y  _
    href=”sgf/2010/papers.html”
      U" b2 m7 l: h* h. w& y# Uhref=”www.yahoo.com
    3 m4 J7 G; D  I9 {HREF=”www.google.com. ]% ?, y$ ]3 _- N' _
    hReF=”http://www.madio.net6 }3 ?/ N! e  e' c0 n/ s
    现在正则表达式匹配的一个网站上的文字。 PRXNEXT需要五个参数:正则表达式我们要寻找,寻找开始寻找正则表达式的开始位置,结束位置停止正则表达式,一旦发现字符串中的位置,而字符串的长度,如果发现的位置将是0,如果没有找到字符串。 PRXNEXT也改变了开始的参数,使搜索重新开始后的最后一场比赛是发现。' S( C% V, a5 a, `0 P# R
    call prxnext(patternID, start, stop, text, position, length);1 b7 s) R) q! Q9 H
    代码中的循环,在网站上找到的所有环节显示的文本。
    ( f/ d" ?- b8 Vdo while (position ^= 0);
    ) ]& |5 N3 q7 Y9 K- vurl = substr(text, position+6, length-7);2 u6 V9 e/ D, O1 b, ?8 `# G
    output;8 o$ T. N: d/ d5 V- n
    call prxnext(patternID, start, stop, text, position, length);
    % }) H) T4 u; I; C( p$ C+ Jend;3 m$ v: j: o) d; Z9 I- `7 j. o  u
    run;5 C, k% @+ }5 P, p- j
    如果代码发现一个网址,它会检索唯一的URL的一部分,启动后的第一个引号。例如,如果代码中发现的HREF =“http://www.new-site.com”,那么它应该保持 http://www.new-site.com 。使用 substr到删除前的6个字符和最后一个字符的URL的其余部分输出的work._urls 数据集。现在,我们插入的URL代码只是以跟踪抓取到一个数据集名为 work.links_crawled 我们已经和确保我们不再次浏览有。! `& R' i3 S% X- Y, T
    /* add the current link to the list of urls we have already crawled */
    6 t2 r8 C5 V1 sdata work._old_link;
    " M- t' i: Y. A& j7 E* X  @url = “&next_url”;
    3 o3 |8 j: @6 g* K- Z" q* Frun;
    1 h' F/ y( a7 z+ e0 cproc append base=work.links_crawled data=work._old_link force;
    5 Q7 \5 D7 N: @  _- P7 I& @, |' c2 Orun;' h, w" h. l& T. h
    下一步是在数据集 work._urls 的过程中发现的网址列表,以确保:
    * W& @2 e3 j8 J0 U$ D8 k" S1。我们尚未抓取他们,换句话说URL是不是在 work.links_crawled)。
    3 s; Q* u4 Z7 o5 ?* j/ `- R9 z2。我们没有排队抓取的URL(网址换句话说,是不是在work.links_to_crawl )。
    3 T( t) ^+ T$ y% t( F6 g$ b5 i/*7 p& l9 v, G, K' |# s" X3 x7 n
    * only add urls that we have not already crawled
    & T9 ~  \1 V, B* or that are not queued up to be crawled  c, s" Q: f+ o; s* p
    *' c2 a' U3 T. X/ @8 h3 B2 r
    */
    : h8 L4 G; |# e# x; M& Vproc sql noprint;$ s& [& U' l/ m3 I" r- \
    create table work._append as- T6 \* k+ A6 B) u- n  o) a$ g
    select url
    8 P7 L4 `6 {) vfrom work._urls+ F7 g, ?- B% h+ y$ Y# ~3 e
    where url not in (select url from work.links_crawled)
    9 h+ O" v7 E( o+ |and url not in (select url from work.links_to_crawl);
    - `: a8 G2 [2 b6 @quit;  X9 X4 S+ j% k: J
    然后,我们添加网址还没有被抓取,而不是已经排队 work.links_to_crawl数据集。
    ! K9 S' x. ~- K$ T/* add new links */6 _, D9 N9 o: _/ h2 c7 |# w+ E
    proc append base=work.links_to_crawl data=work._append force;# P) Y7 i% x7 h0 C& p% a* a' P/ f
    run;* `% g9 x4 ~9 V  c! r3 x
    此时的代码循环回到开始劫掠 work.links_to_crawl数据集的下一个URL。7 p  N) e/ K. @9 [) T2 z7 z4 d
    zan
    转播转播0 分享淘帖0 分享分享0 收藏收藏0 支持支持0 反对反对0 微信微信
    叶纯萱 实名认证       

    2

    主题

    3

    听众

    107

    积分

    升级  3.5%

  • TA的每日心情
    开心
    2012-5-6 09:13
  • 签到天数: 34 天

    [LV.5]常住居民I

    群组数学专业考研加油站

    群组Matlab讨论组

    群组C 语言讨论组

    群组Linux推广

    群组EXCEL

    回复

    使用道具 举报

    0

    主题

    4

    听众

    35

    积分

    升级  31.58%

  • TA的每日心情
    开心
    2015-7-2 14:33
  • 签到天数: 11 天

    [LV.3]偶尔看看II

    自我介绍
    我是来自浙江工业大学的学生

    群组数学建模培训课堂1

    回复

    使用道具 举报

    您需要登录后才可以回帖 登录 | 注册地址

    qq
    收缩
    • 电话咨询

    • 04714969085
    fastpost

    关于我们| 联系我们| 诚征英才| 对外合作| 产品服务| QQ

    手机版|Archiver| |繁體中文 手机客户端  

    蒙公网安备 15010502000194号

    Powered by Discuz! X2.5   © 2001-2013 数学建模网-数学中国 ( 蒙ICP备14002410号-3 蒙BBS备-0002号 )     论坛法律顾问:王兆丰

    GMT+8, 2025-8-15 08:48 , Processed in 0.601372 second(s), 65 queries .

    回顶部