QQ登录

只需要一步,快速开始

 注册地址  找回密码
查看: 3910|回复: 2
打印 上一主题 下一主题

网络爬虫—利用SAS抓取网页方法

[复制链接]
字体大小: 正常 放大

1341

主题

738

听众

2万

积分

数学中国总编辑

  • TA的每日心情

    2016-11-18 10:46
  • 签到天数: 206 天

    [LV.7]常住居民III

    超级版主

    社区QQ达人 邮箱绑定达人 元老勋章 发帖功臣 新人进步奖 原创写作奖 最具活力勋章 风雨历程奖

    群组2011年第一期数学建模

    群组第一期sas基础实训课堂

    群组第二届数模基础实训

    群组2012第二期MCM/ICM优秀

    群组MCM优秀论文解析专题

    跳转到指定楼层
    1#
    发表于 2012-2-27 15:19 |只看该作者 |倒序浏览
    |招呼Ta 关注Ta |邮箱已经成功绑定
    万维网过多的信息,股票报价,电影评论,市场价格趋势话题,几乎所有的东西,可以发现在点击一个按钮。在分析数据中发现,许多SAS用户感兴趣在网络上,但你得到这个数据的SAS环境呢?有很多方法,如 SAS数据步骤中的代码在设计你自己的网络爬虫或利用SAS%TMFILTER宏 ® 文本挖掘。在本文中,我们将审查一个网络爬虫的总体架构。我们将讨论获得网站的方法到SAS的信息,以及审查内部所谓的SAS搜索从实验项目的实验代码管道。我们也将提供咨询如何轻松定制一个网络爬虫,以适应个性化需求,以及如何具体的数据导入到SAS ® 企业矿工™。% L4 `6 r3 E! Z* s# k: G/ [
    简介:互联网已经成为一个有用的信息来源。通常是Web上的数据,我们要使用内的SAS,所以我们需要找到一种方式来获得这个数据。最好的办法是使用一个网络爬虫。 SAS提供几个从Web爬行和提取信息的方法。您可以使用基本的SAS数据步骤中的代码,或SAS文本矿工的%TMFILTER宏。虽然目前无法使用,SAS搜索管道将是一个功能强大的Web爬行产品,并提供更多的工具,网络爬行。每种方法都有其优点和缺点,所以取决于你想实现抓取的,它是最好对其进行审查。
    4 y9 t( v# I1 A& Q0 M6 H. l( A( a2 B; M
    首先,重要的是要了解网络爬虫是如何工作的。你应该熟悉数据步骤的代码,宏,和SAS过程PROC SQL,然后再继续。8 q! @6 \" w- S4 G
    网络爬虫概述:一个网络爬虫是一个程序,一个或多个起始地址作为“种子URL”,下载网站这些URL相关的网页,在网页中包含的任何超链接提取,并递归地继​​续这些超链接标识下载Web页。从概念上讲,网络爬虫是很简单的。
    6 v: f6 U5 l6 D) F& s  B8 z一个Web 履带式有四项职责:7 Y- s3 O9 e0 [2 l1 [9 l
    1。从候选人中选择一个网址。
    6 t! Y  ]# D) w, e, d1 n2。它下载相关的Web页。9 [; T1 I2 X& Y; J9 _, w$ K
    3。它提取物在网页中的URL(超链接)。- I+ w/ M4 b* z, p
    4。它补充说,未曾遇到的候选集的URL
    ) `/ D; O; I: ]! j1 Z, q7 O9 `! c1 C方法1:在WEB SAS数据步骤中的代码履带式
    & m/ ]4 p6 i  D( K4 \首先创建一个网址的网站的Web crawler将开始列表。
    + q0 X- Q7 T5 Tdata work.links_to_crawl;
    ; @# k2 ]! H/ l5 }9 K  C# ^5 Plength url $256 ;
    ; i: a: S% q: e( E0 K" Linput url $;+ b& f' m+ L% p& }( u
    datalines;3 \5 ~$ O) N, a% h  n- Q
    http://www.yahoo.com
    7 s3 \) O, h# d" I+ Shttp://www.madio.net. I' J( d+ N* w( J* H  v
    http://www.google.com) C+ ?- @* H, P% s, P- u. i
    ;
    " d! r) u. N+ e. {) `run- P2 G; o" y4 g$ U4 n6 y# B
    为了确保我们不抓取相同的URL一次以上,持有环节已创建一个数据抓取。; x" B/ M1 \0 D/ ]+ M1 q
    当Web数据集将在开始时是空的,但一个网站的网址将被添加到数据集履带式完成抓取该网站。
    6 x  `7 R+ [5 q5 `5 |+ ]7 B( \% [+ Kdata work.links_crawled; - c) X: r1 |  l) A( f* @0 ~
    length url $256;( i! J3 ?/ O. W" c3 H: G$ G
    run;+ r' i; M0 J3 ]( b! |3 T7 U/ ]: k; k
    现在我们开始爬行!该代码需要我们的 work.links_to_crawl数据集的第一个URL。在第一观察“_N_式1”,网址是投入名为 next_url 宏变量,所有剩余的URL放回我们的种子URL数据集,使他们在未来的迭代。) |" l( P/ D+ i/ P. T
    /* pop the next url off */
    / s2 F7 _) y) \2 r" o1 [: W: D" @; H# k%let next_url = ;) o" X, T1 Z4 C/ o0 U
    data work.links_to_crawl;
    * i# \+ y3 h# I$ f4 _set work.links_to_crawl;2 p) H( e+ F' l! W& I# a
    if _n_ eq 1 then call symput(“next_url”, url);
    $ u/ G3 ?( M  q# [else output;
    ! F* l2 T; q* a5 C3 g; Z6 l3 Rrun;
    + I, i) g, V. Z. X, E8 J现在,从互联网上下载的网址。创建一个文件名​​称 _nexturl 。我们让SAS知道它是一个URL 而且可以发现,AT&next_url,这是我们的宏观变量,它包含的网址我们从拉 work.links_to_crawl数据集。2 k9 E# O: B1 H# C
    /* crawl the url */
    2 e: f1 M. l. B5 }: @filename _nexturl url “&next_url”
    # `: y6 K8 k4 X- e% v% }, |8 i建立后的文件名​​的URL参考,确定一个地方把我们下载的文件。创建另一个文件名​​引用所谓 htmlfilm的条目,并在那里把从 url_file.html收集到的信息。9 \) x* z5 C6 I$ M% E4 \% X
    /* put the file we crawled here */
    % d- \: A: x$ s1 K2 ffilename htmlfile “url_file.html”
    & `- ^* C/ N5 `& s, }$ b8 D接下来,我们通过数据的循环,把它写htmlfilm的条目文件名​​参考,并寻找更多的网址添加到我们的 work.links_to_crawl数据集。
    # H3 h( U! @* W4 g5 q; A( \' @# W- a' a/* find more urls */ 3 G+ g+ J/ a$ M! C3 [+ T& z
    data work._urls(keep=url);
    * ~8 v  r; ?2 Q1 u/ A2 W1 l" ulength url $256 ;
    . v) D1 `* J- }9 {5 Q1 G* ufile htmlfile;
    8 b2 o' T9 \% q1 jinfile _nexturl length=len;
    / A2 r  D( V1 R( K9 v: O3 l( m* Ginput text $varying2000. len;6 s$ ^6 N% m# q, ?0 D4 X+ m
    put text;, w* x# ?6 R, Z/ U2 \$ E, g
    start = 1;. p) n7 s7 N1 a* G1 T' ~
    stop = length(text);
    8 d- M2 w" r5 N4 k. k. E8 K使用正则表达式一个网站的网址,以帮助搜索。正则表达式的匹配方法文本字符串,如字,词,或字符模式。 SAS已经提供了许多强大的字符串功能。然而,正则表达式通常会提供一个更简洁的方式,操纵和匹配的文本." [  S6 w8 H# q9 o* A# U
    if _n_ = 1 then do;. @$ h5 L2 \: y1 M
    retain patternID;
    & k4 X0 f% K7 u) Ppattern = ‘/href=”([^"]+)”/i’;
    3 g. s) K) f4 n( `* u; ~7 hpatternID = prxparse(pattern);
    8 L/ [* M' n5 u" T! D0 e' c  Xend
    + v( {  _4 q5 f2 b. x; ~首次观察到,创建一个patternID将保持整个数据步运行。寻找的模式是: “/href=”([^"]+)”/i’”.,这意味着我们正在寻找字符串“HREF =”“,然后再寻找任何字符串,是至少有一个字符长,不包含引号(“),并结束在引号(”)。在’我’ 目的的手段使用不区分大小写的方法,以配合我们的正则表达式。4 n7 ^* S/ K) a3 O/ W# n
    As a result, the Web crawler will find these types of strings:
    ' l5 x1 j0 S8 U" Ghref=”sgf/2010/papers.html” - ^8 d; D/ r/ D3 Y1 @' n, e
    href=”www.yahoo.com$ P& F& S9 C* v$ z* Q
    HREF=”www.google.com$ _  T2 r" x, {$ P/ F% @
    hReF=”http://www.madio.net. a; @& b: O- [) W
    现在正则表达式匹配的一个网站上的文字。 PRXNEXT需要五个参数:正则表达式我们要寻找,寻找开始寻找正则表达式的开始位置,结束位置停止正则表达式,一旦发现字符串中的位置,而字符串的长度,如果发现的位置将是0,如果没有找到字符串。 PRXNEXT也改变了开始的参数,使搜索重新开始后的最后一场比赛是发现。* Z% U8 l$ @4 K4 k; C0 x" C
    call prxnext(patternID, start, stop, text, position, length);
    . `5 A9 E- `# c# [- p& W代码中的循环,在网站上找到的所有环节显示的文本。/ ?1 [2 a! m, p  P) _3 e. f* Y4 M
    do while (position ^= 0);
    / @5 n5 i3 ~( O5 w% kurl = substr(text, position+6, length-7);
    ! j# P" s4 [* F1 p: doutput;4 ]9 ^8 X; X1 t# M7 ~3 x0 `
    call prxnext(patternID, start, stop, text, position, length);
    : N$ M6 M# F5 x6 R* ]: Yend;
    3 j9 d* Q# V8 ~( z2 F4 jrun;
    , a1 ~( F7 a9 W* d/ v# d0 ?- d如果代码发现一个网址,它会检索唯一的URL的一部分,启动后的第一个引号。例如,如果代码中发现的HREF =“http://www.new-site.com”,那么它应该保持 http://www.new-site.com 。使用 substr到删除前的6个字符和最后一个字符的URL的其余部分输出的work._urls 数据集。现在,我们插入的URL代码只是以跟踪抓取到一个数据集名为 work.links_crawled 我们已经和确保我们不再次浏览有。
    ) v2 n6 A4 H+ T( ]) n* a4 G/* add the current link to the list of urls we have already crawled */ % \: }2 y5 j3 f( ~
    data work._old_link;0 W+ H3 Z4 U, q) ^# M* J
    url = “&next_url”;2 D" s6 {: M6 k6 g% H
    run;6 g7 D# u1 C9 C5 \: e: s/ T% N: A
    proc append base=work.links_crawled data=work._old_link force;; K/ S9 }2 w9 G: P
    run;8 B# s& f5 u& }: A
    下一步是在数据集 work._urls 的过程中发现的网址列表,以确保:+ n7 k4 s. O" ~$ Q" B# i/ L, ^/ p
    1。我们尚未抓取他们,换句话说URL是不是在 work.links_crawled)。+ G# x% h  j5 p" J0 p
    2。我们没有排队抓取的URL(网址换句话说,是不是在work.links_to_crawl )。
    ' f4 @3 M$ i9 J. A# m/*8 R# ^( w6 O% u
    * only add urls that we have not already crawled
    1 G9 p6 x5 g% T: M( [* or that are not queued up to be crawled% U9 E) G0 B) U
    *7 c& n: b2 h' T7 u1 w
    */
    , o) O. ?( o6 `  Gproc sql noprint;4 N$ j) t% d3 @  i
    create table work._append as
    * {9 V8 \& ^' F( q8 N8 jselect url
    & f1 Z! P) x  K, D9 t/ m, ~+ H. ]7 xfrom work._urls
    2 {2 H) H; ?* D5 B" a) t$ x: h6 Fwhere url not in (select url from work.links_crawled)# w  w. m" o' c4 Z$ T
    and url not in (select url from work.links_to_crawl);
    + i9 i! u' w' _" vquit;9 _7 T0 z6 y5 r6 M
    然后,我们添加网址还没有被抓取,而不是已经排队 work.links_to_crawl数据集。
    * S- B# Y3 o+ E/* add new links */
    , q2 v$ U6 Q/ a1 }3 j2 oproc append base=work.links_to_crawl data=work._append force;
    + ?, g1 ^( l' ^run;1 U, Q' [8 C0 e( V& k8 J
    此时的代码循环回到开始劫掠 work.links_to_crawl数据集的下一个URL。
    3 V. O7 |+ h) c1 r# P, {6 J& O
    zan
    转播转播0 分享淘帖0 分享分享0 收藏收藏0 支持支持0 反对反对0 微信微信
    叶纯萱 实名认证       

    2

    主题

    3

    听众

    107

    积分

    升级  3.5%

  • TA的每日心情
    开心
    2012-5-6 09:13
  • 签到天数: 34 天

    [LV.5]常住居民I

    群组数学专业考研加油站

    群组Matlab讨论组

    群组C 语言讨论组

    群组Linux推广

    群组EXCEL

    回复

    使用道具 举报

    0

    主题

    4

    听众

    35

    积分

    升级  31.58%

  • TA的每日心情
    开心
    2015-7-2 14:33
  • 签到天数: 11 天

    [LV.3]偶尔看看II

    自我介绍
    我是来自浙江工业大学的学生

    群组数学建模培训课堂1

    回复

    使用道具 举报

    您需要登录后才可以回帖 登录 | 注册地址

    qq
    收缩
    • 电话咨询

    • 04714969085
    fastpost

    关于我们| 联系我们| 诚征英才| 对外合作| 产品服务| QQ

    手机版|Archiver| |繁體中文 手机客户端  

    蒙公网安备 15010502000194号

    Powered by Discuz! X2.5   © 2001-2013 数学建模网-数学中国 ( 蒙ICP备14002410号-3 蒙BBS备-0002号 )     论坛法律顾问:王兆丰

    GMT+8, 2025-11-9 12:31 , Processed in 2.331812 second(s), 66 queries .

    回顶部