QQ登录

只需要一步,快速开始

 注册地址  找回密码
查看: 3824|回复: 2
打印 上一主题 下一主题

网络爬虫—利用SAS抓取网页方法

[复制链接]
字体大小: 正常 放大

1341

主题

738

听众

2万

积分

数学中国总编辑

  • TA的每日心情

    2016-11-18 10:46
  • 签到天数: 206 天

    [LV.7]常住居民III

    超级版主

    社区QQ达人 邮箱绑定达人 元老勋章 发帖功臣 新人进步奖 原创写作奖 最具活力勋章 风雨历程奖

    群组2011年第一期数学建模

    群组第一期sas基础实训课堂

    群组第二届数模基础实训

    群组2012第二期MCM/ICM优秀

    群组MCM优秀论文解析专题

    跳转到指定楼层
    1#
    发表于 2012-2-27 15:19 |只看该作者 |倒序浏览
    |招呼Ta 关注Ta |邮箱已经成功绑定
    万维网过多的信息,股票报价,电影评论,市场价格趋势话题,几乎所有的东西,可以发现在点击一个按钮。在分析数据中发现,许多SAS用户感兴趣在网络上,但你得到这个数据的SAS环境呢?有很多方法,如 SAS数据步骤中的代码在设计你自己的网络爬虫或利用SAS%TMFILTER宏 ® 文本挖掘。在本文中,我们将审查一个网络爬虫的总体架构。我们将讨论获得网站的方法到SAS的信息,以及审查内部所谓的SAS搜索从实验项目的实验代码管道。我们也将提供咨询如何轻松定制一个网络爬虫,以适应个性化需求,以及如何具体的数据导入到SAS ® 企业矿工™。# Q8 l( i  n2 o/ p
    简介:互联网已经成为一个有用的信息来源。通常是Web上的数据,我们要使用内的SAS,所以我们需要找到一种方式来获得这个数据。最好的办法是使用一个网络爬虫。 SAS提供几个从Web爬行和提取信息的方法。您可以使用基本的SAS数据步骤中的代码,或SAS文本矿工的%TMFILTER宏。虽然目前无法使用,SAS搜索管道将是一个功能强大的Web爬行产品,并提供更多的工具,网络爬行。每种方法都有其优点和缺点,所以取决于你想实现抓取的,它是最好对其进行审查。$ E- p) v! i8 Z( Z4 B- c8 a
    $ Z2 H! n' n; L7 x0 W: [9 V3 k) T
    首先,重要的是要了解网络爬虫是如何工作的。你应该熟悉数据步骤的代码,宏,和SAS过程PROC SQL,然后再继续。0 ^: L# U, m! M! D+ A
    网络爬虫概述:一个网络爬虫是一个程序,一个或多个起始地址作为“种子URL”,下载网站这些URL相关的网页,在网页中包含的任何超链接提取,并递归地继​​续这些超链接标识下载Web页。从概念上讲,网络爬虫是很简单的。8 L" W2 T/ ]: |: {) z1 q
    一个Web 履带式有四项职责:$ Q9 \  [. M1 F+ }4 H
    1。从候选人中选择一个网址。
    ; c! F0 e+ C3 I) A9 O2。它下载相关的Web页。
    7 o9 _) D# M- \& x. V3。它提取物在网页中的URL(超链接)。$ X; Q/ D( l2 X: S9 t' {  @* Q
    4。它补充说,未曾遇到的候选集的URL$ S  u8 ]4 [. a
    方法1:在WEB SAS数据步骤中的代码履带式+ }  b- @/ ~( m0 e( O( H
    首先创建一个网址的网站的Web crawler将开始列表。
    # P* E+ _5 q) G2 O$ Y. [data work.links_to_crawl;0 u9 z! k) N, K" d  w, m, R
    length url $256 ;
    , S' ~5 M. k" j5 M4 minput url $;
    6 z+ O4 V' i) M9 Bdatalines;
    3 ?& @7 G) q3 ]2 ~0 N% Shttp://www.yahoo.com
    ( k0 Y: |+ n! n( r% N  Y1 u) Whttp://www.madio.net
    ; j) g: A% A, e* Uhttp://www.google.com
    1 j  F# J; A- J2 k$ p+ B;7 ?3 N+ X$ |/ K$ O
    run! R- i9 }' _2 c  U# \; @$ A
    为了确保我们不抓取相同的URL一次以上,持有环节已创建一个数据抓取。
    3 w- g& q& }0 f3 _* M% A1 n3 f1 {6 H/ v  d当Web数据集将在开始时是空的,但一个网站的网址将被添加到数据集履带式完成抓取该网站。
      f1 z  k4 ?& T! J9 ?$ \data work.links_crawled; ' M+ X4 r; U7 j
    length url $256;
    ) Z8 }! f" s8 n/ t& U$ G+ prun;
    4 m7 R9 U1 N: o4 ?0 `现在我们开始爬行!该代码需要我们的 work.links_to_crawl数据集的第一个URL。在第一观察“_N_式1”,网址是投入名为 next_url 宏变量,所有剩余的URL放回我们的种子URL数据集,使他们在未来的迭代。
    2 z( M5 d" a8 j' b3 X: G, `* Q/* pop the next url off */
    / I7 a, e7 ?0 Y' c% Q%let next_url = ;
    8 S# u9 j$ I# Z* D: O% _& Zdata work.links_to_crawl;
    # G( `7 v5 J2 Fset work.links_to_crawl;
    - ~2 B& S4 ]- F3 Z8 p1 m9 P4 dif _n_ eq 1 then call symput(“next_url”, url);
    4 Y9 E4 @% @8 ?$ c( j2 H" K: belse output;
    % H( f0 k0 L% \( t- V" n9 trun;
    ( i8 s7 K" }1 Y3 v4 z+ G现在,从互联网上下载的网址。创建一个文件名​​称 _nexturl 。我们让SAS知道它是一个URL 而且可以发现,AT&next_url,这是我们的宏观变量,它包含的网址我们从拉 work.links_to_crawl数据集。% F$ ~8 v& S( f  G0 w3 s
    /* crawl the url */# [- H7 N" I- R
    filename _nexturl url “&next_url”* U6 \6 e( `) k' e+ M; H) ^
    建立后的文件名​​的URL参考,确定一个地方把我们下载的文件。创建另一个文件名​​引用所谓 htmlfilm的条目,并在那里把从 url_file.html收集到的信息。
      z6 C" `& ?. r1 ^2 N( @8 l4 X# P/* put the file we crawled here */
    " V$ T9 J  d, Bfilename htmlfile “url_file.html”1 D  r6 L" p& X  l# Q
    接下来,我们通过数据的循环,把它写htmlfilm的条目文件名​​参考,并寻找更多的网址添加到我们的 work.links_to_crawl数据集。3 Y1 i* ~1 ]) X5 D# ]2 D
    /* find more urls */
    8 W. W2 U& _0 }6 O' K- r0 m1 Jdata work._urls(keep=url);
    ( O5 W# H: `+ f/ m2 ilength url $256 ;
    / Y; @/ X8 P# \+ qfile htmlfile;
    ) x3 |3 q, q! G4 c/ l  Qinfile _nexturl length=len;% l, b. L3 {/ j# l
    input text $varying2000. len;- a/ G5 U& B  @: k' `! x
    put text;( S6 r5 y4 N; d1 e
    start = 1;# S; D0 }/ ~4 }. P, r, c" N; n; I
    stop = length(text);6 E9 b( J" I6 _
    使用正则表达式一个网站的网址,以帮助搜索。正则表达式的匹配方法文本字符串,如字,词,或字符模式。 SAS已经提供了许多强大的字符串功能。然而,正则表达式通常会提供一个更简洁的方式,操纵和匹配的文本.
    " X, P/ W8 w2 Y* @3 t, Rif _n_ = 1 then do;
    9 G, k- r% H! g) E( v5 Mretain patternID;
    # Z9 r6 v/ q; r: t7 q5 |pattern = ‘/href=”([^"]+)”/i’;
    % ^& \* R2 P( H: D* upatternID = prxparse(pattern);
    5 t- F. |3 b8 xend
    6 A5 _2 \9 O4 \4 B# ?$ E首次观察到,创建一个patternID将保持整个数据步运行。寻找的模式是: “/href=”([^"]+)”/i’”.,这意味着我们正在寻找字符串“HREF =”“,然后再寻找任何字符串,是至少有一个字符长,不包含引号(“),并结束在引号(”)。在’我’ 目的的手段使用不区分大小写的方法,以配合我们的正则表达式。: N$ R- {  w  P" d' O6 w
    As a result, the Web crawler will find these types of strings:
      L& _: f% f( ~/ d( Ihref=”sgf/2010/papers.html”
    ' f5 S  |( }6 |* ?; a; nhref=”www.yahoo.com
    2 T! x7 N8 t- J7 [HREF=”www.google.com
    " s) p* [5 y" ?9 J! G  v4 R, [hReF=”http://www.madio.net6 g/ d2 m4 ~' D0 r* H4 f
    现在正则表达式匹配的一个网站上的文字。 PRXNEXT需要五个参数:正则表达式我们要寻找,寻找开始寻找正则表达式的开始位置,结束位置停止正则表达式,一旦发现字符串中的位置,而字符串的长度,如果发现的位置将是0,如果没有找到字符串。 PRXNEXT也改变了开始的参数,使搜索重新开始后的最后一场比赛是发现。
    : X5 Q( m' P" }3 M! u! `call prxnext(patternID, start, stop, text, position, length);
    , s' j# e+ q6 t. O! Y4 C代码中的循环,在网站上找到的所有环节显示的文本。! s; I" }" C5 W% X
    do while (position ^= 0);
    ) S% {( e  ?* v  t2 {, ?7 purl = substr(text, position+6, length-7);
    . i( }9 _9 Y% D% ^7 f) Qoutput;! e5 w3 X6 Y% z, e" ]
    call prxnext(patternID, start, stop, text, position, length);+ f* d3 _7 j4 Z- k+ M# l, a; V3 q
    end;- i* _& U, D! s5 L2 S
    run;  f9 u, [: s/ F1 a# p
    如果代码发现一个网址,它会检索唯一的URL的一部分,启动后的第一个引号。例如,如果代码中发现的HREF =“http://www.new-site.com”,那么它应该保持 http://www.new-site.com 。使用 substr到删除前的6个字符和最后一个字符的URL的其余部分输出的work._urls 数据集。现在,我们插入的URL代码只是以跟踪抓取到一个数据集名为 work.links_crawled 我们已经和确保我们不再次浏览有。
    3 ^. Y; X. Z9 ?3 |7 o/* add the current link to the list of urls we have already crawled */ ) s$ Q) y+ U7 a* z8 i
    data work._old_link;
    1 t+ S5 B; n7 Q  ?- Yurl = “&next_url”;
    ; g8 v( w. K( [9 g8 [' U5 Nrun;
    / p. i2 c, O) g) Iproc append base=work.links_crawled data=work._old_link force;
    9 O6 [: ^2 z; U7 R6 \run;
    . T& _) Z9 j( V1 E9 S% [4 k下一步是在数据集 work._urls 的过程中发现的网址列表,以确保:
    $ @- _# D3 S% v1 x4 i1。我们尚未抓取他们,换句话说URL是不是在 work.links_crawled)。* G, l* [7 E- C: s
    2。我们没有排队抓取的URL(网址换句话说,是不是在work.links_to_crawl )。/ @* q3 b2 v) F4 e3 t; V- M
    /*
    $ y2 h7 F# S6 B4 L+ l# Y+ R* only add urls that we have not already crawled; d3 U8 ~; ^% X9 p: B$ @! n
    * or that are not queued up to be crawled
    * T0 n% }- r: n- V*
    5 }8 z7 d/ A0 q  j8 W*/5 ~7 A$ b& i+ n; ]) c* M( a
    proc sql noprint;6 N. k2 Z4 ^1 Z# w& E% |# G, w
    create table work._append as8 X  k: n, `3 p$ e. k8 i) ^
    select url
    4 m& O0 S  _& e3 rfrom work._urls; @* b( {+ K0 ]
    where url not in (select url from work.links_crawled)
    : b9 ~, E7 |2 }. Oand url not in (select url from work.links_to_crawl);
    + N# @9 w9 G  X$ }( Bquit;
    4 P* Q7 i/ G7 ?# C( D然后,我们添加网址还没有被抓取,而不是已经排队 work.links_to_crawl数据集。
    8 Z: z/ }& t1 R6 X$ S5 }( {/* add new links */
    & G' _8 w2 C. w% |# @- X! v2 Yproc append base=work.links_to_crawl data=work._append force;
    ' z6 w( Z2 C+ z# a8 krun;( w! c2 ~; f9 H; p+ V6 c( T
    此时的代码循环回到开始劫掠 work.links_to_crawl数据集的下一个URL。
    + D' g  r% {* @
    zan
    转播转播0 分享淘帖0 分享分享0 收藏收藏0 支持支持0 反对反对0 微信微信
    叶纯萱 实名认证       

    2

    主题

    3

    听众

    107

    积分

    升级  3.5%

  • TA的每日心情
    开心
    2012-5-6 09:13
  • 签到天数: 34 天

    [LV.5]常住居民I

    群组数学专业考研加油站

    群组Matlab讨论组

    群组C 语言讨论组

    群组Linux推广

    群组EXCEL

    回复

    使用道具 举报

    0

    主题

    4

    听众

    35

    积分

    升级  31.58%

  • TA的每日心情
    开心
    2015-7-2 14:33
  • 签到天数: 11 天

    [LV.3]偶尔看看II

    自我介绍
    我是来自浙江工业大学的学生

    群组数学建模培训课堂1

    回复

    使用道具 举报

    您需要登录后才可以回帖 登录 | 注册地址

    qq
    收缩
    • 电话咨询

    • 04714969085
    fastpost

    关于我们| 联系我们| 诚征英才| 对外合作| 产品服务| QQ

    手机版|Archiver| |繁體中文 手机客户端  

    蒙公网安备 15010502000194号

    Powered by Discuz! X2.5   © 2001-2013 数学建模网-数学中国 ( 蒙ICP备14002410号-3 蒙BBS备-0002号 )     论坛法律顾问:王兆丰

    GMT+8, 2025-8-7 04:08 , Processed in 0.354332 second(s), 65 queries .

    回顶部