QQ登录

只需要一步,快速开始

 注册地址  找回密码
查看: 4036|回复: 2
打印 上一主题 下一主题

网络爬虫—利用SAS抓取网页方法

[复制链接]
字体大小: 正常 放大

1341

主题

738

听众

2万

积分

数学中国总编辑

  • TA的每日心情

    2016-11-18 10:46
  • 签到天数: 206 天

    [LV.7]常住居民III

    超级版主

    社区QQ达人 邮箱绑定达人 元老勋章 发帖功臣 新人进步奖 原创写作奖 最具活力勋章 风雨历程奖

    群组2011年第一期数学建模

    群组第一期sas基础实训课堂

    群组第二届数模基础实训

    群组2012第二期MCM/ICM优秀

    群组MCM优秀论文解析专题

    跳转到指定楼层
    1#
    发表于 2012-2-27 15:19 |只看该作者 |倒序浏览
    |招呼Ta 关注Ta |邮箱已经成功绑定
    万维网过多的信息,股票报价,电影评论,市场价格趋势话题,几乎所有的东西,可以发现在点击一个按钮。在分析数据中发现,许多SAS用户感兴趣在网络上,但你得到这个数据的SAS环境呢?有很多方法,如 SAS数据步骤中的代码在设计你自己的网络爬虫或利用SAS%TMFILTER宏 ® 文本挖掘。在本文中,我们将审查一个网络爬虫的总体架构。我们将讨论获得网站的方法到SAS的信息,以及审查内部所谓的SAS搜索从实验项目的实验代码管道。我们也将提供咨询如何轻松定制一个网络爬虫,以适应个性化需求,以及如何具体的数据导入到SAS ® 企业矿工™。4 O3 w5 n  B8 k) T8 s. x
    简介:互联网已经成为一个有用的信息来源。通常是Web上的数据,我们要使用内的SAS,所以我们需要找到一种方式来获得这个数据。最好的办法是使用一个网络爬虫。 SAS提供几个从Web爬行和提取信息的方法。您可以使用基本的SAS数据步骤中的代码,或SAS文本矿工的%TMFILTER宏。虽然目前无法使用,SAS搜索管道将是一个功能强大的Web爬行产品,并提供更多的工具,网络爬行。每种方法都有其优点和缺点,所以取决于你想实现抓取的,它是最好对其进行审查。% r: _) {6 T% _- K+ S* J3 X0 K

    8 a% |" L7 @$ L, a( |2 p首先,重要的是要了解网络爬虫是如何工作的。你应该熟悉数据步骤的代码,宏,和SAS过程PROC SQL,然后再继续。( W; k% D1 Z4 A8 W9 ]1 ]
    网络爬虫概述:一个网络爬虫是一个程序,一个或多个起始地址作为“种子URL”,下载网站这些URL相关的网页,在网页中包含的任何超链接提取,并递归地继​​续这些超链接标识下载Web页。从概念上讲,网络爬虫是很简单的。, j7 E- K  H5 ?. X
    一个Web 履带式有四项职责:  O, @* x" F4 F8 m- C
    1。从候选人中选择一个网址。
    " y3 L  Y1 |  `* p" k8 e- }1 r+ b; K2。它下载相关的Web页。* q2 X) v7 x" O+ W0 N' h( X  B
    3。它提取物在网页中的URL(超链接)。- G. n2 b6 B! G, H
    4。它补充说,未曾遇到的候选集的URL* S& G  O, _% E* u# W
    方法1:在WEB SAS数据步骤中的代码履带式
    , l7 t* O9 U6 i首先创建一个网址的网站的Web crawler将开始列表。
    & a5 p1 U" `# ]3 c7 Ndata work.links_to_crawl;6 @  b6 p& o$ G& f& Y; F0 T  `
    length url $256 ;
    - P5 W7 C2 V. }3 ~0 W: Vinput url $;
    " V4 w" u7 B6 W- C1 T" ydatalines;( ?  M* ?5 M( P
    http://www.yahoo.com
    # f7 S) G  c( d9 Ahttp://www.madio.net
    9 n! E$ l) p7 }http://www.google.com
    8 S' e( U3 I0 c7 ]. |( {4 A;
    # ]/ p# V- S+ ^) I( M8 D  nrun; A0 d2 w4 B0 u
    为了确保我们不抓取相同的URL一次以上,持有环节已创建一个数据抓取。& W" c7 l0 O  I; v5 H6 L
    当Web数据集将在开始时是空的,但一个网站的网址将被添加到数据集履带式完成抓取该网站。
    " c2 ?0 i  \6 d2 G( Y  p4 qdata work.links_crawled;
    2 n  u/ q; `; K! elength url $256;
    * S- b3 ^( ]* z- Z' ?/ n7 Vrun;8 L0 ]1 h' `* m5 Q3 n, X/ p
    现在我们开始爬行!该代码需要我们的 work.links_to_crawl数据集的第一个URL。在第一观察“_N_式1”,网址是投入名为 next_url 宏变量,所有剩余的URL放回我们的种子URL数据集,使他们在未来的迭代。+ Q# ^9 [- T* F( O
    /* pop the next url off */
    4 e5 f8 y* }/ W4 o+ P%let next_url = ;
    : _  E) p# H( _8 F: N4 Udata work.links_to_crawl;# Z# t8 j; m: r
    set work.links_to_crawl;
    $ a2 \9 r" B( }3 Y* H# F/ zif _n_ eq 1 then call symput(“next_url”, url);0 c7 Q7 ~9 Y! Z9 z3 A& ~7 }
    else output;* C. _: y0 r# l8 `9 x/ H
    run;4 w" O8 B1 _2 E3 \1 T! \
    现在,从互联网上下载的网址。创建一个文件名​​称 _nexturl 。我们让SAS知道它是一个URL 而且可以发现,AT&next_url,这是我们的宏观变量,它包含的网址我们从拉 work.links_to_crawl数据集。- j/ B# M) A: V& P
    /* crawl the url */& U! l% N/ g4 @4 Z7 C
    filename _nexturl url “&next_url”
    % X4 l) r. W' [* h9 ?8 l- k6 K建立后的文件名​​的URL参考,确定一个地方把我们下载的文件。创建另一个文件名​​引用所谓 htmlfilm的条目,并在那里把从 url_file.html收集到的信息。( V% I& l& ?3 N" [
    /* put the file we crawled here */
    % W: N2 w7 @! ?; Yfilename htmlfile “url_file.html”
    3 Z- }! }( C- O# j) J8 c接下来,我们通过数据的循环,把它写htmlfilm的条目文件名​​参考,并寻找更多的网址添加到我们的 work.links_to_crawl数据集。& S0 W, ?: U$ m7 D: O
    /* find more urls */ ) H% O0 t( L7 X: I$ T+ m
    data work._urls(keep=url);& R% ]. k/ A$ A8 E' K6 N
    length url $256 ;; S- b3 W$ x+ ^# Q! Z3 O  k- W
    file htmlfile;
    0 {/ T4 I" S: i4 L; r/ kinfile _nexturl length=len;
    8 [1 ?( f: Y0 ~& v! z% K/ D  O) j  Pinput text $varying2000. len;
    & `- L: c, ]) K# U5 m0 R1 gput text;
    + {  c  p0 c- R+ }- B3 f  l6 |start = 1;2 ~: |5 _  ]. C: l& S( w* y
    stop = length(text);
    ( Q6 |8 G, ~& k使用正则表达式一个网站的网址,以帮助搜索。正则表达式的匹配方法文本字符串,如字,词,或字符模式。 SAS已经提供了许多强大的字符串功能。然而,正则表达式通常会提供一个更简洁的方式,操纵和匹配的文本.+ V" i0 m+ g# t
    if _n_ = 1 then do;
    & e; L. R) ^( k* Y- Z1 Gretain patternID;5 e9 `$ }  T1 i0 ?( \% w
    pattern = ‘/href=”([^"]+)”/i’;
    8 J# Y1 N( ]' ]: `/ hpatternID = prxparse(pattern);# Z# V% e( j# Q! d# I
    end3 Z6 ]. O& l9 d1 m# q
    首次观察到,创建一个patternID将保持整个数据步运行。寻找的模式是: “/href=”([^"]+)”/i’”.,这意味着我们正在寻找字符串“HREF =”“,然后再寻找任何字符串,是至少有一个字符长,不包含引号(“),并结束在引号(”)。在’我’ 目的的手段使用不区分大小写的方法,以配合我们的正则表达式。4 ]( [5 P$ {/ ]9 P( Y, q/ O% E( d
    As a result, the Web crawler will find these types of strings:
    ' d' u9 R- q, _/ g2 p5 X, Phref=”sgf/2010/papers.html”
    # c7 t0 J4 @6 `6 J. o: p5 Vhref=”www.yahoo.com9 b# [- o5 p, p- c# O5 k  p
    HREF=”www.google.com
    3 v& ^! F: w: u# i- q  mhReF=”http://www.madio.net- o1 H4 Z; o# G7 G( {) i- t! A
    现在正则表达式匹配的一个网站上的文字。 PRXNEXT需要五个参数:正则表达式我们要寻找,寻找开始寻找正则表达式的开始位置,结束位置停止正则表达式,一旦发现字符串中的位置,而字符串的长度,如果发现的位置将是0,如果没有找到字符串。 PRXNEXT也改变了开始的参数,使搜索重新开始后的最后一场比赛是发现。# w! o' k) ^+ Q0 W2 _: S% U: m3 a/ X
    call prxnext(patternID, start, stop, text, position, length);
    * {+ Q/ L! S4 a- H代码中的循环,在网站上找到的所有环节显示的文本。/ e8 ?* S  S# z" y5 m7 F
    do while (position ^= 0);! y2 F) {5 C4 @- ]/ q* T0 A
    url = substr(text, position+6, length-7);0 p0 G0 P1 G0 T/ v
    output;
    7 L" C" @* O0 k0 P5 s! Fcall prxnext(patternID, start, stop, text, position, length);
    6 L; r; q: L/ j0 \end;
    1 I/ w# O& F& B1 @+ Srun;
    & M$ G/ A% A! a如果代码发现一个网址,它会检索唯一的URL的一部分,启动后的第一个引号。例如,如果代码中发现的HREF =“http://www.new-site.com”,那么它应该保持 http://www.new-site.com 。使用 substr到删除前的6个字符和最后一个字符的URL的其余部分输出的work._urls 数据集。现在,我们插入的URL代码只是以跟踪抓取到一个数据集名为 work.links_crawled 我们已经和确保我们不再次浏览有。
    0 I/ H$ P7 Z* b/ `& ?4 z/* add the current link to the list of urls we have already crawled */
    # I4 a. J/ K5 |data work._old_link;8 |$ i. `7 W3 f( y3 N( M* Z! w
    url = “&next_url”;
    * Y  b8 }5 n% p6 b3 [  O. i1 mrun;& |4 p, f, h  N3 ?
    proc append base=work.links_crawled data=work._old_link force;2 q# Z7 z4 x& k' _  L5 U6 [5 ]& E
    run;" K7 d0 C4 X$ d' c
    下一步是在数据集 work._urls 的过程中发现的网址列表,以确保:+ d% k/ z8 {/ H" \. L0 A* H$ H" K
    1。我们尚未抓取他们,换句话说URL是不是在 work.links_crawled)。1 v) |# V" E# y4 @" ~9 O
    2。我们没有排队抓取的URL(网址换句话说,是不是在work.links_to_crawl )。' y1 |$ n' i! O
    /*
      A# p9 U$ y$ x) N* only add urls that we have not already crawled' I7 X1 W- a5 B3 }' C( y: \
    * or that are not queued up to be crawled# V, G+ w# s" I+ T- p% R
    *
    + e  ~4 ]! H) \: ^' i% H! \*/
    5 q$ P/ }8 X/ i2 `7 Qproc sql noprint;; s3 s. O# p$ C" @
    create table work._append as8 g: J3 y  Q" M( Z1 ]1 F" _
    select url3 n( @3 O: `0 x, V1 K  Q
    from work._urls
    4 P6 O# ?8 l" `( m3 X0 c2 [/ xwhere url not in (select url from work.links_crawled)
      J; S- E% [) S; m0 K% S) L) r3 c* eand url not in (select url from work.links_to_crawl);) t5 t8 a/ h" r+ v9 `
    quit;
    % b- u/ g% j4 d! @/ V6 R5 J然后,我们添加网址还没有被抓取,而不是已经排队 work.links_to_crawl数据集。
    # l$ n; Y" u0 k+ L* g/* add new links */! F+ p3 r, G3 V- [
    proc append base=work.links_to_crawl data=work._append force;! N6 k" A8 b- C0 y  E* H( O$ M
    run;
    . ^  t) W, j( b& \+ D+ t3 ]此时的代码循环回到开始劫掠 work.links_to_crawl数据集的下一个URL。
    ' }0 K: x4 ^; I) l  [' ?# b
    zan
    转播转播0 分享淘帖0 分享分享0 收藏收藏0 支持支持0 反对反对0 微信微信
    叶纯萱 实名认证       

    2

    主题

    3

    听众

    107

    积分

    升级  3.5%

  • TA的每日心情
    开心
    2012-5-6 09:13
  • 签到天数: 34 天

    [LV.5]常住居民I

    群组数学专业考研加油站

    群组Matlab讨论组

    群组C 语言讨论组

    群组Linux推广

    群组EXCEL

    回复

    使用道具 举报

    0

    主题

    4

    听众

    35

    积分

    升级  31.58%

  • TA的每日心情
    开心
    2015-7-2 14:33
  • 签到天数: 11 天

    [LV.3]偶尔看看II

    自我介绍
    我是来自浙江工业大学的学生

    群组数学建模培训课堂1

    回复

    使用道具 举报

    您需要登录后才可以回帖 登录 | 注册地址

    qq
    收缩
    • 电话咨询

    • 04714969085
    fastpost

    关于我们| 联系我们| 诚征英才| 对外合作| 产品服务| QQ

    手机版|Archiver| |繁體中文 手机客户端  

    蒙公网安备 15010502000194号

    Powered by Discuz! X2.5   © 2001-2013 数学建模网-数学中国 ( 蒙ICP备14002410号-3 蒙BBS备-0002号 )     论坛法律顾问:王兆丰

    GMT+8, 2026-4-16 15:03 , Processed in 0.448351 second(s), 66 queries .

    回顶部