QQ登录

只需要一步,快速开始

 注册地址  找回密码
查看: 4034|回复: 2
打印 上一主题 下一主题

网络爬虫—利用SAS抓取网页方法

[复制链接]
字体大小: 正常 放大

1341

主题

738

听众

2万

积分

数学中国总编辑

  • TA的每日心情

    2016-11-18 10:46
  • 签到天数: 206 天

    [LV.7]常住居民III

    超级版主

    社区QQ达人 邮箱绑定达人 元老勋章 发帖功臣 新人进步奖 原创写作奖 最具活力勋章 风雨历程奖

    群组2011年第一期数学建模

    群组第一期sas基础实训课堂

    群组第二届数模基础实训

    群组2012第二期MCM/ICM优秀

    群组MCM优秀论文解析专题

    跳转到指定楼层
    1#
    发表于 2012-2-27 15:19 |只看该作者 |倒序浏览
    |招呼Ta 关注Ta |邮箱已经成功绑定
    万维网过多的信息,股票报价,电影评论,市场价格趋势话题,几乎所有的东西,可以发现在点击一个按钮。在分析数据中发现,许多SAS用户感兴趣在网络上,但你得到这个数据的SAS环境呢?有很多方法,如 SAS数据步骤中的代码在设计你自己的网络爬虫或利用SAS%TMFILTER宏 ® 文本挖掘。在本文中,我们将审查一个网络爬虫的总体架构。我们将讨论获得网站的方法到SAS的信息,以及审查内部所谓的SAS搜索从实验项目的实验代码管道。我们也将提供咨询如何轻松定制一个网络爬虫,以适应个性化需求,以及如何具体的数据导入到SAS ® 企业矿工™。
    * b" u8 q( Z# _( g) r- ~2 I简介:互联网已经成为一个有用的信息来源。通常是Web上的数据,我们要使用内的SAS,所以我们需要找到一种方式来获得这个数据。最好的办法是使用一个网络爬虫。 SAS提供几个从Web爬行和提取信息的方法。您可以使用基本的SAS数据步骤中的代码,或SAS文本矿工的%TMFILTER宏。虽然目前无法使用,SAS搜索管道将是一个功能强大的Web爬行产品,并提供更多的工具,网络爬行。每种方法都有其优点和缺点,所以取决于你想实现抓取的,它是最好对其进行审查。
    & q! e* U2 ~% P) _3 Z, J9 U  v. g$ c( ~9 \
    首先,重要的是要了解网络爬虫是如何工作的。你应该熟悉数据步骤的代码,宏,和SAS过程PROC SQL,然后再继续。
    ' Q( g2 @3 F0 h) D& ^网络爬虫概述:一个网络爬虫是一个程序,一个或多个起始地址作为“种子URL”,下载网站这些URL相关的网页,在网页中包含的任何超链接提取,并递归地继​​续这些超链接标识下载Web页。从概念上讲,网络爬虫是很简单的。9 Q2 O3 E2 s- h+ v9 b
    一个Web 履带式有四项职责:' U) ~: ]* B) U: N! ]- I
    1。从候选人中选择一个网址。# U7 Y& t: k# b8 k
    2。它下载相关的Web页。* g1 M* `$ \. W- ]9 K  X
    3。它提取物在网页中的URL(超链接)。
    8 y/ N  u, s. Q2 m! a1 h4。它补充说,未曾遇到的候选集的URL
    3 N1 E2 }; M: P$ ^方法1:在WEB SAS数据步骤中的代码履带式
    7 a1 f* l% }7 L5 a, R首先创建一个网址的网站的Web crawler将开始列表。
    9 `! Q0 f% m9 b8 h4 I% i0 |data work.links_to_crawl;- P) H4 J# F' b% Z- F
    length url $256 ;
    9 A; r( Y4 w0 |( winput url $;9 C" O9 y/ W# U  F# o  B
    datalines;" ~) t3 N% o  e4 b
    http://www.yahoo.com
      \: L8 H7 \: S  X! m* O' chttp://www.madio.net" P' p7 I  P6 i( T3 |
    http://www.google.com
    # U. @8 m, W+ ^( I;
    5 d: [  p3 k" S% r7 r6 u8 crun0 \; `$ v; S; `/ y
    为了确保我们不抓取相同的URL一次以上,持有环节已创建一个数据抓取。, I7 b% K& _  c+ f9 L1 N" r
    当Web数据集将在开始时是空的,但一个网站的网址将被添加到数据集履带式完成抓取该网站。
    0 Q$ w% l, \# z! s& Y+ Y4 cdata work.links_crawled; ( b4 K) B! i: Q7 e: L! K, w
    length url $256;8 z/ O2 U, T! ~$ I# o0 }( R" Y1 Z( b
    run;5 G/ a: X+ E3 R3 F& @3 l
    现在我们开始爬行!该代码需要我们的 work.links_to_crawl数据集的第一个URL。在第一观察“_N_式1”,网址是投入名为 next_url 宏变量,所有剩余的URL放回我们的种子URL数据集,使他们在未来的迭代。0 b! w+ E2 ~' V0 G; v* K
    /* pop the next url off */; h, G. e: n: j0 O! ^0 {5 s' \. b
    %let next_url = ;- y4 n" a' Q- W9 l
    data work.links_to_crawl;) H! h$ Q6 g8 F% ~8 V% s: b9 _3 ]
    set work.links_to_crawl;3 f$ r- V/ D" s* ]8 y
    if _n_ eq 1 then call symput(“next_url”, url);8 v. @$ Z! c/ ?7 L- h% g6 P
    else output;
      s& N, D3 Y: i2 |run;( Q+ {, o  h0 e9 R1 Z8 F7 B
    现在,从互联网上下载的网址。创建一个文件名​​称 _nexturl 。我们让SAS知道它是一个URL 而且可以发现,AT&next_url,这是我们的宏观变量,它包含的网址我们从拉 work.links_to_crawl数据集。
    & B, C3 ^" A/ L) d4 X8 t7 J/* crawl the url */
    % D! ^2 v5 E# }- `' X3 F. ?# Gfilename _nexturl url “&next_url”. U; T$ o: H4 L5 b) Y1 v. x
    建立后的文件名​​的URL参考,确定一个地方把我们下载的文件。创建另一个文件名​​引用所谓 htmlfilm的条目,并在那里把从 url_file.html收集到的信息。4 E2 ]3 [' f* q9 m. k  x2 I
    /* put the file we crawled here */
    - J/ h9 ^* b3 I6 d6 F$ Rfilename htmlfile “url_file.html”8 w+ S& \1 G6 ^! i% s
    接下来,我们通过数据的循环,把它写htmlfilm的条目文件名​​参考,并寻找更多的网址添加到我们的 work.links_to_crawl数据集。" C$ s( _9 s: Q8 Z4 D
    /* find more urls */
    ) J7 w: N% x+ o; H/ Zdata work._urls(keep=url);
    ; F% w4 T+ D+ V* d5 E7 d8 Rlength url $256 ;
    & w" T* B; g( dfile htmlfile;- V2 G1 q$ h2 U4 [% B) E6 T# W
    infile _nexturl length=len;6 B; r5 F+ Q0 k2 n
    input text $varying2000. len;4 k! W$ L" p, Z' l0 w" y
    put text;$ T  [7 c1 b& z% _1 y
    start = 1;& Q& {: o. Q  {: N5 R
    stop = length(text);9 t( O& U& ~! M' t  Y
    使用正则表达式一个网站的网址,以帮助搜索。正则表达式的匹配方法文本字符串,如字,词,或字符模式。 SAS已经提供了许多强大的字符串功能。然而,正则表达式通常会提供一个更简洁的方式,操纵和匹配的文本./ N& L: e3 F1 _# O" v  y  d8 q
    if _n_ = 1 then do;+ A4 y$ i6 V) j7 i# H
    retain patternID;7 z2 C5 V! [; o& w0 S- R$ c
    pattern = ‘/href=”([^"]+)”/i’;* V' u' w- Y/ n1 y8 _5 Y
    patternID = prxparse(pattern);% a0 D7 G/ B' V$ T
    end+ ?+ d" K& ?8 v- s4 x5 ]
    首次观察到,创建一个patternID将保持整个数据步运行。寻找的模式是: “/href=”([^"]+)”/i’”.,这意味着我们正在寻找字符串“HREF =”“,然后再寻找任何字符串,是至少有一个字符长,不包含引号(“),并结束在引号(”)。在’我’ 目的的手段使用不区分大小写的方法,以配合我们的正则表达式。
    # m3 N1 `- x% G! cAs a result, the Web crawler will find these types of strings:" z( B8 t5 q1 {* f. t1 o
    href=”sgf/2010/papers.html” - v. N6 z6 }7 B1 o% j+ i
    href=”www.yahoo.com
    - m" [& E" X2 I1 @- }HREF=”www.google.com8 {& u1 h0 X/ w; `  E& A
    hReF=”http://www.madio.net$ p+ |4 V9 ^0 ]" H: H: t
    现在正则表达式匹配的一个网站上的文字。 PRXNEXT需要五个参数:正则表达式我们要寻找,寻找开始寻找正则表达式的开始位置,结束位置停止正则表达式,一旦发现字符串中的位置,而字符串的长度,如果发现的位置将是0,如果没有找到字符串。 PRXNEXT也改变了开始的参数,使搜索重新开始后的最后一场比赛是发现。
    : v" j! i, y& B7 {8 mcall prxnext(patternID, start, stop, text, position, length);8 W3 f# W  I$ Y" n& P" @' N5 f4 p
    代码中的循环,在网站上找到的所有环节显示的文本。
    ) ~. J' z- h, _- G/ C- Q9 Vdo while (position ^= 0);1 B3 ~$ H+ [1 \3 W$ t  F+ y
    url = substr(text, position+6, length-7);+ b5 _8 ~" w* v/ ^
    output;  G' z, V' F$ G2 c0 c% G# l6 o
    call prxnext(patternID, start, stop, text, position, length);5 E) [  U! V5 K
    end;/ M7 |7 }/ ^" o; ~
    run;; A9 x' R! O1 X
    如果代码发现一个网址,它会检索唯一的URL的一部分,启动后的第一个引号。例如,如果代码中发现的HREF =“http://www.new-site.com”,那么它应该保持 http://www.new-site.com 。使用 substr到删除前的6个字符和最后一个字符的URL的其余部分输出的work._urls 数据集。现在,我们插入的URL代码只是以跟踪抓取到一个数据集名为 work.links_crawled 我们已经和确保我们不再次浏览有。3 l4 }9 b" B! t* m
    /* add the current link to the list of urls we have already crawled */
    2 k) r, Y" l6 a! c! a$ B; Hdata work._old_link;: x) w) E$ ^( a- G  S5 s
    url = “&next_url”;
    , ^6 q' y0 t4 @  zrun;
    . `& B- L# e$ }! F* P: aproc append base=work.links_crawled data=work._old_link force;
    + z4 I$ S8 N' t$ f9 y. p2 A1 Krun;+ s9 e" ?0 q7 J) |- s9 `) E
    下一步是在数据集 work._urls 的过程中发现的网址列表,以确保:' v9 A; M% W5 \# E' G
    1。我们尚未抓取他们,换句话说URL是不是在 work.links_crawled)。- Y5 K% e" [+ ]9 t  a8 w, q) T
    2。我们没有排队抓取的URL(网址换句话说,是不是在work.links_to_crawl )。9 o) L3 l. d& f+ G4 F
    /*9 b$ Y7 `4 g1 E. F. ^
    * only add urls that we have not already crawled
    " T' |- Y! o3 w7 Q* or that are not queued up to be crawled
    & y0 M" X% ]4 x! U*
    8 i  n6 `: `4 W/ F$ b, E$ y/ g*/
    ( W. N" K* p- fproc sql noprint;! q; @9 m. K2 Q1 }! f
    create table work._append as
    ! u9 m6 @8 ?+ N: qselect url
    7 f- r  n8 `% t, ?$ S- C. ], U$ w! bfrom work._urls
    " e6 h  z1 v' ]3 z- Pwhere url not in (select url from work.links_crawled)4 D6 Z% v) y5 p$ M9 \. J: z( S8 r' J
    and url not in (select url from work.links_to_crawl);
    7 _: K5 x% \! D% ?quit;
    ! i: ?4 v2 k9 o1 \; d) V然后,我们添加网址还没有被抓取,而不是已经排队 work.links_to_crawl数据集。
    5 L7 `# ~( p+ m/ w) c/* add new links */: x9 z( `- a' f7 c
    proc append base=work.links_to_crawl data=work._append force;
    % }3 o8 C! q* B3 G. ?' s6 B5 ]run;
    . m0 M9 @5 j) \* y/ `* t- @9 b此时的代码循环回到开始劫掠 work.links_to_crawl数据集的下一个URL。& |5 T$ L& @' }4 t: q2 ~( l2 ]- {
    zan
    转播转播0 分享淘帖0 分享分享0 收藏收藏0 支持支持0 反对反对0 微信微信
    叶纯萱 实名认证       

    2

    主题

    3

    听众

    107

    积分

    升级  3.5%

  • TA的每日心情
    开心
    2012-5-6 09:13
  • 签到天数: 34 天

    [LV.5]常住居民I

    群组数学专业考研加油站

    群组Matlab讨论组

    群组C 语言讨论组

    群组Linux推广

    群组EXCEL

    回复

    使用道具 举报

    0

    主题

    4

    听众

    35

    积分

    升级  31.58%

  • TA的每日心情
    开心
    2015-7-2 14:33
  • 签到天数: 11 天

    [LV.3]偶尔看看II

    自我介绍
    我是来自浙江工业大学的学生

    群组数学建模培训课堂1

    回复

    使用道具 举报

    您需要登录后才可以回帖 登录 | 注册地址

    qq
    收缩
    • 电话咨询

    • 04714969085
    fastpost

    关于我们| 联系我们| 诚征英才| 对外合作| 产品服务| QQ

    手机版|Archiver| |繁體中文 手机客户端  

    蒙公网安备 15010502000194号

    Powered by Discuz! X2.5   © 2001-2013 数学建模网-数学中国 ( 蒙ICP备14002410号-3 蒙BBS备-0002号 )     论坛法律顾问:王兆丰

    GMT+8, 2026-4-13 06:18 , Processed in 0.352116 second(s), 65 queries .

    回顶部