QQ登录

只需要一步,快速开始

 注册地址  找回密码
查看: 4040|回复: 2
打印 上一主题 下一主题

网络爬虫—利用SAS抓取网页方法

[复制链接]
字体大小: 正常 放大

1341

主题

738

听众

2万

积分

数学中国总编辑

  • TA的每日心情

    2016-11-18 10:46
  • 签到天数: 206 天

    [LV.7]常住居民III

    超级版主

    社区QQ达人 邮箱绑定达人 元老勋章 发帖功臣 新人进步奖 原创写作奖 最具活力勋章 风雨历程奖

    群组2011年第一期数学建模

    群组第一期sas基础实训课堂

    群组第二届数模基础实训

    群组2012第二期MCM/ICM优秀

    群组MCM优秀论文解析专题

    跳转到指定楼层
    1#
    发表于 2012-2-27 15:19 |只看该作者 |倒序浏览
    |招呼Ta 关注Ta |邮箱已经成功绑定
    万维网过多的信息,股票报价,电影评论,市场价格趋势话题,几乎所有的东西,可以发现在点击一个按钮。在分析数据中发现,许多SAS用户感兴趣在网络上,但你得到这个数据的SAS环境呢?有很多方法,如 SAS数据步骤中的代码在设计你自己的网络爬虫或利用SAS%TMFILTER宏 ® 文本挖掘。在本文中,我们将审查一个网络爬虫的总体架构。我们将讨论获得网站的方法到SAS的信息,以及审查内部所谓的SAS搜索从实验项目的实验代码管道。我们也将提供咨询如何轻松定制一个网络爬虫,以适应个性化需求,以及如何具体的数据导入到SAS ® 企业矿工™。" ?% T2 V; F; _
    简介:互联网已经成为一个有用的信息来源。通常是Web上的数据,我们要使用内的SAS,所以我们需要找到一种方式来获得这个数据。最好的办法是使用一个网络爬虫。 SAS提供几个从Web爬行和提取信息的方法。您可以使用基本的SAS数据步骤中的代码,或SAS文本矿工的%TMFILTER宏。虽然目前无法使用,SAS搜索管道将是一个功能强大的Web爬行产品,并提供更多的工具,网络爬行。每种方法都有其优点和缺点,所以取决于你想实现抓取的,它是最好对其进行审查。
    % A! _* \% ~5 j5 Z$ c3 c  K$ W" g4 @# R0 ]& N
    首先,重要的是要了解网络爬虫是如何工作的。你应该熟悉数据步骤的代码,宏,和SAS过程PROC SQL,然后再继续。& Q0 q8 q6 z6 f1 b1 L# x( c
    网络爬虫概述:一个网络爬虫是一个程序,一个或多个起始地址作为“种子URL”,下载网站这些URL相关的网页,在网页中包含的任何超链接提取,并递归地继​​续这些超链接标识下载Web页。从概念上讲,网络爬虫是很简单的。
    $ @" x$ O5 A6 K% a! F& r一个Web 履带式有四项职责:
    ! W* {8 e; P5 `% |2 [; ?, U1。从候选人中选择一个网址。
    7 w; G7 p8 L, s3 \/ z' R2。它下载相关的Web页。$ q7 R/ H1 k; z" K2 }, c5 E& X
    3。它提取物在网页中的URL(超链接)。
    2 D% o: u* Q3 G4 \4。它补充说,未曾遇到的候选集的URL6 Z8 J# L5 [' c! G; R* V: i/ e2 S
    方法1:在WEB SAS数据步骤中的代码履带式
    0 X" O) A5 V8 O& n$ x首先创建一个网址的网站的Web crawler将开始列表。
    , B8 Z, }% h. `) Z$ T1 \data work.links_to_crawl;) k2 m: V- }5 S. t
    length url $256 ;9 Q6 M8 c" `( b
    input url $;
    % H/ y: S$ k! X' \% u5 S- |  Qdatalines;; J/ N. v9 e5 }4 n: ?! P
    http://www.yahoo.com
    $ i" V) V7 s" B% K; e# ihttp://www.madio.net
    % R7 W% _, s6 L. qhttp://www.google.com
    ( I- E7 {) y, @9 }8 C: G  [;
    6 m3 z2 C3 n+ [) e+ Q- P$ M; [, Prun
    0 e5 B! E' S6 W- E! W为了确保我们不抓取相同的URL一次以上,持有环节已创建一个数据抓取。8 Z: k0 o: x/ S2 }' g% l8 i
    当Web数据集将在开始时是空的,但一个网站的网址将被添加到数据集履带式完成抓取该网站。
    % h* s- H! u! e6 R) h+ a# odata work.links_crawled; % H8 [5 @7 r: m2 o
    length url $256;% g. ^) i8 e& o  V- Z
    run;5 E: d5 \3 p+ y; S1 s: X* G
    现在我们开始爬行!该代码需要我们的 work.links_to_crawl数据集的第一个URL。在第一观察“_N_式1”,网址是投入名为 next_url 宏变量,所有剩余的URL放回我们的种子URL数据集,使他们在未来的迭代。
    " l  I" {: K9 `, S* D/* pop the next url off */
    ; c& Y7 r5 ^2 ?0 f* G4 [6 Z%let next_url = ;7 R& B( {* P% H. e! @8 v
    data work.links_to_crawl;
    / c; q+ p  E5 r4 e3 Bset work.links_to_crawl;) ], M1 K. Q3 m; m
    if _n_ eq 1 then call symput(“next_url”, url);$ M, E5 k7 D, W' q# A4 d% r
    else output;
    + G+ {  F, i& x, N2 ^8 jrun;7 s. G0 }% F6 u. _9 r
    现在,从互联网上下载的网址。创建一个文件名​​称 _nexturl 。我们让SAS知道它是一个URL 而且可以发现,AT&next_url,这是我们的宏观变量,它包含的网址我们从拉 work.links_to_crawl数据集。0 k8 G- M" M& ~8 Z$ T/ a8 O
    /* crawl the url */
    6 s  {5 D' h, F( ~/ ^" I* tfilename _nexturl url “&next_url”- I$ f( U8 o3 @9 ?# ?3 W7 S  A; b2 J
    建立后的文件名​​的URL参考,确定一个地方把我们下载的文件。创建另一个文件名​​引用所谓 htmlfilm的条目,并在那里把从 url_file.html收集到的信息。
    / h2 E- }/ K6 B( S- |' s/* put the file we crawled here */
    + d4 ^) i. B( ]' s& k, Z3 pfilename htmlfile “url_file.html”
    9 e% R, f. r! s+ N; f0 r5 ]- Y' ]接下来,我们通过数据的循环,把它写htmlfilm的条目文件名​​参考,并寻找更多的网址添加到我们的 work.links_to_crawl数据集。+ j4 ~1 D  ]7 P) V$ {0 c
    /* find more urls */
    ) x2 }% _. V9 f3 b8 o8 b, T) ]data work._urls(keep=url);' O, b: L6 I6 S: }" O! ^
    length url $256 ;
    8 _7 Q9 x% |2 F9 z. Z1 J3 bfile htmlfile;* V8 l" ?2 s4 Y  i2 @
    infile _nexturl length=len;
    2 _, M$ L5 p9 g8 B4 binput text $varying2000. len;* e6 r: g6 T2 H8 o- e2 N
    put text;! c4 u- E/ m$ f4 w4 }- H
    start = 1;
    / ?; j. l3 W& C; n. \2 sstop = length(text);- w1 H4 \7 v+ K0 n# q4 B2 J$ J
    使用正则表达式一个网站的网址,以帮助搜索。正则表达式的匹配方法文本字符串,如字,词,或字符模式。 SAS已经提供了许多强大的字符串功能。然而,正则表达式通常会提供一个更简洁的方式,操纵和匹配的文本.; T: d5 b  J- A5 R0 l$ _9 V
    if _n_ = 1 then do;/ ~( D9 k% ?  Z; {: e
    retain patternID;2 ?; M( J8 B6 ~6 O, _4 N
    pattern = ‘/href=”([^"]+)”/i’;
    1 G; o6 F- m/ J4 k4 r( ^patternID = prxparse(pattern);
    9 W/ ~4 o9 g, Y7 z( _- l& pend
    $ L/ d: w2 J, G' Y首次观察到,创建一个patternID将保持整个数据步运行。寻找的模式是: “/href=”([^"]+)”/i’”.,这意味着我们正在寻找字符串“HREF =”“,然后再寻找任何字符串,是至少有一个字符长,不包含引号(“),并结束在引号(”)。在’我’ 目的的手段使用不区分大小写的方法,以配合我们的正则表达式。
    * W+ `* u' I* B1 X; d( q" ]: vAs a result, the Web crawler will find these types of strings:
    : r2 [6 K/ @+ s5 S- U/ Uhref=”sgf/2010/papers.html”
    : o9 R8 ^8 d" z" t: rhref=”www.yahoo.com
    ; f7 H) w+ M2 I1 b. C# d4 MHREF=”www.google.com
    - a* S4 J2 [* G5 y/ i2 Y" rhReF=”http://www.madio.net
    4 _/ R+ {$ x3 Z* T现在正则表达式匹配的一个网站上的文字。 PRXNEXT需要五个参数:正则表达式我们要寻找,寻找开始寻找正则表达式的开始位置,结束位置停止正则表达式,一旦发现字符串中的位置,而字符串的长度,如果发现的位置将是0,如果没有找到字符串。 PRXNEXT也改变了开始的参数,使搜索重新开始后的最后一场比赛是发现。) c% i$ ]  H; k
    call prxnext(patternID, start, stop, text, position, length);
    & W2 [8 ]5 h2 v5 A/ T代码中的循环,在网站上找到的所有环节显示的文本。
    8 F. X! O  x+ _+ n9 ndo while (position ^= 0);
    ; R9 Y+ |7 j& C% {& `' Surl = substr(text, position+6, length-7);; q& [" T3 @' z
    output;2 [- Z0 L, k: Z3 Q; g9 r# d6 O
    call prxnext(patternID, start, stop, text, position, length);& [0 l( _1 j+ T7 c. z: j
    end;
    " W) H, n% E5 p9 Z/ Frun;. _  {/ H: `) ]1 x2 R" V: E; `
    如果代码发现一个网址,它会检索唯一的URL的一部分,启动后的第一个引号。例如,如果代码中发现的HREF =“http://www.new-site.com”,那么它应该保持 http://www.new-site.com 。使用 substr到删除前的6个字符和最后一个字符的URL的其余部分输出的work._urls 数据集。现在,我们插入的URL代码只是以跟踪抓取到一个数据集名为 work.links_crawled 我们已经和确保我们不再次浏览有。: l! ]/ m9 G+ x" d( o7 V! R
    /* add the current link to the list of urls we have already crawled */
    : T8 x* Z. I3 m7 f. U3 a2 |data work._old_link;5 I$ k6 I4 i4 ^: i5 l- p
    url = “&next_url”;( J  Z9 D( `4 i: B
    run;
    5 [# V% B5 p2 I1 T' @proc append base=work.links_crawled data=work._old_link force;
    9 C+ x+ ~5 r1 f0 b" U+ [run;
    & ]* C* M& f& u2 n% L下一步是在数据集 work._urls 的过程中发现的网址列表,以确保:
    % H! W$ r8 Z3 y( Y% ?& _+ q1。我们尚未抓取他们,换句话说URL是不是在 work.links_crawled)。2 a6 F' J: Q: E) ~, B1 X
    2。我们没有排队抓取的URL(网址换句话说,是不是在work.links_to_crawl )。3 `6 r1 C! m" g1 B* J8 w- W# s
    /*
    ( d8 x0 w( ?$ C- R* only add urls that we have not already crawled: ]. X7 n  I: x/ M
    * or that are not queued up to be crawled  g' E. s3 [; p8 S, Q, p
    *
    : z' O/ C4 b6 L  d* X+ J' T*/* n9 n! U& p0 ~: j, a, R& X
    proc sql noprint;
    & T3 D5 h3 X% P: ?+ \create table work._append as
    9 p3 N$ A! J& W. m8 Wselect url
    % k, O- M7 S8 r+ w$ B3 [from work._urls
    + I/ i- D9 t& p) c" Zwhere url not in (select url from work.links_crawled)& }2 d% x) c/ i0 W+ _9 v
    and url not in (select url from work.links_to_crawl);
    8 P% s' q8 S; Z/ hquit;
    ) [" c3 Y, \8 w6 ^7 I然后,我们添加网址还没有被抓取,而不是已经排队 work.links_to_crawl数据集。7 @1 o+ A0 L$ q$ w/ c) M
    /* add new links */; o. f, I% t6 Q( M! E1 E3 i
    proc append base=work.links_to_crawl data=work._append force;
    7 \# X1 B( c* y/ v2 a4 ?run;
    . x+ h! X" T$ J2 t* z此时的代码循环回到开始劫掠 work.links_to_crawl数据集的下一个URL。
    : p* ?* P( _* X% J2 B
    zan
    转播转播0 分享淘帖0 分享分享0 收藏收藏0 支持支持0 反对反对0 微信微信
    叶纯萱 实名认证       

    2

    主题

    3

    听众

    107

    积分

    升级  3.5%

  • TA的每日心情
    开心
    2012-5-6 09:13
  • 签到天数: 34 天

    [LV.5]常住居民I

    群组数学专业考研加油站

    群组Matlab讨论组

    群组C 语言讨论组

    群组Linux推广

    群组EXCEL

    回复

    使用道具 举报

    0

    主题

    4

    听众

    35

    积分

    升级  31.58%

  • TA的每日心情
    开心
    2015-7-2 14:33
  • 签到天数: 11 天

    [LV.3]偶尔看看II

    自我介绍
    我是来自浙江工业大学的学生

    群组数学建模培训课堂1

    回复

    使用道具 举报

    您需要登录后才可以回帖 登录 | 注册地址

    qq
    收缩
    • 电话咨询

    • 04714969085
    fastpost

    关于我们| 联系我们| 诚征英才| 对外合作| 产品服务| QQ

    手机版|Archiver| |繁體中文 手机客户端  

    蒙公网安备 15010502000194号

    Powered by Discuz! X2.5   © 2001-2013 数学建模网-数学中国 ( 蒙ICP备14002410号-3 蒙BBS备-0002号 )     论坛法律顾问:王兆丰

    GMT+8, 2026-4-17 11:31 , Processed in 0.452593 second(s), 65 queries .

    回顶部