QQ登录

只需要一步,快速开始

 注册地址  找回密码
查看: 4028|回复: 2
打印 上一主题 下一主题

网络爬虫—利用SAS抓取网页方法

[复制链接]
字体大小: 正常 放大

1341

主题

738

听众

2万

积分

数学中国总编辑

  • TA的每日心情

    2016-11-18 10:46
  • 签到天数: 206 天

    [LV.7]常住居民III

    超级版主

    社区QQ达人 邮箱绑定达人 元老勋章 发帖功臣 新人进步奖 原创写作奖 最具活力勋章 风雨历程奖

    群组2011年第一期数学建模

    群组第一期sas基础实训课堂

    群组第二届数模基础实训

    群组2012第二期MCM/ICM优秀

    群组MCM优秀论文解析专题

    跳转到指定楼层
    1#
    发表于 2012-2-27 15:19 |只看该作者 |倒序浏览
    |招呼Ta 关注Ta |邮箱已经成功绑定
    万维网过多的信息,股票报价,电影评论,市场价格趋势话题,几乎所有的东西,可以发现在点击一个按钮。在分析数据中发现,许多SAS用户感兴趣在网络上,但你得到这个数据的SAS环境呢?有很多方法,如 SAS数据步骤中的代码在设计你自己的网络爬虫或利用SAS%TMFILTER宏 ® 文本挖掘。在本文中,我们将审查一个网络爬虫的总体架构。我们将讨论获得网站的方法到SAS的信息,以及审查内部所谓的SAS搜索从实验项目的实验代码管道。我们也将提供咨询如何轻松定制一个网络爬虫,以适应个性化需求,以及如何具体的数据导入到SAS ® 企业矿工™。
    * \8 T# ^1 p% T3 q简介:互联网已经成为一个有用的信息来源。通常是Web上的数据,我们要使用内的SAS,所以我们需要找到一种方式来获得这个数据。最好的办法是使用一个网络爬虫。 SAS提供几个从Web爬行和提取信息的方法。您可以使用基本的SAS数据步骤中的代码,或SAS文本矿工的%TMFILTER宏。虽然目前无法使用,SAS搜索管道将是一个功能强大的Web爬行产品,并提供更多的工具,网络爬行。每种方法都有其优点和缺点,所以取决于你想实现抓取的,它是最好对其进行审查。9 T" v; t" U) `. h4 E  t, z- E

    # w: p$ p* r+ s3 R! ~2 G首先,重要的是要了解网络爬虫是如何工作的。你应该熟悉数据步骤的代码,宏,和SAS过程PROC SQL,然后再继续。
    , a# `# j, l' O; S' W9 M网络爬虫概述:一个网络爬虫是一个程序,一个或多个起始地址作为“种子URL”,下载网站这些URL相关的网页,在网页中包含的任何超链接提取,并递归地继​​续这些超链接标识下载Web页。从概念上讲,网络爬虫是很简单的。
    / L* q+ D8 b9 G+ A% C# ^; D  T一个Web 履带式有四项职责:
    / k8 @: c. L; a" d! i1。从候选人中选择一个网址。' N! w7 l+ p1 I: s1 h
    2。它下载相关的Web页。: V( l. a5 y8 E
    3。它提取物在网页中的URL(超链接)。
    ; P! ?- M# j4 x2 U8 ]4。它补充说,未曾遇到的候选集的URL
    7 G; [7 o7 w- o- X0 @1 O: W方法1:在WEB SAS数据步骤中的代码履带式8 g$ y5 H! `' S! \3 Q: G! m
    首先创建一个网址的网站的Web crawler将开始列表。
    * G, ]/ t' E( q; }! [  U, B. ^data work.links_to_crawl;
    ! x+ I/ v: J* U9 A2 Slength url $256 ;& B6 s  L1 K3 t9 K; |0 Z/ N( w  n8 t0 M
    input url $;  A' D# t* L8 e4 d
    datalines;
    0 ?$ ?& E+ A  vhttp://www.yahoo.com
    * d0 L9 t, h- ~0 y6 |http://www.madio.net( p$ M8 d' f$ h8 R6 Y/ c) c
    http://www.google.com8 [- |8 V* `. i) n
    ;! A8 a' J6 ]6 R6 n- W" Y! B& P* S
    run6 N/ j$ v; P1 w1 s$ R( q8 F% d! {
    为了确保我们不抓取相同的URL一次以上,持有环节已创建一个数据抓取。
    ! ?! m8 E8 R2 {% z/ E- V* T- m当Web数据集将在开始时是空的,但一个网站的网址将被添加到数据集履带式完成抓取该网站。: L: [! F: ?, _$ a3 r
    data work.links_crawled;   I0 J) M1 G$ ]# r* f9 v
    length url $256;) ^# Q: f+ g5 ^& [8 ?
    run;
    $ c- o$ p2 i0 K# o7 R# Q现在我们开始爬行!该代码需要我们的 work.links_to_crawl数据集的第一个URL。在第一观察“_N_式1”,网址是投入名为 next_url 宏变量,所有剩余的URL放回我们的种子URL数据集,使他们在未来的迭代。8 U+ t! B# l1 [3 i" t6 I3 B! I
    /* pop the next url off */
    ! Y% b# |5 c( \5 G' m9 r6 L# C! D%let next_url = ;2 |& I* c& K& P0 b6 m
    data work.links_to_crawl;4 t, f/ b% w' O1 x
    set work.links_to_crawl;1 i1 B/ @# A4 o6 X4 H4 ?* Q% Q3 j
    if _n_ eq 1 then call symput(“next_url”, url);3 T9 T8 ]: r) m
    else output;
    0 P' F. h/ F; {% [+ O" y& f/ Drun;* a6 H8 p8 M5 v& S5 J( j
    现在,从互联网上下载的网址。创建一个文件名​​称 _nexturl 。我们让SAS知道它是一个URL 而且可以发现,AT&next_url,这是我们的宏观变量,它包含的网址我们从拉 work.links_to_crawl数据集。* x- d7 B8 U9 g4 {
    /* crawl the url */
    0 t; I! W! Z! ]5 Y+ @* b! efilename _nexturl url “&next_url”
    : J% t6 K: ]- r4 M% T3 l& l. g建立后的文件名​​的URL参考,确定一个地方把我们下载的文件。创建另一个文件名​​引用所谓 htmlfilm的条目,并在那里把从 url_file.html收集到的信息。  V9 R$ u  q% _8 v. g1 T; d; O
    /* put the file we crawled here */
    $ Q: E8 V( s* f, d" a. q* Vfilename htmlfile “url_file.html”3 ~$ a0 f0 s! o5 ?3 M$ L; K, m+ O; X
    接下来,我们通过数据的循环,把它写htmlfilm的条目文件名​​参考,并寻找更多的网址添加到我们的 work.links_to_crawl数据集。
    # x1 d& o5 \, c/* find more urls */ # h- d& r; @* b
    data work._urls(keep=url);
    8 d; h0 j- q) a" S3 `. ulength url $256 ;
    4 A7 Y/ S! @3 l6 p5 |, \9 Nfile htmlfile;- {% ^% q+ P! l8 P* |
    infile _nexturl length=len;" y) v& D& c* r$ j" c: H, a
    input text $varying2000. len;
    & Q. J  A$ e0 [" g7 ~% iput text;# G6 f) h$ o5 M) m) p8 b
    start = 1;
    1 `0 L$ T3 v$ d& l0 f% r( ^3 ?stop = length(text);
    5 k: t6 |; ?4 A! n0 _2 ]6 y& V使用正则表达式一个网站的网址,以帮助搜索。正则表达式的匹配方法文本字符串,如字,词,或字符模式。 SAS已经提供了许多强大的字符串功能。然而,正则表达式通常会提供一个更简洁的方式,操纵和匹配的文本." C' f; h6 q1 [: \, \6 e0 e
    if _n_ = 1 then do;
    9 Q5 J3 e7 Y: m/ F$ Q6 ^; sretain patternID;
    9 M3 ~- s0 c8 [$ ^: c, J- R; M: Tpattern = ‘/href=”([^"]+)”/i’;
    : k1 W# L6 w# {9 Q1 I2 j  EpatternID = prxparse(pattern);0 `/ `/ y$ L+ h4 |3 m9 q! E; C
    end
    2 y2 r( e& |3 I5 e: N首次观察到,创建一个patternID将保持整个数据步运行。寻找的模式是: “/href=”([^"]+)”/i’”.,这意味着我们正在寻找字符串“HREF =”“,然后再寻找任何字符串,是至少有一个字符长,不包含引号(“),并结束在引号(”)。在’我’ 目的的手段使用不区分大小写的方法,以配合我们的正则表达式。; Y0 S: Z) H& X) b# B8 X/ f
    As a result, the Web crawler will find these types of strings:
    % C8 h& T" H' k- H) V1 khref=”sgf/2010/papers.html”
    * e4 ]  b7 H: \9 _href=”www.yahoo.com8 f2 x. L9 ~) a+ L3 m2 G, Y
    HREF=”www.google.com
    6 q  P% D, u4 u; X6 a* RhReF=”http://www.madio.net
    3 q' [1 Q, B1 d& `4 J; _  T2 U- v现在正则表达式匹配的一个网站上的文字。 PRXNEXT需要五个参数:正则表达式我们要寻找,寻找开始寻找正则表达式的开始位置,结束位置停止正则表达式,一旦发现字符串中的位置,而字符串的长度,如果发现的位置将是0,如果没有找到字符串。 PRXNEXT也改变了开始的参数,使搜索重新开始后的最后一场比赛是发现。, G! h3 q# |( J7 _  ~% O
    call prxnext(patternID, start, stop, text, position, length);; @0 e9 I& V  |
    代码中的循环,在网站上找到的所有环节显示的文本。9 j1 G, T0 q( o9 P1 d; j
    do while (position ^= 0);
    ! o: M8 L5 N5 r" z& m2 C& @8 V" hurl = substr(text, position+6, length-7);. j: O" S9 K/ y9 B
    output;
    8 Z7 D/ S5 F" e# D# d* Lcall prxnext(patternID, start, stop, text, position, length);0 S0 n9 w9 B/ J& ?2 Y
    end;/ A$ C) q; @. r  F+ Y" b
    run;4 k. _, x5 _0 v" l9 ~& i6 q
    如果代码发现一个网址,它会检索唯一的URL的一部分,启动后的第一个引号。例如,如果代码中发现的HREF =“http://www.new-site.com”,那么它应该保持 http://www.new-site.com 。使用 substr到删除前的6个字符和最后一个字符的URL的其余部分输出的work._urls 数据集。现在,我们插入的URL代码只是以跟踪抓取到一个数据集名为 work.links_crawled 我们已经和确保我们不再次浏览有。  S% a5 [8 a8 @7 P2 H
    /* add the current link to the list of urls we have already crawled */
    8 B$ v* R/ G1 x! g2 v! zdata work._old_link;
    " k6 X/ p$ z3 h* N7 g0 iurl = “&next_url”;5 v# E" H' ~" @+ M' g
    run;8 H, U$ {" e0 V/ M5 z/ g$ t) Z
    proc append base=work.links_crawled data=work._old_link force;
    0 q: L' r. x2 l$ F  vrun;
    2 ]6 {' A; ~* I8 c9 z下一步是在数据集 work._urls 的过程中发现的网址列表,以确保:
    ' v  j$ g. t1 a- V1。我们尚未抓取他们,换句话说URL是不是在 work.links_crawled)。
    $ W0 T7 W& b! |8 J7 Z% r2。我们没有排队抓取的URL(网址换句话说,是不是在work.links_to_crawl )。
    4 j8 m. N& B  C; O/*& ]$ w$ g0 n% u4 Q# v5 X
    * only add urls that we have not already crawled
    3 v( @2 i. l" B" s3 k* or that are not queued up to be crawled) r. A) x# l  |
    *$ T3 U+ [5 B5 K6 c: H; k9 k% L
    */3 S) k/ X5 D& q; F. [3 r# O, _
    proc sql noprint;
    . _  j. G3 o. x; D, p' Ncreate table work._append as* u, C9 m7 Q7 }- t- E6 i! o4 z
    select url7 V  h4 |2 `* y1 H7 W2 B
    from work._urls
    4 A+ h- T$ q: q+ `$ a7 a2 M+ V. nwhere url not in (select url from work.links_crawled)
    6 ?" `# o! z' wand url not in (select url from work.links_to_crawl);
    ! E) x2 S/ s0 ]" ^quit;
    - J" [' Q# i# b% r6 q然后,我们添加网址还没有被抓取,而不是已经排队 work.links_to_crawl数据集。
    " ^8 [+ c- t5 z; H) Y) S/* add new links */
    % ^! ^6 X0 N$ w5 j: Z+ D) c: Kproc append base=work.links_to_crawl data=work._append force;( h4 }" F, S( |6 V8 f' ^6 K+ R  U& \
    run;, J0 u' H7 E0 u4 i
    此时的代码循环回到开始劫掠 work.links_to_crawl数据集的下一个URL。+ u$ [1 i' }* g
    zan
    转播转播0 分享淘帖0 分享分享0 收藏收藏0 支持支持0 反对反对0 微信微信
    叶纯萱 实名认证       

    2

    主题

    3

    听众

    107

    积分

    升级  3.5%

  • TA的每日心情
    开心
    2012-5-6 09:13
  • 签到天数: 34 天

    [LV.5]常住居民I

    群组数学专业考研加油站

    群组Matlab讨论组

    群组C 语言讨论组

    群组Linux推广

    群组EXCEL

    回复

    使用道具 举报

    0

    主题

    4

    听众

    35

    积分

    升级  31.58%

  • TA的每日心情
    开心
    2015-7-2 14:33
  • 签到天数: 11 天

    [LV.3]偶尔看看II

    自我介绍
    我是来自浙江工业大学的学生

    群组数学建模培训课堂1

    回复

    使用道具 举报

    您需要登录后才可以回帖 登录 | 注册地址

    qq
    收缩
    • 电话咨询

    • 04714969085
    fastpost

    关于我们| 联系我们| 诚征英才| 对外合作| 产品服务| QQ

    手机版|Archiver| |繁體中文 手机客户端  

    蒙公网安备 15010502000194号

    Powered by Discuz! X2.5   © 2001-2013 数学建模网-数学中国 ( 蒙ICP备14002410号-3 蒙BBS备-0002号 )     论坛法律顾问:王兆丰

    GMT+8, 2026-4-10 05:03 , Processed in 0.542983 second(s), 66 queries .

    回顶部