QQ登录

只需要一步,快速开始

 注册地址  找回密码
查看: 3883|回复: 2
打印 上一主题 下一主题

网络爬虫—利用SAS抓取网页方法

[复制链接]
字体大小: 正常 放大

1341

主题

738

听众

2万

积分

数学中国总编辑

  • TA的每日心情

    2016-11-18 10:46
  • 签到天数: 206 天

    [LV.7]常住居民III

    超级版主

    社区QQ达人 邮箱绑定达人 元老勋章 发帖功臣 新人进步奖 原创写作奖 最具活力勋章 风雨历程奖

    群组2011年第一期数学建模

    群组第一期sas基础实训课堂

    群组第二届数模基础实训

    群组2012第二期MCM/ICM优秀

    群组MCM优秀论文解析专题

    跳转到指定楼层
    1#
    发表于 2012-2-27 15:19 |只看该作者 |倒序浏览
    |招呼Ta 关注Ta |邮箱已经成功绑定
    万维网过多的信息,股票报价,电影评论,市场价格趋势话题,几乎所有的东西,可以发现在点击一个按钮。在分析数据中发现,许多SAS用户感兴趣在网络上,但你得到这个数据的SAS环境呢?有很多方法,如 SAS数据步骤中的代码在设计你自己的网络爬虫或利用SAS%TMFILTER宏 ® 文本挖掘。在本文中,我们将审查一个网络爬虫的总体架构。我们将讨论获得网站的方法到SAS的信息,以及审查内部所谓的SAS搜索从实验项目的实验代码管道。我们也将提供咨询如何轻松定制一个网络爬虫,以适应个性化需求,以及如何具体的数据导入到SAS ® 企业矿工™。7 Z$ W# l  o3 h
    简介:互联网已经成为一个有用的信息来源。通常是Web上的数据,我们要使用内的SAS,所以我们需要找到一种方式来获得这个数据。最好的办法是使用一个网络爬虫。 SAS提供几个从Web爬行和提取信息的方法。您可以使用基本的SAS数据步骤中的代码,或SAS文本矿工的%TMFILTER宏。虽然目前无法使用,SAS搜索管道将是一个功能强大的Web爬行产品,并提供更多的工具,网络爬行。每种方法都有其优点和缺点,所以取决于你想实现抓取的,它是最好对其进行审查。
    " m8 I% ]& Z2 z
    ) M' a% k( Z/ z$ p首先,重要的是要了解网络爬虫是如何工作的。你应该熟悉数据步骤的代码,宏,和SAS过程PROC SQL,然后再继续。
    ! x! e( \& F  _5 T; {网络爬虫概述:一个网络爬虫是一个程序,一个或多个起始地址作为“种子URL”,下载网站这些URL相关的网页,在网页中包含的任何超链接提取,并递归地继​​续这些超链接标识下载Web页。从概念上讲,网络爬虫是很简单的。
    - K$ p* J( {8 b* W, }6 V; u- Q一个Web 履带式有四项职责:
    6 y2 G! K( t1 ^" k1。从候选人中选择一个网址。
    # ^9 _& {) ]0 f' ^8 S2。它下载相关的Web页。3 ?5 h+ T7 {( @" }+ Y
    3。它提取物在网页中的URL(超链接)。' z, R8 s* R" k, T( c1 [, K1 s2 [
    4。它补充说,未曾遇到的候选集的URL
    4 P; a( N" A' n9 I' c% O方法1:在WEB SAS数据步骤中的代码履带式7 P& M& q7 G6 `* o
    首先创建一个网址的网站的Web crawler将开始列表。
    / _; T; a3 O8 Zdata work.links_to_crawl;5 B# Z2 y$ p& E4 O! n/ [4 ^
    length url $256 ;( w: R, z3 V, ^2 Z" A
    input url $;4 F7 W  Y7 b2 A
    datalines;
    " B1 [( f2 N+ u8 \* Hhttp://www.yahoo.com$ [$ Q7 O8 y! Y/ d  C
    http://www.madio.net
    9 Z/ p" R0 V1 _/ W8 z0 [http://www.google.com. C# E9 h! ^2 U. M8 j
    ;1 H7 i3 z, z) t  t) X
    run$ S5 U7 S/ n% ]3 i
    为了确保我们不抓取相同的URL一次以上,持有环节已创建一个数据抓取。2 S( @' V/ O; D
    当Web数据集将在开始时是空的,但一个网站的网址将被添加到数据集履带式完成抓取该网站。
    9 k# J5 I! [4 kdata work.links_crawled;
    * C. Z- ?- [* ]+ _9 {1 |; s/ Ulength url $256;7 i5 z8 ?& Q/ E, \1 h1 G2 i' C
    run;, j4 S4 _8 m# e. |5 U' I: H
    现在我们开始爬行!该代码需要我们的 work.links_to_crawl数据集的第一个URL。在第一观察“_N_式1”,网址是投入名为 next_url 宏变量,所有剩余的URL放回我们的种子URL数据集,使他们在未来的迭代。" W+ w3 e' _! i1 V( }
    /* pop the next url off */6 J% J' a, G1 X
    %let next_url = ;
    $ C# C$ j5 |1 |* l5 e3 A" B1 Sdata work.links_to_crawl;0 \- ^% x3 C* m$ r3 ^2 C
    set work.links_to_crawl;* m  P. D. f  _2 F
    if _n_ eq 1 then call symput(“next_url”, url);; y' `0 o3 @) u* P, ^: I1 _
    else output;
    + u7 F. z- r  J) Y, J& prun;
    $ r3 l$ Y4 z7 Q" s# r- }现在,从互联网上下载的网址。创建一个文件名​​称 _nexturl 。我们让SAS知道它是一个URL 而且可以发现,AT&next_url,这是我们的宏观变量,它包含的网址我们从拉 work.links_to_crawl数据集。
    6 S+ j; J" I$ _1 U! y2 q  g* W/* crawl the url */
    ; L* T+ h5 Z0 \# g8 nfilename _nexturl url “&next_url”! Y' j" W) u. B# }) t) I
    建立后的文件名​​的URL参考,确定一个地方把我们下载的文件。创建另一个文件名​​引用所谓 htmlfilm的条目,并在那里把从 url_file.html收集到的信息。( v0 B  [  C7 }/ u8 ?! X
    /* put the file we crawled here */
    ' y# i( v  b! g6 l' \! x  z% c" Rfilename htmlfile “url_file.html”
    , }4 M  A) q9 P1 _5 G5 n8 v接下来,我们通过数据的循环,把它写htmlfilm的条目文件名​​参考,并寻找更多的网址添加到我们的 work.links_to_crawl数据集。
    : W: }( v9 s* ]& h/* find more urls */
    9 v+ z6 ]4 ~; r, T7 U$ Pdata work._urls(keep=url);
    . `0 y8 `. a7 ~, Tlength url $256 ;
    ' {) \# I4 C- R8 ]  F% Dfile htmlfile;: A' t, ^9 K: B( Y2 w2 x
    infile _nexturl length=len;/ _& x: ^6 N  Y: h% `1 m, M
    input text $varying2000. len;2 x0 g- F7 u7 l; v: ~8 T) q  W) m
    put text;! Q8 _/ p0 Y1 [& t# ^' {* C* s: @
    start = 1;0 R) _  |4 P- z4 L/ J5 j
    stop = length(text);
    + G$ m4 L/ x' b) j使用正则表达式一个网站的网址,以帮助搜索。正则表达式的匹配方法文本字符串,如字,词,或字符模式。 SAS已经提供了许多强大的字符串功能。然而,正则表达式通常会提供一个更简洁的方式,操纵和匹配的文本.
    / k% v6 E5 t0 Z; u# @/ u% X4 |if _n_ = 1 then do;
    $ x! S8 }/ ~5 ^" v* g1 X$ {retain patternID;) ?4 h$ K8 o  t  L- i
    pattern = ‘/href=”([^"]+)”/i’;
    , {- I6 `: v- w8 @patternID = prxparse(pattern);/ V1 K% k  b8 F8 Y1 y" @& M2 Z
    end
    - |3 W% |6 T4 H! J首次观察到,创建一个patternID将保持整个数据步运行。寻找的模式是: “/href=”([^"]+)”/i’”.,这意味着我们正在寻找字符串“HREF =”“,然后再寻找任何字符串,是至少有一个字符长,不包含引号(“),并结束在引号(”)。在’我’ 目的的手段使用不区分大小写的方法,以配合我们的正则表达式。1 ?5 r7 m3 J& g- H" ^4 V% [9 ?
    As a result, the Web crawler will find these types of strings:
    , h! C% B  `! P% E6 R  H1 H1 ahref=”sgf/2010/papers.html” 2 X' k: d: X8 d/ E7 a3 U; Q
    href=”www.yahoo.com& o. o1 ?8 O/ x8 [
    HREF=”www.google.com  E: M. H3 O' l6 ?! {' `
    hReF=”http://www.madio.net/ p, s. i$ Z+ C' |" a
    现在正则表达式匹配的一个网站上的文字。 PRXNEXT需要五个参数:正则表达式我们要寻找,寻找开始寻找正则表达式的开始位置,结束位置停止正则表达式,一旦发现字符串中的位置,而字符串的长度,如果发现的位置将是0,如果没有找到字符串。 PRXNEXT也改变了开始的参数,使搜索重新开始后的最后一场比赛是发现。
    * a$ t  l( g+ m# i+ m& Ecall prxnext(patternID, start, stop, text, position, length);
    / c( g! S( v+ v: n+ x代码中的循环,在网站上找到的所有环节显示的文本。
    7 g3 ~/ A4 ]  w, l9 Z& m) ido while (position ^= 0);- _# P6 K- [. [  R% B
    url = substr(text, position+6, length-7);
    ( N7 l$ x0 j6 V/ W1 p3 m& E" noutput;
    : D9 V% P+ o* j/ ecall prxnext(patternID, start, stop, text, position, length);
    / U8 X7 N. m1 V1 Nend;
    * I# k; y% k# `3 G, |  yrun;
    ; n% t. d& ~0 k: L0 ~: B如果代码发现一个网址,它会检索唯一的URL的一部分,启动后的第一个引号。例如,如果代码中发现的HREF =“http://www.new-site.com”,那么它应该保持 http://www.new-site.com 。使用 substr到删除前的6个字符和最后一个字符的URL的其余部分输出的work._urls 数据集。现在,我们插入的URL代码只是以跟踪抓取到一个数据集名为 work.links_crawled 我们已经和确保我们不再次浏览有。8 w- u. f4 j5 x+ F6 b5 u0 B
    /* add the current link to the list of urls we have already crawled */ : t8 O  y: g$ E
    data work._old_link;! }' M/ o9 d  [) C, m6 B7 T0 I
    url = “&next_url”;
    2 a( ~5 ]& k: T% r  frun;
    - U) }! w1 K  xproc append base=work.links_crawled data=work._old_link force;
    1 @7 J$ F- b( c; ?run;: g. I9 T+ p9 o1 J! ]
    下一步是在数据集 work._urls 的过程中发现的网址列表,以确保:, U2 V1 V. z, s. V
    1。我们尚未抓取他们,换句话说URL是不是在 work.links_crawled)。
    " v: ?& D" O0 a2。我们没有排队抓取的URL(网址换句话说,是不是在work.links_to_crawl )。# Q. X2 J) R& V' b
    /*
    , B9 S$ t2 ^3 e( a7 v6 z2 M* only add urls that we have not already crawled
    ) t# J3 B; l# \0 ]  Y0 s* or that are not queued up to be crawled  G$ B& l! R% f4 S% _* Z
    *
    ; b' `. h, I$ e*/
    + b. q7 V' I+ V- z5 Aproc sql noprint;. Z, h2 I, v6 T' O  {
    create table work._append as+ J  z0 @# L0 `* v* a$ c+ }, h
    select url5 o' d# u. {# L$ I7 j, t# a
    from work._urls9 `. K/ ]9 K3 C+ [2 O
    where url not in (select url from work.links_crawled)
    : m- I6 K0 C4 G" v, t6 d0 ~! _and url not in (select url from work.links_to_crawl);
    9 f: L. _' X7 y) j# c3 b  Squit;9 z2 j4 J8 s' @$ N# p
    然后,我们添加网址还没有被抓取,而不是已经排队 work.links_to_crawl数据集。
    , W1 \! G" `5 Y6 C$ G/* add new links */2 Y8 Q: V* a" P/ K7 F; X
    proc append base=work.links_to_crawl data=work._append force;
    $ l, f& }' L3 r% g4 t( t4 nrun;
    9 j- r% M$ {* p. K3 J3 p此时的代码循环回到开始劫掠 work.links_to_crawl数据集的下一个URL。9 ^- Z) r; j) A5 v+ f# J& e
    zan
    转播转播0 分享淘帖0 分享分享0 收藏收藏0 支持支持0 反对反对0 微信微信
    叶纯萱 实名认证       

    2

    主题

    3

    听众

    107

    积分

    升级  3.5%

  • TA的每日心情
    开心
    2012-5-6 09:13
  • 签到天数: 34 天

    [LV.5]常住居民I

    群组数学专业考研加油站

    群组Matlab讨论组

    群组C 语言讨论组

    群组Linux推广

    群组EXCEL

    回复

    使用道具 举报

    0

    主题

    4

    听众

    35

    积分

    升级  31.58%

  • TA的每日心情
    开心
    2015-7-2 14:33
  • 签到天数: 11 天

    [LV.3]偶尔看看II

    自我介绍
    我是来自浙江工业大学的学生

    群组数学建模培训课堂1

    回复

    使用道具 举报

    您需要登录后才可以回帖 登录 | 注册地址

    qq
    收缩
    • 电话咨询

    • 04714969085
    fastpost

    关于我们| 联系我们| 诚征英才| 对外合作| 产品服务| QQ

    手机版|Archiver| |繁體中文 手机客户端  

    蒙公网安备 15010502000194号

    Powered by Discuz! X2.5   © 2001-2013 数学建模网-数学中国 ( 蒙ICP备14002410号-3 蒙BBS备-0002号 )     论坛法律顾问:王兆丰

    GMT+8, 2025-9-17 12:35 , Processed in 0.479467 second(s), 66 queries .

    回顶部