QQ登录

只需要一步,快速开始

 注册地址  找回密码
查看: 3644|回复: 2
打印 上一主题 下一主题

网络爬虫—利用SAS抓取网页方法

[复制链接]
字体大小: 正常 放大

1341

主题

738

听众

2万

积分

数学中国总编辑

  • TA的每日心情

    2016-11-18 10:46
  • 签到天数: 206 天

    [LV.7]常住居民III

    超级版主

    社区QQ达人 邮箱绑定达人 元老勋章 发帖功臣 新人进步奖 原创写作奖 最具活力勋章 风雨历程奖

    群组2011年第一期数学建模

    群组第一期sas基础实训课堂

    群组第二届数模基础实训

    群组2012第二期MCM/ICM优秀

    群组MCM优秀论文解析专题

    跳转到指定楼层
    1#
    发表于 2012-2-27 15:19 |只看该作者 |倒序浏览
    |招呼Ta 关注Ta |邮箱已经成功绑定
    万维网过多的信息,股票报价,电影评论,市场价格趋势话题,几乎所有的东西,可以发现在点击一个按钮。在分析数据中发现,许多SAS用户感兴趣在网络上,但你得到这个数据的SAS环境呢?有很多方法,如 SAS数据步骤中的代码在设计你自己的网络爬虫或利用SAS%TMFILTER宏 ® 文本挖掘。在本文中,我们将审查一个网络爬虫的总体架构。我们将讨论获得网站的方法到SAS的信息,以及审查内部所谓的SAS搜索从实验项目的实验代码管道。我们也将提供咨询如何轻松定制一个网络爬虫,以适应个性化需求,以及如何具体的数据导入到SAS ® 企业矿工™。0 O) s8 Q+ F# T2 Y  U+ g0 Q7 @5 P) w
    简介:互联网已经成为一个有用的信息来源。通常是Web上的数据,我们要使用内的SAS,所以我们需要找到一种方式来获得这个数据。最好的办法是使用一个网络爬虫。 SAS提供几个从Web爬行和提取信息的方法。您可以使用基本的SAS数据步骤中的代码,或SAS文本矿工的%TMFILTER宏。虽然目前无法使用,SAS搜索管道将是一个功能强大的Web爬行产品,并提供更多的工具,网络爬行。每种方法都有其优点和缺点,所以取决于你想实现抓取的,它是最好对其进行审查。( L; U( [- |3 V7 N% H( v
    . Y) I* I7 ?: \8 y9 J
    首先,重要的是要了解网络爬虫是如何工作的。你应该熟悉数据步骤的代码,宏,和SAS过程PROC SQL,然后再继续。1 G; m, ~) e7 t6 `1 V, E, \( \
    网络爬虫概述:一个网络爬虫是一个程序,一个或多个起始地址作为“种子URL”,下载网站这些URL相关的网页,在网页中包含的任何超链接提取,并递归地继​​续这些超链接标识下载Web页。从概念上讲,网络爬虫是很简单的。5 c3 M' h  O$ v4 Z3 O
    一个Web 履带式有四项职责:/ e3 p* `: V7 P* Y
    1。从候选人中选择一个网址。
    / Q! i  v! d+ s/ _' b/ q: L2。它下载相关的Web页。
    * d8 b, o7 v0 V$ ^) P1 ^  u; d3。它提取物在网页中的URL(超链接)。
    . I; f5 w/ K; i  S8 `/ l4。它补充说,未曾遇到的候选集的URL: ]3 o. G$ P" I% G9 X; f
    方法1:在WEB SAS数据步骤中的代码履带式
    & {* ^, h1 X! f4 Z4 K. C& c) O# z- ]首先创建一个网址的网站的Web crawler将开始列表。; d8 _3 Z  b/ U- E7 N
    data work.links_to_crawl;, _2 j0 B, L/ ~) A  q3 q1 h
    length url $256 ;
    + Z0 |# e# U/ E. {; jinput url $;
    : J$ \* K% N: A2 K4 Q  \) Cdatalines;
    " ?' U9 x. s8 `& }. y; Bhttp://www.yahoo.com: c+ z& M- u) V2 {' Z) Z' X
    http://www.madio.net
    4 N; K$ ]) A: P0 z9 bhttp://www.google.com
    / s( t9 E8 Y* ~, x5 k# a- m;$ T- F% m: D, N& q" P9 A( i- g
    run$ r3 y; y& e/ C$ ^( f* N' f
    为了确保我们不抓取相同的URL一次以上,持有环节已创建一个数据抓取。7 ~* @: I+ I/ U" v) ^% x
    当Web数据集将在开始时是空的,但一个网站的网址将被添加到数据集履带式完成抓取该网站。
    . _& K$ [6 _# p# F, ^data work.links_crawled; " \. u5 z) e3 G
    length url $256;
    # M( u( U9 c1 _: F6 Brun;
    ) o5 `$ h+ F) O$ U7 d现在我们开始爬行!该代码需要我们的 work.links_to_crawl数据集的第一个URL。在第一观察“_N_式1”,网址是投入名为 next_url 宏变量,所有剩余的URL放回我们的种子URL数据集,使他们在未来的迭代。- C! n1 _- Y7 z0 A  E
    /* pop the next url off */
    : f. L1 r( v& t' ?$ E0 E0 |%let next_url = ;
    + Q+ i# U, M4 ?; Z: q& jdata work.links_to_crawl;
    5 t! p9 o& K. j/ C/ t- {set work.links_to_crawl;
    2 Z% V  {" u% D  Y( Nif _n_ eq 1 then call symput(“next_url”, url);
    ' @! i2 c& b9 ?. V0 Jelse output;
    6 N) J. q2 G5 L' S5 Yrun;
    3 z. J. S; O( o现在,从互联网上下载的网址。创建一个文件名​​称 _nexturl 。我们让SAS知道它是一个URL 而且可以发现,AT&next_url,这是我们的宏观变量,它包含的网址我们从拉 work.links_to_crawl数据集。
    . E4 t8 ~" G  `* a! ^+ w/* crawl the url */4 G: T, |& R3 y2 X6 Q% y
    filename _nexturl url “&next_url”
    - @. _% F. j# L建立后的文件名​​的URL参考,确定一个地方把我们下载的文件。创建另一个文件名​​引用所谓 htmlfilm的条目,并在那里把从 url_file.html收集到的信息。
    , V5 T. B5 v! Z. f/* put the file we crawled here */! v  u; j- S4 K3 V! x8 V; `
    filename htmlfile “url_file.html”
    1 @& C! I; `1 q* ?2 x( W5 e接下来,我们通过数据的循环,把它写htmlfilm的条目文件名​​参考,并寻找更多的网址添加到我们的 work.links_to_crawl数据集。( X" [: b2 ^( w( R8 A  r
    /* find more urls */ * J. n, l+ f% y+ {9 ~+ _5 R
    data work._urls(keep=url);
    " n" w+ G& g7 k% Slength url $256 ;5 D4 d8 q( l" {; u: @# ~; a% q
    file htmlfile;% D! t, v. ^+ e$ J; X2 C' ]% c* _
    infile _nexturl length=len;
    ; K/ a6 @) f$ H& f& f* r, f. V/ uinput text $varying2000. len;8 p6 M5 ^% p! q9 S1 Y+ f( B% V/ o
    put text;+ U2 Q) B8 i3 t) S: N  L
    start = 1;3 `6 g! D( e# S2 j
    stop = length(text);
    % T  o. T7 C% [* u/ V使用正则表达式一个网站的网址,以帮助搜索。正则表达式的匹配方法文本字符串,如字,词,或字符模式。 SAS已经提供了许多强大的字符串功能。然而,正则表达式通常会提供一个更简洁的方式,操纵和匹配的文本.+ x' g/ w- C! y
    if _n_ = 1 then do;
    5 P- A5 o* m# \3 B' i7 F' ^9 xretain patternID;0 L5 g' C. C$ ]$ I! ^" t8 d; K) V& B
    pattern = ‘/href=”([^"]+)”/i’;
    - s- Y) d$ s8 t4 JpatternID = prxparse(pattern);& {0 ^; |; ~! o' N
    end
    8 X. E# C! y' \8 b" ?, s首次观察到,创建一个patternID将保持整个数据步运行。寻找的模式是: “/href=”([^"]+)”/i’”.,这意味着我们正在寻找字符串“HREF =”“,然后再寻找任何字符串,是至少有一个字符长,不包含引号(“),并结束在引号(”)。在’我’ 目的的手段使用不区分大小写的方法,以配合我们的正则表达式。( p* K$ ~( }7 b! ]' B' U
    As a result, the Web crawler will find these types of strings:
    ; e, w8 U! h6 Q1 I* ]/ `1 Uhref=”sgf/2010/papers.html”
    ( m8 l* f6 g/ U) k. _href=”www.yahoo.com# [/ q) I4 g. m1 b- s
    HREF=”www.google.com4 s6 P' O: ^' Y6 `5 w; V
    hReF=”http://www.madio.net* E" U" G( N' N7 S5 w. s+ ~
    现在正则表达式匹配的一个网站上的文字。 PRXNEXT需要五个参数:正则表达式我们要寻找,寻找开始寻找正则表达式的开始位置,结束位置停止正则表达式,一旦发现字符串中的位置,而字符串的长度,如果发现的位置将是0,如果没有找到字符串。 PRXNEXT也改变了开始的参数,使搜索重新开始后的最后一场比赛是发现。
    . g: e8 t& M7 O2 \+ W* Ucall prxnext(patternID, start, stop, text, position, length);1 u2 X7 v+ j- P$ d' W9 d
    代码中的循环,在网站上找到的所有环节显示的文本。+ [- M! E1 w) q. E5 z
    do while (position ^= 0);
      X1 e/ E6 M/ N9 m) Z8 B: nurl = substr(text, position+6, length-7);
    " j5 }% H- Q( P' }' r  Qoutput;
    0 e4 Z8 g, N/ z3 M- }call prxnext(patternID, start, stop, text, position, length);
    3 ^/ R8 u5 M( K0 oend;, t5 W: Y2 K7 f8 L
    run;3 F8 Y4 P1 h/ k" S* R7 a
    如果代码发现一个网址,它会检索唯一的URL的一部分,启动后的第一个引号。例如,如果代码中发现的HREF =“http://www.new-site.com”,那么它应该保持 http://www.new-site.com 。使用 substr到删除前的6个字符和最后一个字符的URL的其余部分输出的work._urls 数据集。现在,我们插入的URL代码只是以跟踪抓取到一个数据集名为 work.links_crawled 我们已经和确保我们不再次浏览有。
    ( Q3 ?' b! h+ i+ D/* add the current link to the list of urls we have already crawled */ : r) j. }# ^- `; r! B
    data work._old_link;
    " A- ^8 v/ C+ ~- x/ iurl = “&next_url”;* U& d! O4 I0 k
    run;
    + _$ Z: s: c$ F2 P! K5 T, R6 {proc append base=work.links_crawled data=work._old_link force;5 B5 x; w& E% \+ ?. Y  v! ~) ^
    run;
    % K6 U: H. u7 I( R6 e下一步是在数据集 work._urls 的过程中发现的网址列表,以确保:
    : n  l+ [. l" D8 G& S. K1。我们尚未抓取他们,换句话说URL是不是在 work.links_crawled)。4 T9 w7 P- m6 U/ z
    2。我们没有排队抓取的URL(网址换句话说,是不是在work.links_to_crawl )。
    , D8 X& j  \8 a) N/*8 b; k6 u5 U+ R# }0 v( E
    * only add urls that we have not already crawled% N4 [9 B2 ]5 c8 K: Y0 F
    * or that are not queued up to be crawled0 i8 e, H) c' u( M
    *. n6 D8 w  l) N- l8 Q7 `5 u
    */
    6 R, g" M- W6 Sproc sql noprint;
    ; s' [, O! ^4 [; A4 p3 [3 }2 a4 y) }  Jcreate table work._append as) A4 u! v9 @3 @* H8 k
    select url
    ( Y( N) b/ K4 [& j; U9 P/ Ifrom work._urls# s5 [' j: @2 E& t2 g3 U
    where url not in (select url from work.links_crawled)! N8 ]! R8 B% D  s7 x- h
    and url not in (select url from work.links_to_crawl);
    : Y" y, u: [% iquit;
    # u: G( B% {- X7 m% K$ r然后,我们添加网址还没有被抓取,而不是已经排队 work.links_to_crawl数据集。" t% x) M# @" X9 e$ h# Y
    /* add new links */& g) Q" X" z: x% k& Z# e, w$ q
    proc append base=work.links_to_crawl data=work._append force;
    ; n) U, b9 l! F  T& \; l2 Vrun;+ R- V/ F' g' X; ?
    此时的代码循环回到开始劫掠 work.links_to_crawl数据集的下一个URL。1 p. s& X" {# m3 {+ p4 V; ^. R- d0 N
    zan
    转播转播0 分享淘帖0 分享分享0 收藏收藏0 支持支持0 反对反对0 微信微信
    叶纯萱 实名认证       

    2

    主题

    3

    听众

    107

    积分

    升级  3.5%

  • TA的每日心情
    开心
    2012-5-6 09:13
  • 签到天数: 34 天

    [LV.5]常住居民I

    群组数学专业考研加油站

    群组Matlab讨论组

    群组C 语言讨论组

    群组Linux推广

    群组EXCEL

    回复

    使用道具 举报

    0

    主题

    4

    听众

    35

    积分

    升级  31.58%

  • TA的每日心情
    开心
    2015-7-2 14:33
  • 签到天数: 11 天

    [LV.3]偶尔看看II

    自我介绍
    我是来自浙江工业大学的学生

    群组数学建模培训课堂1

    回复

    使用道具 举报

    您需要登录后才可以回帖 登录 | 注册地址

    qq
    收缩
    • 电话咨询

    • 04714969085
    fastpost

    关于我们| 联系我们| 诚征英才| 对外合作| 产品服务| QQ

    手机版|Archiver| |繁體中文 手机客户端  

    蒙公网安备 15010502000194号

    Powered by Discuz! X2.5   © 2001-2013 数学建模网-数学中国 ( 蒙ICP备14002410号-3 蒙BBS备-0002号 )     论坛法律顾问:王兆丰

    GMT+8, 2025-5-15 23:24 , Processed in 0.577156 second(s), 65 queries .

    回顶部