QQ登录

只需要一步,快速开始

 注册地址  找回密码
查看: 3841|回复: 2
打印 上一主题 下一主题

网络爬虫—利用SAS抓取网页方法

[复制链接]
字体大小: 正常 放大

1341

主题

738

听众

2万

积分

数学中国总编辑

  • TA的每日心情

    2016-11-18 10:46
  • 签到天数: 206 天

    [LV.7]常住居民III

    超级版主

    社区QQ达人 邮箱绑定达人 元老勋章 发帖功臣 新人进步奖 原创写作奖 最具活力勋章 风雨历程奖

    群组2011年第一期数学建模

    群组第一期sas基础实训课堂

    群组第二届数模基础实训

    群组2012第二期MCM/ICM优秀

    群组MCM优秀论文解析专题

    跳转到指定楼层
    1#
    发表于 2012-2-27 15:19 |只看该作者 |倒序浏览
    |招呼Ta 关注Ta |邮箱已经成功绑定
    万维网过多的信息,股票报价,电影评论,市场价格趋势话题,几乎所有的东西,可以发现在点击一个按钮。在分析数据中发现,许多SAS用户感兴趣在网络上,但你得到这个数据的SAS环境呢?有很多方法,如 SAS数据步骤中的代码在设计你自己的网络爬虫或利用SAS%TMFILTER宏 ® 文本挖掘。在本文中,我们将审查一个网络爬虫的总体架构。我们将讨论获得网站的方法到SAS的信息,以及审查内部所谓的SAS搜索从实验项目的实验代码管道。我们也将提供咨询如何轻松定制一个网络爬虫,以适应个性化需求,以及如何具体的数据导入到SAS ® 企业矿工™。
    : `4 g: [0 V: M) I. r简介:互联网已经成为一个有用的信息来源。通常是Web上的数据,我们要使用内的SAS,所以我们需要找到一种方式来获得这个数据。最好的办法是使用一个网络爬虫。 SAS提供几个从Web爬行和提取信息的方法。您可以使用基本的SAS数据步骤中的代码,或SAS文本矿工的%TMFILTER宏。虽然目前无法使用,SAS搜索管道将是一个功能强大的Web爬行产品,并提供更多的工具,网络爬行。每种方法都有其优点和缺点,所以取决于你想实现抓取的,它是最好对其进行审查。
    / I1 s: a1 p7 m5 i" V: n# S" Y  w
    首先,重要的是要了解网络爬虫是如何工作的。你应该熟悉数据步骤的代码,宏,和SAS过程PROC SQL,然后再继续。  f) [0 h' `0 b& l
    网络爬虫概述:一个网络爬虫是一个程序,一个或多个起始地址作为“种子URL”,下载网站这些URL相关的网页,在网页中包含的任何超链接提取,并递归地继​​续这些超链接标识下载Web页。从概念上讲,网络爬虫是很简单的。
    + R) h1 L( T( m一个Web 履带式有四项职责:) Y- M6 ?6 t5 j+ x
    1。从候选人中选择一个网址。
    / r0 J" X  V" {# l3 g: r. Z2。它下载相关的Web页。
    ' j8 t1 n; c4 C, z9 x1 R9 T3。它提取物在网页中的URL(超链接)。
    ) I  P, l: D  u5 i: i: i4。它补充说,未曾遇到的候选集的URL
    $ F9 [* ~4 y# r2 [3 D% h7 r6 o, h方法1:在WEB SAS数据步骤中的代码履带式9 v% ~8 u) u: U  y& U$ T" y$ r
    首先创建一个网址的网站的Web crawler将开始列表。
    , U4 N0 O6 N5 p; D# V! |data work.links_to_crawl;
    - X! Z9 Z5 e/ a; Mlength url $256 ;
    8 P& n$ M' l0 M' Y' ]input url $;
    6 J) B. v. ~) _0 \datalines;4 Q; s3 F  T$ H
    http://www.yahoo.com
    6 i8 O/ \. D5 Q4 f' D1 mhttp://www.madio.net
    ! p3 E/ k# U& L( O- Hhttp://www.google.com( y7 J7 M3 T1 `1 D# a( j( M
    ;
    * r- n$ F9 w/ q% [2 T& \run) L0 V8 q: L6 G$ i+ |$ O0 ~% K
    为了确保我们不抓取相同的URL一次以上,持有环节已创建一个数据抓取。
    ( l/ ^: T% J2 _9 p+ h当Web数据集将在开始时是空的,但一个网站的网址将被添加到数据集履带式完成抓取该网站。! q& o3 s" J1 a' ?# ^+ f8 h
    data work.links_crawled; 7 P8 C+ L7 k: s, l6 W
    length url $256;
    3 ?' W# U, G' d: orun;
      }/ m6 o9 h5 A; U现在我们开始爬行!该代码需要我们的 work.links_to_crawl数据集的第一个URL。在第一观察“_N_式1”,网址是投入名为 next_url 宏变量,所有剩余的URL放回我们的种子URL数据集,使他们在未来的迭代。) v$ c( h0 t( O  j! Q0 Z
    /* pop the next url off */* ]( ~, A- i+ a1 j# F. j, }
    %let next_url = ;1 S0 j+ j+ L4 y. a( p
    data work.links_to_crawl;2 H9 R9 h2 c6 l- J! J
    set work.links_to_crawl;
    ) c4 g1 U: j' Y. Kif _n_ eq 1 then call symput(“next_url”, url);
    ( v3 g% L$ r" h3 {else output;5 D) z* p( N( C
    run;
    ! F7 K. ~, z0 E2 b/ X现在,从互联网上下载的网址。创建一个文件名​​称 _nexturl 。我们让SAS知道它是一个URL 而且可以发现,AT&next_url,这是我们的宏观变量,它包含的网址我们从拉 work.links_to_crawl数据集。& Z6 {4 d0 S* z) g& X! Z+ i
    /* crawl the url */
    ( B+ H5 e0 ~  c- ?filename _nexturl url “&next_url”
    7 C. P# b2 R% D/ J0 @+ G( J建立后的文件名​​的URL参考,确定一个地方把我们下载的文件。创建另一个文件名​​引用所谓 htmlfilm的条目,并在那里把从 url_file.html收集到的信息。
    1 \6 r3 a2 M" V/* put the file we crawled here */
    # Q- x5 c# F. s6 x' |% O* {filename htmlfile “url_file.html”+ F1 H0 F0 L6 I4 B. ~
    接下来,我们通过数据的循环,把它写htmlfilm的条目文件名​​参考,并寻找更多的网址添加到我们的 work.links_to_crawl数据集。5 e/ I: Z, p& m$ z  F5 |9 m
    /* find more urls */ 3 u! N: L3 H: z$ T7 |" `
    data work._urls(keep=url);: R# \' m; O9 [  U: x, I
    length url $256 ;5 C" C$ J: t. i: H2 A/ `* j& O3 {
    file htmlfile;! D7 ]( j) N9 }: q0 E
    infile _nexturl length=len;
    7 ]( t+ q8 _/ N2 }6 [+ l  [input text $varying2000. len;
    % q" B( Z- M0 R, ?+ c+ g6 M3 m4 qput text;& [' s8 e0 n6 T2 ^( ]
    start = 1;
    ! ]1 m, {1 @2 s. Hstop = length(text);
    5 m; V$ T6 J% @7 K. [' U) G% M5 B使用正则表达式一个网站的网址,以帮助搜索。正则表达式的匹配方法文本字符串,如字,词,或字符模式。 SAS已经提供了许多强大的字符串功能。然而,正则表达式通常会提供一个更简洁的方式,操纵和匹配的文本.( S# I6 ]! ^* w4 H$ q/ W
    if _n_ = 1 then do;/ z: v0 Y' D% G$ D8 Y
    retain patternID;! G* U8 `" A2 |* L& \- c" Z: z
    pattern = ‘/href=”([^"]+)”/i’;6 l  j3 o; `2 l0 W% S5 q, V  L
    patternID = prxparse(pattern);
    7 R# y( k' [9 T4 Jend
    - K* d# J, W6 H% ^, |* b. b5 p首次观察到,创建一个patternID将保持整个数据步运行。寻找的模式是: “/href=”([^"]+)”/i’”.,这意味着我们正在寻找字符串“HREF =”“,然后再寻找任何字符串,是至少有一个字符长,不包含引号(“),并结束在引号(”)。在’我’ 目的的手段使用不区分大小写的方法,以配合我们的正则表达式。+ N, @6 @" K# M3 R8 |+ y
    As a result, the Web crawler will find these types of strings:
    9 _+ A2 _7 S6 H% Nhref=”sgf/2010/papers.html” * }- q6 b* K9 {; @- i( D
    href=”www.yahoo.com. Y4 b) `' @$ y6 X
    HREF=”www.google.com
    7 M: k% d, p6 p% J6 H) c# ThReF=”http://www.madio.net$ J7 D2 w/ D) ~( N) t3 {
    现在正则表达式匹配的一个网站上的文字。 PRXNEXT需要五个参数:正则表达式我们要寻找,寻找开始寻找正则表达式的开始位置,结束位置停止正则表达式,一旦发现字符串中的位置,而字符串的长度,如果发现的位置将是0,如果没有找到字符串。 PRXNEXT也改变了开始的参数,使搜索重新开始后的最后一场比赛是发现。+ ]5 `' G/ N. d& I& y  U' K
    call prxnext(patternID, start, stop, text, position, length);  K3 R' x7 \5 T* |, K5 @6 D, s
    代码中的循环,在网站上找到的所有环节显示的文本。
    ) _1 Q, r1 T, B1 N4 Gdo while (position ^= 0);
    . y/ z' \4 a/ A, Qurl = substr(text, position+6, length-7);
    ! S, ]* P/ ]: t  N1 d9 Z8 S( `9 j6 Qoutput;& V3 B% F" o+ r
    call prxnext(patternID, start, stop, text, position, length);8 q' Y( J& T2 T: g; A8 ^+ h
    end;2 m4 o( T, V  h- H+ ~9 C$ ~
    run;
    ( {  k. F% m6 G如果代码发现一个网址,它会检索唯一的URL的一部分,启动后的第一个引号。例如,如果代码中发现的HREF =“http://www.new-site.com”,那么它应该保持 http://www.new-site.com 。使用 substr到删除前的6个字符和最后一个字符的URL的其余部分输出的work._urls 数据集。现在,我们插入的URL代码只是以跟踪抓取到一个数据集名为 work.links_crawled 我们已经和确保我们不再次浏览有。
    0 Z4 x% y) ?* t, w, T/* add the current link to the list of urls we have already crawled */
    : y0 _( L# j! Odata work._old_link;
    3 Q  a3 }2 E  [  N% n7 E9 Murl = “&next_url”;
    $ ?7 u3 m4 Y! ?/ S, V1 h& _( h3 {run;& w& `0 L9 i. @/ ^* l4 F
    proc append base=work.links_crawled data=work._old_link force;  y0 o* x9 A3 ?& L8 T! W# o
    run;
    : }' P5 L+ z+ @4 p4 t+ k6 u+ T, B下一步是在数据集 work._urls 的过程中发现的网址列表,以确保:3 T, \# a5 Y7 j5 h2 F! h! W& L
    1。我们尚未抓取他们,换句话说URL是不是在 work.links_crawled)。$ v0 M4 o& |, Z. I5 L- b, B) V  x
    2。我们没有排队抓取的URL(网址换句话说,是不是在work.links_to_crawl )。
    - \7 a9 l- H0 k9 l$ k/*( ]  V2 m3 a; h3 V- O" P3 t
    * only add urls that we have not already crawled
    , p% a0 `3 i/ O6 p: m9 l% V* or that are not queued up to be crawled
    $ {9 ~2 r0 ^' N5 l& G# ^*7 j, l0 ~. G& d, p6 z& |
    */
    # R" G) g% k4 ~7 ^+ ^proc sql noprint;+ v) r% J1 V- ]  O0 r8 s
    create table work._append as* D" Q$ _& U1 I8 _
    select url9 J# z0 N. C, e) |- i: M" o. Y9 S
    from work._urls
    % R6 I; e  ?& r3 wwhere url not in (select url from work.links_crawled)' r8 b9 o: `. v8 W) M1 B' K
    and url not in (select url from work.links_to_crawl);1 `. Q( W$ m9 I9 a! f- l
    quit;
    " F( ~; @; v1 f8 b  ~7 f. r然后,我们添加网址还没有被抓取,而不是已经排队 work.links_to_crawl数据集。0 x$ `% z' _3 T1 Z8 I/ i
    /* add new links */5 S! z2 E/ X/ [
    proc append base=work.links_to_crawl data=work._append force;
    2 u& [  Y4 \# |8 |- y( A0 |0 f; h6 Hrun;
    % k* x# V. d" y9 C3 @此时的代码循环回到开始劫掠 work.links_to_crawl数据集的下一个URL。+ d: d4 d- A& S( e  Q
    zan
    转播转播0 分享淘帖0 分享分享0 收藏收藏0 支持支持0 反对反对0 微信微信
    叶纯萱 实名认证       

    2

    主题

    3

    听众

    107

    积分

    升级  3.5%

  • TA的每日心情
    开心
    2012-5-6 09:13
  • 签到天数: 34 天

    [LV.5]常住居民I

    群组数学专业考研加油站

    群组Matlab讨论组

    群组C 语言讨论组

    群组Linux推广

    群组EXCEL

    回复

    使用道具 举报

    0

    主题

    4

    听众

    35

    积分

    升级  31.58%

  • TA的每日心情
    开心
    2015-7-2 14:33
  • 签到天数: 11 天

    [LV.3]偶尔看看II

    自我介绍
    我是来自浙江工业大学的学生

    群组数学建模培训课堂1

    回复

    使用道具 举报

    您需要登录后才可以回帖 登录 | 注册地址

    qq
    收缩
    • 电话咨询

    • 04714969085
    fastpost

    关于我们| 联系我们| 诚征英才| 对外合作| 产品服务| QQ

    手机版|Archiver| |繁體中文 手机客户端  

    蒙公网安备 15010502000194号

    Powered by Discuz! X2.5   © 2001-2013 数学建模网-数学中国 ( 蒙ICP备14002410号-3 蒙BBS备-0002号 )     论坛法律顾问:王兆丰

    GMT+8, 2025-8-15 15:39 , Processed in 0.367180 second(s), 65 queries .

    回顶部