- 在线时间
- 5024 小时
- 最后登录
- 2022-11-28
- 注册时间
- 2009-4-8
- 听众数
- 738
- 收听数
- 1
- 能力
- 23 分
- 体力
- 77246 点
- 威望
- 96 点
- 阅读权限
- 255
- 积分
- 27100
- 相册
- 1
- 日志
- 14
- 记录
- 36
- 帖子
- 4293
- 主题
- 1341
- 精华
- 15
- 分享
- 16
- 好友
- 1975

数学中国总编辑
TA的每日心情 | 衰 2016-11-18 10:46 |
|---|
签到天数: 206 天 [LV.7]常住居民III 超级版主
 群组: 2011年第一期数学建模 群组: 第一期sas基础实训课堂 群组: 第二届数模基础实训 群组: 2012第二期MCM/ICM优秀 群组: MCM优秀论文解析专题 |
万维网过多的信息,股票报价,电影评论,市场价格趋势话题,几乎所有的东西,可以发现在点击一个按钮。在分析数据中发现,许多SAS用户感兴趣在网络上,但你得到这个数据的SAS环境呢?有很多方法,如 SAS数据步骤中的代码在设计你自己的网络爬虫或利用SAS%TMFILTER宏 ® 文本挖掘。在本文中,我们将审查一个网络爬虫的总体架构。我们将讨论获得网站的方法到SAS的信息,以及审查内部所谓的SAS搜索从实验项目的实验代码管道。我们也将提供咨询如何轻松定制一个网络爬虫,以适应个性化需求,以及如何具体的数据导入到SAS ® 企业矿工™。
' ~4 Q$ e5 D/ m3 U; Q简介:互联网已经成为一个有用的信息来源。通常是Web上的数据,我们要使用内的SAS,所以我们需要找到一种方式来获得这个数据。最好的办法是使用一个网络爬虫。 SAS提供几个从Web爬行和提取信息的方法。您可以使用基本的SAS数据步骤中的代码,或SAS文本矿工的%TMFILTER宏。虽然目前无法使用,SAS搜索管道将是一个功能强大的Web爬行产品,并提供更多的工具,网络爬行。每种方法都有其优点和缺点,所以取决于你想实现抓取的,它是最好对其进行审查。: a3 I! e. H9 L. F( Q* B, U
7 K9 l' ~; y o& \
首先,重要的是要了解网络爬虫是如何工作的。你应该熟悉数据步骤的代码,宏,和SAS过程PROC SQL,然后再继续。
z Z, P' n+ U, i网络爬虫概述:一个网络爬虫是一个程序,一个或多个起始地址作为“种子URL”,下载网站这些URL相关的网页,在网页中包含的任何超链接提取,并递归地继续这些超链接标识下载Web页。从概念上讲,网络爬虫是很简单的。
% b) z; E6 j! p4 _: |+ ]5 x* g _一个Web 履带式有四项职责:
7 p$ G; ^) `) m2 ? |4 V1。从候选人中选择一个网址。
7 i: k [( V0 `: \2 v1 x/ g) a2。它下载相关的Web页。
# s" w; t8 l/ X8 I3。它提取物在网页中的URL(超链接)。
* e2 |8 s# j0 o: w. W4。它补充说,未曾遇到的候选集的URL* n1 Z! L# F! R2 w4 [8 k
方法1:在WEB SAS数据步骤中的代码履带式
# X4 G7 z2 ]1 \1 Z& D; k$ ~首先创建一个网址的网站的Web crawler将开始列表。
- a# y4 o3 B& B/ e; P, [data work.links_to_crawl;
: x, `9 W6 `# X0 Ilength url $256 ;7 t# t% t3 ?9 L5 G
input url $;2 O; X4 I3 w: F( {
datalines;
) |1 Z" g9 j( Z M- i) E/ chttp://www.yahoo.com; M. b9 r: A; }2 M
http://www.madio.net% j: U A' v6 o% s) }2 b" Z
http://www.google.com
3 ]- e1 M6 ?# n1 ?+ ^ w' i6 G;% L$ s. f8 f7 L, f/ q& a
run$ n! _( J. {# W2 N
为了确保我们不抓取相同的URL一次以上,持有环节已创建一个数据抓取。
4 s C; G+ {3 n1 y当Web数据集将在开始时是空的,但一个网站的网址将被添加到数据集履带式完成抓取该网站。8 W: B8 _2 F1 _/ [/ Z$ q
data work.links_crawled;
- L% s/ Y" _% [1 s( Jlength url $256;
3 P9 P0 k+ O6 V9 x) crun;- D3 [6 m7 H2 M1 D3 C6 F4 q- A
现在我们开始爬行!该代码需要我们的 work.links_to_crawl数据集的第一个URL。在第一观察“_N_式1”,网址是投入名为 next_url 宏变量,所有剩余的URL放回我们的种子URL数据集,使他们在未来的迭代。, o/ l* {# {4 [
/* pop the next url off */. b% z. T: l" J& o& B' R
%let next_url = ;% z8 K$ w1 G1 u8 I% D: l. d
data work.links_to_crawl;
/ d6 M* o0 n6 X+ k" G: Uset work.links_to_crawl;
. E2 \! \6 \& `' {6 K' Iif _n_ eq 1 then call symput(“next_url”, url);
5 p) W1 a6 m# }else output;/ j9 w x3 f) F! v9 \ H; e/ ~" Q# A
run;
% H- ?. m* o0 c+ o" [现在,从互联网上下载的网址。创建一个文件名称 _nexturl 。我们让SAS知道它是一个URL 而且可以发现,AT&next_url,这是我们的宏观变量,它包含的网址我们从拉 work.links_to_crawl数据集。
9 J% g( X% Q' D' [) u/* crawl the url */
A7 j2 X7 ^- E- {( yfilename _nexturl url “&next_url”& q: t9 u1 b* [1 ?9 u
建立后的文件名的URL参考,确定一个地方把我们下载的文件。创建另一个文件名引用所谓 htmlfilm的条目,并在那里把从 url_file.html收集到的信息。! v1 k: s4 G/ B" P
/* put the file we crawled here */+ K$ B8 q6 H1 b1 ^% v
filename htmlfile “url_file.html”: \2 M8 R% K9 t4 I( [- y
接下来,我们通过数据的循环,把它写htmlfilm的条目文件名参考,并寻找更多的网址添加到我们的 work.links_to_crawl数据集。
! e: N" z% F: [+ t/* find more urls */
# V6 G3 v/ k6 S% U0 y# Vdata work._urls(keep=url);4 b" }- w0 i h8 m) O5 S
length url $256 ;+ g! T2 [6 A/ d1 X, }- e6 j1 ^5 m
file htmlfile;
; y+ Q3 {+ ]8 _ K. winfile _nexturl length=len;
: ~+ m! C# x" pinput text $varying2000. len;; F! a* P3 Z' b, ?
put text;
4 L/ L% c$ l0 T5 b5 H0 Y# H3 ustart = 1;6 ~$ W5 E7 L5 z2 u7 R' I4 y% w
stop = length(text);
6 D8 j) b6 P6 ^* N/ z: W0 a- |使用正则表达式一个网站的网址,以帮助搜索。正则表达式的匹配方法文本字符串,如字,词,或字符模式。 SAS已经提供了许多强大的字符串功能。然而,正则表达式通常会提供一个更简洁的方式,操纵和匹配的文本.
4 \& R! [1 S1 t! Mif _n_ = 1 then do;4 }( F' _1 D# y! ^ s0 O c; P! w$ Z, L
retain patternID;
' J, v/ x0 B; M+ Y% ipattern = ‘/href=”([^"]+)”/i’;
4 M5 H: v$ t& b: C* V5 ppatternID = prxparse(pattern);+ A3 x( y5 w1 l. Q
end0 ]- X" t5 G) N$ x* |
首次观察到,创建一个patternID将保持整个数据步运行。寻找的模式是: “/href=”([^"]+)”/i’”.,这意味着我们正在寻找字符串“HREF =”“,然后再寻找任何字符串,是至少有一个字符长,不包含引号(“),并结束在引号(”)。在’我’ 目的的手段使用不区分大小写的方法,以配合我们的正则表达式。$ R/ J7 d$ X1 }6 E; \
As a result, the Web crawler will find these types of strings:! l5 S, ^3 i3 E, @% J; ~7 D4 V
href=”sgf/2010/papers.html”
! o2 ^ y p& v7 ^$ y5 H* C8 x4 ahref=”www.yahoo.com”
; H* c+ T% R! w: r: C0 pHREF=”www.google.com”: L/ \$ o0 n% \. h2 C9 Z i
hReF=”http://www.madio.net”
6 Y: ]& _ e8 ?3 R$ X现在正则表达式匹配的一个网站上的文字。 PRXNEXT需要五个参数:正则表达式我们要寻找,寻找开始寻找正则表达式的开始位置,结束位置停止正则表达式,一旦发现字符串中的位置,而字符串的长度,如果发现的位置将是0,如果没有找到字符串。 PRXNEXT也改变了开始的参数,使搜索重新开始后的最后一场比赛是发现。! |6 d7 i2 l6 H0 j
call prxnext(patternID, start, stop, text, position, length);
: f5 ?6 u9 P. k4 r代码中的循环,在网站上找到的所有环节显示的文本。
* l$ c& d/ `( O; R) X% kdo while (position ^= 0); f- R1 I/ z- U G5 d, l
url = substr(text, position+6, length-7);
! N* k( b0 T5 K: w% }9 eoutput;( l& K& s( B6 \* o9 e6 K/ S
call prxnext(patternID, start, stop, text, position, length);
, r4 g% D. L6 g2 p+ c @+ [9 ?end;
6 ^9 Z7 X! w: N: z' Q' t; W$ Irun;
- @) s5 w% q" b" k) |* ~6 ^& V如果代码发现一个网址,它会检索唯一的URL的一部分,启动后的第一个引号。例如,如果代码中发现的HREF =“http://www.new-site.com”,那么它应该保持 http://www.new-site.com 。使用 substr到删除前的6个字符和最后一个字符的URL的其余部分输出的work._urls 数据集。现在,我们插入的URL代码只是以跟踪抓取到一个数据集名为 work.links_crawled 我们已经和确保我们不再次浏览有。7 l+ K* ^( Z2 ^7 i5 N3 H6 B
/* add the current link to the list of urls we have already crawled */ ' F7 G/ a6 z3 P. U5 T
data work._old_link;/ q8 P8 @# x9 e4 h
url = “&next_url”;% [, {( N6 u& E/ @) K
run;" G0 }( p6 h* w8 H A2 T
proc append base=work.links_crawled data=work._old_link force;
[' J% [2 l" z0 b2 w* u3 {& ^run;
& \0 y! P4 q! y4 t Q4 a. W下一步是在数据集 work._urls 的过程中发现的网址列表,以确保:2 R& j) [; Q& \( Y' x
1。我们尚未抓取他们,换句话说URL是不是在 work.links_crawled)。
3 y, D. Z3 i+ c9 J# ~ Z/ ^/ ]$ v2。我们没有排队抓取的URL(网址换句话说,是不是在work.links_to_crawl )。9 G2 Y. ]% V3 u- Z
/*
+ |8 Q. h9 n8 V2 R* only add urls that we have not already crawled
8 C% l4 v, Z" m S- i8 F! i* or that are not queued up to be crawled% L6 @; V7 j8 L/ G9 F2 p
*7 ^: N! `' R+ B5 l6 V
*/
: i) Z8 B" W d; G% I% Mproc sql noprint;$ C) y! W# K3 n& o6 N0 P: q
create table work._append as8 F% h6 Z" O3 I; T5 I) {( D# S
select url2 x; x2 I& w$ T. @' I
from work._urls2 r2 g' R$ Y8 n$ |1 A8 q
where url not in (select url from work.links_crawled)# q5 n- V w7 K0 J; z
and url not in (select url from work.links_to_crawl);% }7 a# B' A! h# k
quit;
6 @8 \. {6 t. L& x( V8 Y然后,我们添加网址还没有被抓取,而不是已经排队 work.links_to_crawl数据集。9 t. Q, n* C |, U5 u4 E9 y& e
/* add new links */
; }! C6 x" U3 F7 d M- pproc append base=work.links_to_crawl data=work._append force;
7 V* [; m% R1 {4 f0 z% k3 [run;
. O' @$ |; O' r8 b8 [# K) l此时的代码循环回到开始劫掠 work.links_to_crawl数据集的下一个URL。! k% g Y6 U4 q
|
zan
|