数学建模社区-数学中国
标题:
网络爬虫—利用SAS抓取网页方法
[打印本页]
作者:
厚积薄发
时间:
2012-2-27 15:19
标题:
网络爬虫—利用SAS抓取网页方法
万维网过多的信息,股票报价,电影评论,市场价格趋势话题,几乎所有的东西,可以发现在点击一个按钮。在分析数据中发现,许多SAS用户感兴趣在网络上,但你得到这个数据的SAS环境呢?有很多方法,如 SAS数据步骤中的代码在设计你自己的网络爬虫或利用SAS%TMFILTER宏 ® 文本挖掘。在本文中,我们将审查一个网络爬虫的总体架构。我们将讨论获得网站的方法到SAS的信息,以及审查内部所谓的SAS搜索从实验项目的实验代码管道。我们也将提供咨询如何轻松定制一个网络爬虫,以适应个性化需求,以及如何具体的数据导入到SAS ® 企业矿工™。
9 j3 F/ R, s' k9 s
简介:互联网已经成为一个有用的信息来源。通常是Web上的数据,我们要使用内的SAS,所以我们需要找到一种方式来获得这个数据。最好的办法是使用一个网络爬虫。 SAS提供几个从Web爬行和提取信息的方法。您可以使用基本的SAS数据步骤中的代码,或SAS文本矿工的%TMFILTER宏。虽然目前无法使用,SAS搜索管道将是一个功能强大的Web爬行产品,并提供更多的工具,网络爬行。每种方法都有其优点和缺点,所以取决于你想实现抓取的,它是最好对其进行审查。
4 S# C& [& {8 h8 B! ?6 s1 H
3 p8 p0 W O+ o+ p
首先,重要的是要了解网络爬虫是如何工作的。你应该熟悉数据步骤的代码,宏,和SAS过程PROC SQL,然后再继续。
4 ?0 `* }% R+ `- m& D0 _
网络爬虫概述:一个网络爬虫是一个程序,一个或多个起始地址作为“种子URL”,下载网站这些URL相关的网页,在网页中包含的任何超链接提取,并递归地继续这些超链接标识下载Web页。从概念上讲,网络爬虫是很简单的。
, y6 [$ E1 k7 n! s. i: c; x4 r
一个Web 履带式有四项职责:
* y/ P, }4 s' g
1。从候选人中选择一个网址。
( v; d, m0 M8 _6 O
2。它下载相关的Web页。
; a" q' T2 x4 A# D( D
3。它提取物在网页中的URL(超链接)。
+ W! G7 S/ I; v: t) R
4。它补充说,未曾遇到的候选集的URL
7 t+ y$ i9 F2 m$ N! g9 a* S
方法1:在WEB SAS数据步骤中的代码履带式
% G: G/ r* C+ p' Z
首先创建一个网址的网站的Web crawler将开始列表。
* y. d& I! l5 F7 G
data work.links_to_crawl;
7 `1 a6 R# L7 U) H" N8 H
length url $256 ;
/ p0 I% [' Q1 i3 P( ]% A1 j1 r
input url $;
9 h% k& W( P- r! i Y0 \2 r' m
datalines;
, ~: X& K1 u0 H1 p' g8 E
http://www.yahoo.com
5 P: u( J+ t7 H9 q
http://www.madio.net
1 p- @7 ?/ i2 M$ U2 B
http://www.google.com
8 T/ l$ t. \' [) [9 T! K) o' m& m
;
- X; O. o- Z0 r$ k; L
run
+ Y2 _/ B6 L) `, l6 }
为了确保我们不抓取相同的URL一次以上,持有环节已创建一个数据抓取。
4 K d1 \, c) u0 S$ Q7 M) y7 h. `( X
当Web数据集将在开始时是空的,但一个网站的网址将被添加到数据集履带式完成抓取该网站。
( ]6 S& `. Y% a. Y7 n R `7 I& F- n
data work.links_crawled;
' @! f5 u% E7 V+ O" `/ i0 X
length url $256;
2 M, Y9 j9 X6 @6 s5 E' i; X# N
run;
9 f6 O* i8 q3 d: u6 R
现在我们开始爬行!该代码需要我们的 work.links_to_crawl数据集的第一个URL。在第一观察“_N_式1”,网址是投入名为 next_url 宏变量,所有剩余的URL放回我们的种子URL数据集,使他们在未来的迭代。
% M) `3 }4 g( |& k
/* pop the next url off */
4 D8 s, i( M* _! n' t( T, W: y
%let next_url = ;
% M. o; \: k* b
data work.links_to_crawl;
p9 x6 O( a" i* E8 \/ M8 D
set work.links_to_crawl;
1 x$ ?: P% i" b3 [) G( z5 U! H: A8 R- S
if _n_ eq 1 then call symput(“next_url”, url);
% ?8 I' A" x1 c8 s, ]% U9 M& _, H1 _
else output;
" e2 w! l/ |. t! |) A
run;
( `/ Q4 o& r' b' ~ W
现在,从互联网上下载的网址。创建一个文件名称 _nexturl 。我们让SAS知道它是一个URL 而且可以发现,AT&next_url,这是我们的宏观变量,它包含的网址我们从拉 work.links_to_crawl数据集。
6 g: V) f( z$ C$ K. ?* f% v; K$ F/ V
/* crawl the url */
) w9 h- k* {8 E3 F8 b# F
filename _nexturl url “&next_url”
* P: Q3 w6 G5 c" q9 |+ j) J y
建立后的文件名的URL参考,确定一个地方把我们下载的文件。创建另一个文件名引用所谓 htmlfilm的条目,并在那里把从 url_file.html收集到的信息。
+ x1 h( B1 y6 ?- ~
/* put the file we crawled here */
3 Q1 j9 K" ^. G1 ^% y( p+ E
filename htmlfile “url_file.html”
, w/ L- I# ^9 W2 |- o' h# J
接下来,我们通过数据的循环,把它写htmlfilm的条目文件名参考,并寻找更多的网址添加到我们的 work.links_to_crawl数据集。
d+ W" K% t" r" x. ?1 e1 Q" B- i
/* find more urls */
% c9 L0 E; ?# J3 ^6 O
data work._urls(keep=url);
( ~$ m2 `+ h& N; n
length url $256 ;
0 W7 y1 {' B. o% ^ w
file htmlfile;
0 b& X3 W4 |! P1 u7 T1 l: k% S
infile _nexturl length=len;
: s7 o y% T/ C1 b5 i9 r
input text $varying2000. len;
2 B5 N4 ^% T( X& `8 ^/ g
put text;
1 s2 b- y8 ]5 U) r
start = 1;
( T: ]. U, r( Q7 T" ]/ U
stop = length(text);
! z' n" t4 q7 }2 f1 x* Z! n+ D7 h$ p
使用正则表达式一个网站的网址,以帮助搜索。正则表达式的匹配方法文本字符串,如字,词,或字符模式。 SAS已经提供了许多强大的字符串功能。然而,正则表达式通常会提供一个更简洁的方式,操纵和匹配的文本.
. d; G6 y( ^. P* B% ?
if _n_ = 1 then do;
! y. X3 b* H/ B, u, t
retain patternID;
1 [6 m. U) q& t+ ^. |- I- v/ w
pattern = ‘/href=”([^"]+)”/i’;
5 S U6 A. ]+ H
patternID = prxparse(pattern);
5 ]0 S5 y6 z+ [" T' I9 p
end
! f- W! }. ^0 g: P2 D' R
首次观察到,创建一个patternID将保持整个数据步运行。寻找的模式是: “/href=”([^"]+)”/i’”.,这意味着我们正在寻找字符串“HREF =”“,然后再寻找任何字符串,是至少有一个字符长,不包含引号(“),并结束在引号(”)。在’我’ 目的的手段使用不区分大小写的方法,以配合我们的正则表达式。
3 Y$ a, i) W# R4 d6 z5 K
As a result, the Web crawler will find these types of strings:
. d2 n2 d% y3 g% l. d* j i
href=”sgf/2010/papers.html”
7 ]( e8 F- Z9 e% F. I
href=”
www.yahoo.com
”
0 F! j7 I" _( o4 e4 X3 K
HREF=”
www.google.com
”
' i. ?6 z, e6 _; O7 q) T) L! U
hReF=”
http://www.madio.net
”
$ i2 v; H* z, A2 s* Y+ T) H
现在正则表达式匹配的一个网站上的文字。 PRXNEXT需要五个参数:正则表达式我们要寻找,寻找开始寻找正则表达式的开始位置,结束位置停止正则表达式,一旦发现字符串中的位置,而字符串的长度,如果发现的位置将是0,如果没有找到字符串。 PRXNEXT也改变了开始的参数,使搜索重新开始后的最后一场比赛是发现。
7 d0 f/ q: r1 n2 `
call prxnext(patternID, start, stop, text, position, length);
9 s& C( P3 M& X
代码中的循环,在网站上找到的所有环节显示的文本。
' S5 r4 u: g% q/ \3 P9 r$ U/ K
do while (position ^= 0);
7 n. A' S' M) E! l& z' n
url = substr(text, position+6, length-7);
2 W/ ]* P. Y% V* ^4 P/ N" j$ s- g
output;
) u" P) `' Y- S6 j9 q3 `* n! x
call prxnext(patternID, start, stop, text, position, length);
; D; r, _9 J8 T1 g( {
end;
5 @* G: g8 U+ Q0 P
run;
+ a5 N$ {6 F: t9 z! o9 T
如果代码发现一个网址,它会检索唯一的URL的一部分,启动后的第一个引号。例如,如果代码中发现的HREF =“
http://www.new-site.com
”,那么它应该保持
http://www.new-site.com
。使用 substr到删除前的6个字符和最后一个字符的URL的其余部分输出的work._urls 数据集。现在,我们插入的URL代码只是以跟踪抓取到一个数据集名为 work.links_crawled 我们已经和确保我们不再次浏览有。
- O1 U: {4 ~: T- z
/* add the current link to the list of urls we have already crawled */
" Z* c s( Y: D
data work._old_link;
% Q, p; J$ v% {' Z. {$ q& X
url = “&next_url”;
O. P% i/ |9 N4 C( P
run;
( v" k$ U# z% D3 m, Y
proc append base=work.links_crawled data=work._old_link force;
* S) q- s, i# B, P
run;
9 z" ~( [ _" M( Q I3 |. `4 I
下一步是在数据集 work._urls 的过程中发现的网址列表,以确保:
/ V7 ?. }& R) K- Q' f, X! d; _+ }
1。我们尚未抓取他们,换句话说URL是不是在 work.links_crawled)。
e( ~8 D. p. Q5 K
2。我们没有排队抓取的URL(网址换句话说,是不是在work.links_to_crawl )。
' s s2 }8 j5 W3 B* x' y, W
/*
; W( b! f% \" V
* only add urls that we have not already crawled
. |! ^8 L! B1 p. S# O% e) C8 k+ {
* or that are not queued up to be crawled
( ^" C/ v& }' t! [6 t4 ~9 ~4 e2 e3 G
*
/ [2 w- P$ ~' b2 @
*/
8 H/ H9 m" H" D$ g! o+ ?
proc sql noprint;
+ H3 k# c) f- p$ z& p2 o5 J
create table work._append as
% S! e3 ~5 l" |, ]8 y
select url
7 Y8 X+ L9 j! T* E! q9 _3 d4 d
from work._urls
! `3 n: J2 s: \
where url not in (select url from work.links_crawled)
$ p* |7 o' x" {/ V
and url not in (select url from work.links_to_crawl);
; D" @! R0 w2 D
quit;
% ~2 V( R, y {1 W3 X. L3 R' X
然后,我们添加网址还没有被抓取,而不是已经排队 work.links_to_crawl数据集。
0 R5 m0 `; i2 Y8 p" `5 T
/* add new links */
@# z* } h9 l8 Q- G/ d
proc append base=work.links_to_crawl data=work._append force;
% k0 u. ~, |/ P4 ^# ` Z/ E8 J
run;
, Q$ r3 H5 E, _2 u ^) b! M
此时的代码循环回到开始劫掠 work.links_to_crawl数据集的下一个URL。
% G" [! s7 H& z3 P# N0 U
作者:
叶纯萱
时间:
2012-3-31 07:04
留个脚印
作者:
snowmanPeter
时间:
2014-10-27 11:10
值得一看
6 @9 J% r& `, N5 x: v# _/ B' [: M5 Q
欢迎光临 数学建模社区-数学中国 (http://www.madio.net/)
Powered by Discuz! X2.5