数学建模社区-数学中国
标题:
网络爬虫—利用SAS抓取网页方法
[打印本页]
作者:
厚积薄发
时间:
2012-2-27 15:19
标题:
网络爬虫—利用SAS抓取网页方法
万维网过多的信息,股票报价,电影评论,市场价格趋势话题,几乎所有的东西,可以发现在点击一个按钮。在分析数据中发现,许多SAS用户感兴趣在网络上,但你得到这个数据的SAS环境呢?有很多方法,如 SAS数据步骤中的代码在设计你自己的网络爬虫或利用SAS%TMFILTER宏 ® 文本挖掘。在本文中,我们将审查一个网络爬虫的总体架构。我们将讨论获得网站的方法到SAS的信息,以及审查内部所谓的SAS搜索从实验项目的实验代码管道。我们也将提供咨询如何轻松定制一个网络爬虫,以适应个性化需求,以及如何具体的数据导入到SAS ® 企业矿工™。
4 z# m: A+ a6 Z1 a3 r
简介:互联网已经成为一个有用的信息来源。通常是Web上的数据,我们要使用内的SAS,所以我们需要找到一种方式来获得这个数据。最好的办法是使用一个网络爬虫。 SAS提供几个从Web爬行和提取信息的方法。您可以使用基本的SAS数据步骤中的代码,或SAS文本矿工的%TMFILTER宏。虽然目前无法使用,SAS搜索管道将是一个功能强大的Web爬行产品,并提供更多的工具,网络爬行。每种方法都有其优点和缺点,所以取决于你想实现抓取的,它是最好对其进行审查。
5 o0 [3 o8 Z" Y
# h9 i% v6 \( T" t$ r
首先,重要的是要了解网络爬虫是如何工作的。你应该熟悉数据步骤的代码,宏,和SAS过程PROC SQL,然后再继续。
* v% w7 |! G0 n6 W1 l
网络爬虫概述:一个网络爬虫是一个程序,一个或多个起始地址作为“种子URL”,下载网站这些URL相关的网页,在网页中包含的任何超链接提取,并递归地继续这些超链接标识下载Web页。从概念上讲,网络爬虫是很简单的。
% h2 [- F5 n6 S% ^% }
一个Web 履带式有四项职责:
5 w. k6 y- K" \) E
1。从候选人中选择一个网址。
3 m9 B* x$ i% X$ [- T
2。它下载相关的Web页。
( r( }1 [7 m5 s& F+ D- a2 Z
3。它提取物在网页中的URL(超链接)。
" [8 @) q; f' \- ]% [
4。它补充说,未曾遇到的候选集的URL
) p. ]3 o/ h) z3 Q* o' ?7 i
方法1:在WEB SAS数据步骤中的代码履带式
. F& H; e$ q" D5 q; X6 H5 A
首先创建一个网址的网站的Web crawler将开始列表。
8 _8 G' M4 R, s1 w2 ]
data work.links_to_crawl;
- b# \; i0 U# n Z3 r$ l. ?
length url $256 ;
" g: K2 _3 V5 v: g; p
input url $;
1 F" X/ z$ l4 i- {3 C/ W8 ^0 x
datalines;
8 v X, j) S* M# T9 \6 e7 {
http://www.yahoo.com
# H+ N1 m( ]6 \/ ~2 r
http://www.madio.net
9 D7 y0 }3 ]2 _& I( S2 s
http://www.google.com
" @- p s7 P7 M4 a
;
6 U2 N; z, _+ V& A9 m6 \" i
run
6 Z/ f5 N: ~7 S- q
为了确保我们不抓取相同的URL一次以上,持有环节已创建一个数据抓取。
" R5 P3 N% O: m' z, e
当Web数据集将在开始时是空的,但一个网站的网址将被添加到数据集履带式完成抓取该网站。
- V' ]" ~" s5 [8 y8 U1 ^& \
data work.links_crawled;
2 W9 X( ?2 C7 n) o0 K: L& u9 o: u- P; m
length url $256;
/ d- f" K! R( B1 }! R
run;
3 c7 Z K7 \' e1 V' ^% f
现在我们开始爬行!该代码需要我们的 work.links_to_crawl数据集的第一个URL。在第一观察“_N_式1”,网址是投入名为 next_url 宏变量,所有剩余的URL放回我们的种子URL数据集,使他们在未来的迭代。
8 J5 a$ q* E2 @8 S Y# Q z7 l9 j
/* pop the next url off */
1 R5 Z' R# \5 E4 P
%let next_url = ;
' ~4 ^8 ]; M1 y$ f
data work.links_to_crawl;
+ X* e( k& D. Z) q4 ~. I' O
set work.links_to_crawl;
M+ {" W0 U1 Z, _3 `
if _n_ eq 1 then call symput(“next_url”, url);
0 K; s* d3 y8 j$ S
else output;
: I) F9 H& l# K# @) B4 o/ Q
run;
; [8 C+ o' F, o: \+ K: f+ C
现在,从互联网上下载的网址。创建一个文件名称 _nexturl 。我们让SAS知道它是一个URL 而且可以发现,AT&next_url,这是我们的宏观变量,它包含的网址我们从拉 work.links_to_crawl数据集。
7 w3 h. j L* O% }$ z7 F5 t1 h
/* crawl the url */
8 V! y- A" r/ h) i
filename _nexturl url “&next_url”
( h1 _* e# w/ p4 u# f
建立后的文件名的URL参考,确定一个地方把我们下载的文件。创建另一个文件名引用所谓 htmlfilm的条目,并在那里把从 url_file.html收集到的信息。
) \- B! c6 i" |9 J" g( l
/* put the file we crawled here */
5 @4 I- ? c- m. ?
filename htmlfile “url_file.html”
0 D; y# E9 |& n( L7 A& U
接下来,我们通过数据的循环,把它写htmlfilm的条目文件名参考,并寻找更多的网址添加到我们的 work.links_to_crawl数据集。
2 W& c8 A5 \, U" P Q" s
/* find more urls */
( c4 Y( s, t/ U# R5 r% i# O
data work._urls(keep=url);
* @9 ]! h6 j: `& t: C+ Y& K8 M
length url $256 ;
1 r! r p' I# k3 N; ?" _0 G
file htmlfile;
; `& ~( @& I3 {, [. s
infile _nexturl length=len;
. {8 T9 t6 ?- F
input text $varying2000. len;
- `) {- S* `% r S- X f. B
put text;
) L" E- w: ?% v d3 Y* w" s
start = 1;
# J+ m2 m1 y( k1 s: O
stop = length(text);
, ]- O# h0 w2 S. C9 K" `8 z: @
使用正则表达式一个网站的网址,以帮助搜索。正则表达式的匹配方法文本字符串,如字,词,或字符模式。 SAS已经提供了许多强大的字符串功能。然而,正则表达式通常会提供一个更简洁的方式,操纵和匹配的文本.
: L, u8 H$ f( V7 z
if _n_ = 1 then do;
1 o6 s) H" \; G6 D
retain patternID;
9 r% C, `; j( G( \- b1 Y
pattern = ‘/href=”([^"]+)”/i’;
2 z2 k/ f3 W4 C; M3 K5 R
patternID = prxparse(pattern);
* n6 V: v, l( E& \
end
) M1 l8 `% V4 u7 o( Z6 [9 ]
首次观察到,创建一个patternID将保持整个数据步运行。寻找的模式是: “/href=”([^"]+)”/i’”.,这意味着我们正在寻找字符串“HREF =”“,然后再寻找任何字符串,是至少有一个字符长,不包含引号(“),并结束在引号(”)。在’我’ 目的的手段使用不区分大小写的方法,以配合我们的正则表达式。
9 I+ D( \* K7 u' P( @
As a result, the Web crawler will find these types of strings:
% W9 C9 R2 j- k4 d3 y6 |7 U
href=”sgf/2010/papers.html”
& `( ]: I ?' k" L! ]4 u
href=”
www.yahoo.com
”
3 `/ S5 B2 W( |; f/ R' W
HREF=”
www.google.com
”
. ^& i9 x6 C$ m6 k( E
hReF=”
http://www.madio.net
”
- ]& n9 ^& D3 w; a- j; i
现在正则表达式匹配的一个网站上的文字。 PRXNEXT需要五个参数:正则表达式我们要寻找,寻找开始寻找正则表达式的开始位置,结束位置停止正则表达式,一旦发现字符串中的位置,而字符串的长度,如果发现的位置将是0,如果没有找到字符串。 PRXNEXT也改变了开始的参数,使搜索重新开始后的最后一场比赛是发现。
* @' k6 e+ A/ b' I9 C R; v+ a
call prxnext(patternID, start, stop, text, position, length);
7 K# K! D: w0 T! R, v- W
代码中的循环,在网站上找到的所有环节显示的文本。
2 U( V% X) J+ X) ^
do while (position ^= 0);
9 z- l D% j' P+ G; w: i
url = substr(text, position+6, length-7);
: H0 X0 z$ ^( [6 Q# S( W
output;
' E" ^) c: a) p. a
call prxnext(patternID, start, stop, text, position, length);
6 D3 W3 G L- r1 ~4 O ~9 o
end;
( b* S& C9 g9 |4 J5 v
run;
2 H V/ @5 ?. O; a; F
如果代码发现一个网址,它会检索唯一的URL的一部分,启动后的第一个引号。例如,如果代码中发现的HREF =“
http://www.new-site.com
”,那么它应该保持
http://www.new-site.com
。使用 substr到删除前的6个字符和最后一个字符的URL的其余部分输出的work._urls 数据集。现在,我们插入的URL代码只是以跟踪抓取到一个数据集名为 work.links_crawled 我们已经和确保我们不再次浏览有。
3 w( x/ I7 q W' O4 Y" X
/* add the current link to the list of urls we have already crawled */
, Q8 N% p8 M* k" Z" M
data work._old_link;
* L9 J% b: ~8 Q5 E( U
url = “&next_url”;
0 V4 e& N$ v! ?+ [, Q V
run;
3 _3 @/ o1 R+ ?) f5 j+ `
proc append base=work.links_crawled data=work._old_link force;
& H5 i+ E: ]& R; S$ C' ]
run;
4 E0 J a7 P }; Y* F" l4 p
下一步是在数据集 work._urls 的过程中发现的网址列表,以确保:
( m4 W. A2 P4 v F% o, ?
1。我们尚未抓取他们,换句话说URL是不是在 work.links_crawled)。
1 ~) H* U: y/ w7 @$ E% o7 b
2。我们没有排队抓取的URL(网址换句话说,是不是在work.links_to_crawl )。
9 f, [, A! F$ w2 s2 p# C
/*
, \2 |% q9 Z! ]' d8 O
* only add urls that we have not already crawled
+ L8 J; L- b5 k8 ^% r
* or that are not queued up to be crawled
1 \$ {8 W3 F- ]7 }- ~9 l9 y
*
6 h! P! w; |2 i3 U* T2 y. V, ]
*/
4 J; ]3 a p* J) ~9 W% z% V
proc sql noprint;
/ {. b! @6 @/ Z8 u1 _. S0 q% H* L
create table work._append as
3 R* e* i& ^/ h; S U. ^7 t
select url
+ w+ I9 o' j1 P( n2 G4 H* ~
from work._urls
) \! U J$ K! H% A
where url not in (select url from work.links_crawled)
+ q% y- u0 ?/ p5 r; |
and url not in (select url from work.links_to_crawl);
9 k. _) _' o# `+ \4 A, o
quit;
" \+ R; M+ `2 E' j' Z9 f: `
然后,我们添加网址还没有被抓取,而不是已经排队 work.links_to_crawl数据集。
2 B) L' Z H# C/ j
/* add new links */
- v# o' E6 K: X0 E) p4 E
proc append base=work.links_to_crawl data=work._append force;
" r1 z/ |6 b4 e: G( A* m' A1 \
run;
) F1 Z% j' i" U$ F' b
此时的代码循环回到开始劫掠 work.links_to_crawl数据集的下一个URL。
* {/ U) o& r; v' `0 A) x9 f
作者:
叶纯萱
时间:
2012-3-31 07:04
留个脚印
作者:
snowmanPeter
时间:
2014-10-27 11:10
值得一看
& R! X% I+ z% x
欢迎光临 数学建模社区-数学中国 (http://www.madio.net/)
Powered by Discuz! X2.5