- 在线时间
- 5024 小时
- 最后登录
- 2022-11-28
- 注册时间
- 2009-4-8
- 听众数
- 738
- 收听数
- 1
- 能力
- 23 分
- 体力
- 77273 点
- 威望
- 96 点
- 阅读权限
- 255
- 积分
- 27108
- 相册
- 1
- 日志
- 14
- 记录
- 36
- 帖子
- 4293
- 主题
- 1341
- 精华
- 15
- 分享
- 16
- 好友
- 1975

数学中国总编辑
TA的每日心情 | 衰 2016-11-18 10:46 |
|---|
签到天数: 206 天 [LV.7]常住居民III 超级版主
 群组: 2011年第一期数学建模 群组: 第一期sas基础实训课堂 群组: 第二届数模基础实训 群组: 2012第二期MCM/ICM优秀 群组: MCM优秀论文解析专题 |
万维网过多的信息,股票报价,电影评论,市场价格趋势话题,几乎所有的东西,可以发现在点击一个按钮。在分析数据中发现,许多SAS用户感兴趣在网络上,但你得到这个数据的SAS环境呢?有很多方法,如 SAS数据步骤中的代码在设计你自己的网络爬虫或利用SAS%TMFILTER宏 ® 文本挖掘。在本文中,我们将审查一个网络爬虫的总体架构。我们将讨论获得网站的方法到SAS的信息,以及审查内部所谓的SAS搜索从实验项目的实验代码管道。我们也将提供咨询如何轻松定制一个网络爬虫,以适应个性化需求,以及如何具体的数据导入到SAS ® 企业矿工™。) R4 e6 Z. ?8 O, X) { J
简介:互联网已经成为一个有用的信息来源。通常是Web上的数据,我们要使用内的SAS,所以我们需要找到一种方式来获得这个数据。最好的办法是使用一个网络爬虫。 SAS提供几个从Web爬行和提取信息的方法。您可以使用基本的SAS数据步骤中的代码,或SAS文本矿工的%TMFILTER宏。虽然目前无法使用,SAS搜索管道将是一个功能强大的Web爬行产品,并提供更多的工具,网络爬行。每种方法都有其优点和缺点,所以取决于你想实现抓取的,它是最好对其进行审查。 p6 N7 {9 [4 i2 M) U
# W8 Q- v! m' i首先,重要的是要了解网络爬虫是如何工作的。你应该熟悉数据步骤的代码,宏,和SAS过程PROC SQL,然后再继续。5 M1 H" S2 S" N. X
网络爬虫概述:一个网络爬虫是一个程序,一个或多个起始地址作为“种子URL”,下载网站这些URL相关的网页,在网页中包含的任何超链接提取,并递归地继续这些超链接标识下载Web页。从概念上讲,网络爬虫是很简单的。
0 Q7 K1 f: @' ^- ]6 ?' b0 x8 C一个Web 履带式有四项职责:
: E3 m3 X; n5 `$ X1。从候选人中选择一个网址。
- w# ?, h7 ^) |, Z' p2。它下载相关的Web页。5 d3 {- G' m' G4 ~
3。它提取物在网页中的URL(超链接)。) j) j! ?5 Z" d' \- U, { ]
4。它补充说,未曾遇到的候选集的URL
) a* t" m1 A: k, V6 X n* H; Y. l& Y$ t" ^方法1:在WEB SAS数据步骤中的代码履带式
, p" U4 J' M6 Y. u+ f) o首先创建一个网址的网站的Web crawler将开始列表。
8 k. z$ f# g, gdata work.links_to_crawl;, P9 B; ~4 A# {4 @8 C" a% o
length url $256 ;
* {+ X! i/ j* M) N& Q" a2 Kinput url $;3 D! x6 X. S# c' w
datalines;' ~9 {; Q4 \ q- V, w D
http://www.yahoo.com# D/ r- i% i' O7 w% N; M
http://www.madio.net' R3 O# c7 S3 G8 a9 R d8 s5 T
http://www.google.com
0 v, w7 c. o; H! T& L+ A; s;
% r; }7 X3 N9 Hrun
% x9 K$ ^6 ]5 P# P- h7 ^为了确保我们不抓取相同的URL一次以上,持有环节已创建一个数据抓取。' n4 F& V0 d8 I. u5 d6 `
当Web数据集将在开始时是空的,但一个网站的网址将被添加到数据集履带式完成抓取该网站。3 A7 G3 c" N1 R1 t) B0 F0 O& \8 F
data work.links_crawled;
; t( h9 B% ^- f, V4 Q7 X4 q, Qlength url $256;: Z) |% @0 C/ P+ L
run;
# o8 v( ?3 U, l- s) ^现在我们开始爬行!该代码需要我们的 work.links_to_crawl数据集的第一个URL。在第一观察“_N_式1”,网址是投入名为 next_url 宏变量,所有剩余的URL放回我们的种子URL数据集,使他们在未来的迭代。
7 N- Q7 x- ?( [. ~/* pop the next url off */
& U4 r- A7 f! |% Z9 B/ c5 f6 T%let next_url = ;7 a! }9 K6 E& M U& k( q4 ]
data work.links_to_crawl;8 ~% \ Q/ b0 }$ _8 _: R. \% B
set work.links_to_crawl;5 `! L- {4 M+ d7 X# D6 n
if _n_ eq 1 then call symput(“next_url”, url);0 `" Y" b" ]- T, ^3 g7 j
else output;
4 ?* ?* x. u) x* l& U+ x* q0 lrun;
% D0 P* b6 U7 k6 |. y d现在,从互联网上下载的网址。创建一个文件名称 _nexturl 。我们让SAS知道它是一个URL 而且可以发现,AT&next_url,这是我们的宏观变量,它包含的网址我们从拉 work.links_to_crawl数据集。
- ?9 h( Z# n' u: g0 M& i# x/* crawl the url */- X2 G' a( ~/ _, c5 I5 _! v# s( V2 D
filename _nexturl url “&next_url”# T, [ H* x* F) [' Z
建立后的文件名的URL参考,确定一个地方把我们下载的文件。创建另一个文件名引用所谓 htmlfilm的条目,并在那里把从 url_file.html收集到的信息。, `& i+ J F7 {* i J4 S
/* put the file we crawled here */
- ^$ C, H6 N$ ?' v3 ?2 Tfilename htmlfile “url_file.html”' p' i: w6 Q# O$ A; ]
接下来,我们通过数据的循环,把它写htmlfilm的条目文件名参考,并寻找更多的网址添加到我们的 work.links_to_crawl数据集。' S, @4 V7 g2 L: a, j4 i
/* find more urls */
. D9 }5 {2 T8 v0 qdata work._urls(keep=url);
" h, S3 S6 ~+ F5 Blength url $256 ;4 q/ g" I3 n. W4 {
file htmlfile;
7 W! |9 f5 x! z- ?7 ainfile _nexturl length=len;
) Q, f8 s# V) `( k' z0 `; qinput text $varying2000. len;
( p' t# D3 `- N, [& ^0 Sput text;
8 ^+ b3 M! J' R. x: Estart = 1;
+ P: u! v. k6 j U7 ^% ?stop = length(text);, l0 p% N& d. U0 C3 w, d1 Q6 Z* I
使用正则表达式一个网站的网址,以帮助搜索。正则表达式的匹配方法文本字符串,如字,词,或字符模式。 SAS已经提供了许多强大的字符串功能。然而,正则表达式通常会提供一个更简洁的方式,操纵和匹配的文本.
7 B/ o/ `1 E' |% `: Pif _n_ = 1 then do;. F- }/ j4 f" g& \& @/ V
retain patternID;
5 i, ~- o; S; J: z5 J9 S7 T) Vpattern = ‘/href=”([^"]+)”/i’;5 l+ w# E7 z3 |
patternID = prxparse(pattern);+ I6 }8 A K. m" Z1 ?
end% y4 p% e; u- z4 a3 e8 F! n
首次观察到,创建一个patternID将保持整个数据步运行。寻找的模式是: “/href=”([^"]+)”/i’”.,这意味着我们正在寻找字符串“HREF =”“,然后再寻找任何字符串,是至少有一个字符长,不包含引号(“),并结束在引号(”)。在’我’ 目的的手段使用不区分大小写的方法,以配合我们的正则表达式。
7 X4 O+ X( a7 |; ~2 AAs a result, the Web crawler will find these types of strings:* R- C+ r( F6 Z: d+ N# \4 b$ o
href=”sgf/2010/papers.html”
, V) Z) q% j# @href=”www.yahoo.com”
& m& ^$ U2 c* A8 O' P& qHREF=”www.google.com”
( K) V; g/ A5 y) QhReF=”http://www.madio.net”$ N4 e5 ]& ]" B! b4 F9 }$ e
现在正则表达式匹配的一个网站上的文字。 PRXNEXT需要五个参数:正则表达式我们要寻找,寻找开始寻找正则表达式的开始位置,结束位置停止正则表达式,一旦发现字符串中的位置,而字符串的长度,如果发现的位置将是0,如果没有找到字符串。 PRXNEXT也改变了开始的参数,使搜索重新开始后的最后一场比赛是发现。% d; C! U9 {. c* |" {5 [
call prxnext(patternID, start, stop, text, position, length);/ V& a5 |+ }/ T+ B
代码中的循环,在网站上找到的所有环节显示的文本。
* h7 C" B. c6 I9 r" ^2 ldo while (position ^= 0);
& A K/ Y O4 h7 Hurl = substr(text, position+6, length-7);
6 U" H% b: _* c+ |/ n+ d0 Noutput;
7 N2 A$ p9 w, Pcall prxnext(patternID, start, stop, text, position, length);3 L- G3 Z" s# _' q& V* T
end;
, J; U; |$ U. m7 _run;$ A7 K, l/ ], b' ]7 c* I
如果代码发现一个网址,它会检索唯一的URL的一部分,启动后的第一个引号。例如,如果代码中发现的HREF =“http://www.new-site.com”,那么它应该保持 http://www.new-site.com 。使用 substr到删除前的6个字符和最后一个字符的URL的其余部分输出的work._urls 数据集。现在,我们插入的URL代码只是以跟踪抓取到一个数据集名为 work.links_crawled 我们已经和确保我们不再次浏览有。; e, z/ ~' q6 b! }
/* add the current link to the list of urls we have already crawled */ ' T! |$ q& K. h" b8 O& X
data work._old_link;
% K! }( c, L/ N; U! f( r1 W z6 ?/ Iurl = “&next_url”;
Z' {; V/ ^7 `( vrun;! I8 ]% {8 M" i$ y! w! k; J7 ?
proc append base=work.links_crawled data=work._old_link force;; r3 k! ~- O* E! z2 f# [
run;
) Z9 J# R- e- M' {1 A- A下一步是在数据集 work._urls 的过程中发现的网址列表,以确保:
! Q% Y/ v7 P% Z! p9 _& S; u2 s+ x. b6 e1。我们尚未抓取他们,换句话说URL是不是在 work.links_crawled)。: y: d, z, O' j6 e- ]! Z
2。我们没有排队抓取的URL(网址换句话说,是不是在work.links_to_crawl )。
$ o2 r$ y2 G* m3 j1 I/*5 s: X0 f# Q i) Q# E0 d9 E) L2 f3 J" g
* only add urls that we have not already crawled
9 ?" Y; P/ t4 n0 H4 Y- b# {4 g* or that are not queued up to be crawled
2 A5 ]8 f& v9 U: V8 R*
" g A( b9 _6 ?/ ^0 \! o*/( w: Z" j) w" y# `( T# {
proc sql noprint;3 K: C/ L; @1 W) x
create table work._append as
& {. w$ ]/ N7 i2 ~6 s pselect url
; G" X% U2 k |: g- |3 `from work._urls
0 [% R# a" d% \7 ]0 R' n3 Ewhere url not in (select url from work.links_crawled)
+ _ x; D( j2 i @4 F+ Z% W; _and url not in (select url from work.links_to_crawl);
4 \2 N& I6 d3 z: {- ^3 W9 wquit;2 l* \4 }/ X+ K
然后,我们添加网址还没有被抓取,而不是已经排队 work.links_to_crawl数据集。
9 e: T6 X! P1 t3 i. H# P( I- J/* add new links */
! U0 ^3 Q7 E# h s0 E; V& Lproc append base=work.links_to_crawl data=work._append force;% y' {- K5 h$ k' ?* P: M0 r
run;/ n* b3 `& R# e7 S, H8 W
此时的代码循环回到开始劫掠 work.links_to_crawl数据集的下一个URL。
2 d: [2 O. P1 E7 ~+ p! [ |
zan
|