- 在线时间
- 344 小时
- 最后登录
- 2015-7-18
- 注册时间
- 2011-4-7
- 听众数
- 4
- 收听数
- 0
- 能力
- 0 分
- 体力
- 6451 点
- 威望
- 0 点
- 阅读权限
- 100
- 积分
- 2306
- 相册
- 0
- 日志
- 0
- 记录
- 1
- 帖子
- 721
- 主题
- 4
- 精华
- 0
- 分享
- 0
- 好友
- 52
升级   10.2% TA的每日心情 | 开心 2015-7-3 16:05 |
|---|
签到天数: 689 天 [LV.9]以坛为家II
 群组: 2013年数学建模国赛备 群组: 中南民族大学 群组: 学术交流A 群组: 数学建摸协会 群组: 第三届数模基础实训 |
神经网络讲什么内容,讲计算模型,计算原理,工作原理,用途,实现方法。9 T: E" F* P" J6 P* s5 X8 _ @$ L
1什么是神经网络6 Y. F1 r2 h% |# M8 Z* {6 j! ]! z
1. 1神经网络与计算机9 u" u5 }. m( Q2 h2 O
计算机:; f* O# ]. z0 x. L6 ]
四代计算机$ u! ]( }4 S6 h* ~, V
电子管,晶体管,集成电路,大规模集成电路。智能计算机是第5代,智能计算机不容易。速度提高快,智能不见怎么样。9 C9 D# R3 v* h
计算机特点
% Z+ V1 B) y- H' v) y二进制,5部分组成模块,存储程序。结构看:核心部件是中央处理器。专门存储部件,输入输出部件。4 \- {; W6 q; ^
神经网络发展史
1 |" y3 Q) V( w W( R4 }充满传奇色彩,讲故事。每次讲课都讲历史,过去那些出色成绩的故事,做出出色成绩的人的故事。+ m- Z2 u, ?5 K; Q
(1) 神经网络来自人类对自己的研究,背景性研究起始于19世纪末,20世纪初。生物学家要搞清楚人或生命智能的道理。想办法解释自然现象,物理学。
4 B0 n1 e4 i% `* ?- c(2) 现代方式的神经网络研究神经网络研究,1940年,两个科学家:Warren McCulloch, Walter Pitts, 给出人工神经网络模型。现在人们使用的就是他们抽象出的神经元模型。3 E) h1 E, k2 G# l. }8 _9 z
(3) hebb规则,1949,生物神经元学习机制。神经元传递信息的原则,互相作用的原则。两个神经原同时兴奋,则两者的连接强度增强。
1 K- d1 ]. C }6 G(4) 1958年,rosenblatt真正造了一个神经网络,号称perceptron,感知器。1 d4 J& j5 p' N4 V& j' @# b
(5) 1960年,Bernard Widrow, Ted Hoff给出自适应线性神经网络,利用了widrow-hoff学习规则,应用于消除回声。真正应用,用于电话消除回声,很简单的元件。
% E; R: b' w' L8 Y(6) 1969年,minsky与**t的书批评了感知器与自适应线性神经网络,打击了神经网络发展。从此神经网络发展陷入低谷。这个时代是计算机发展飞速,同时带有很多神秘感的时代。很多东西未能搞清楚,很有用,很吸引人的时代。大家都来研究计算机的人工智能是很正常的。Minsky的书中举了一个例子,说神经网络不是万能的。/ Y0 |! U# E1 n( ^/ z
(7) 科学发展需要冷静,1972年,Teuvo Kohonen与James Anderson发明自组织神经网络,Stephen Grossberg观察到自组织神经网络的许多新性质。有很多科学家在逆境中坚持神经网络研究,取得好成绩。我有时感觉在不是很热的环境下更能做出进展来。所以没有必要追求时髦。
; }# B7 C3 t7 u) s" ~# s+ v8 P7 E( R(8) 1960-1980计算机飞速发展,神经网络研究发展平静。计算机的研究发展遇到很多困难。1980年以后,神经网络又一次飞速发展,有点戏剧性。6 F. S* V; ?, f. J4 X+ R" D
(9) 1982年Hopfield用统计机制解释神经网络,使人们对神经网络的认识前进了一大步。1986年BP学习算法,解决了minsky与**t的问题。David Rumelhart与James McClelland给出。Hopfield神经网络能解TSP问题,实现了一个神经网络解6个点的TSP问题。很神,后来实践证明也不能求精确解。7 b9 Z# G R* L! ~4 I
(10) 1986年以后,大量的神经网络研究文章和研究项目,发现了很多神经网络的新性质和新应用。人工神经网络一定很有前途,现在缺乏真正的应用,用起来不方便。每个国家都投入很多资金研究神经网络。成果很多,神经网络也就真正成长为一门成熟的科学了。
# X- `9 q7 X$ q* d3 d: q" | 神经网络特点
1 I3 B" o8 p4 u2 ]未必二进制,没有明确的存储器,计算,控制分工模糊,没有控制程序,性能好,用起来不方便。不好控制,不好用。
6 b2 D0 O0 K/ n: `1. 2神经网络应用
8 k# h% g8 W7 J* P6 ^0 G% ^领域:
! Z I* s! @, E% i空间技术:飞行器控制系统,飞行器元件仿真,飞行器元件错误探测器。举个例子,飞行器在飞行中判断什么是云彩,有没有风,风力多大。将飞行器飞行的环境数据采集以后训练神经网络,由神经网络控制飞行器前进速度,方向。
+ X C6 t; O9 N+ DAutomotive:交通控制自动指示系统,红绿灯控制,摄像头照相看路上的车有多少,横穿马路人有多少,由此决定红灯还是绿灯,说着容易作着难。! w% b; G2 ]. b7 ~
银行:信贷申请评估器。$ h- ~+ y, o& t$ t: t
语音:语音识别,语音压缩,声调识别。现在主要的应用。; S" s, u& B& c) G6 l! k+ O4 y
机器人,Defense,Electronics, ebtertainment,Fiancial, Insurance, Manufacturing, Medical, Securities, Transportation。很多领域都用,想用就能用。
7 ~& a. I( U R( J1. 3生物基础
X: u4 \* h0 k+ n , T4 m5 l' `7 |( I
神经纤维,传递信号,数字信号,二进制数。( A2 W1 \8 k0 M4 G
神经突触,数模转换。数字信号转换为模拟信号。+ U) J* ~) X, \
神经信号,二进制信号。3 k, h3 v6 Q5 i- G
时空整合,将一个时段内的各个模拟信息相加就成了。我开始看焦李成的书,看不懂,看公式,认为相加就是时空整合。/ E4 j4 A# E$ X7 c! X
第二章:神经元模型与神经网络结构' w0 y6 [2 o) H% y h
本章介绍人工神经网络的数学模型,从神经元开始。7 n+ O& T- e p C
1多输入神经元模型,
e7 L9 w. k! S6 T
8 ~! W+ Y7 t9 i7 r+ |! i( L/ Ny=f()
# b5 o3 M+ u- g# M& [& v$ d= =WTX-
3 q2 S8 W6 b; K+ f hW=(w1,w2,…,wn)T
& N- f9 Q' h1 \& P0 h% _8 g$ dX=(x1,x2,…,xn)T。
5 @: J* n, B6 S! M; h) T解释:
# N( f7 N$ _9 w s m7 g(1)神经元有两种状态,兴奋/抑制。; ?- [2 O/ @! ^7 S/ q
(2)wi的含义:神经突触的作用,的含义,阈值。兴奋抑制。
& j: m4 c; _" R8 C4 h4 F(3)时空整合,求和。数模转换后相加。什么是时空整合?笼统,不知道什么意思,暂且理解为求和。$ ~& |9 r; p) a1 z! }" r
作用函数:' q8 T M! C% m3 ~
(1) hard limit
% l- j& R. _3 ?" \! M7 p$ Q. c% vf()= ,= 6 H) L+ D3 B- k: `
1 Y" O9 O' u" Q( a3 H# ~5 V
(2) symmetric hard limit3 f! z- G9 p# d e6 @$ @
f()= ,= + m) H. n* L+ w9 B# l
$ y8 p: c- J' i3 r" j/ E1 R(3) linear
) B2 a; i7 ^$ ~f()=,= ,线性
% r" ?- a( T% @6 F+ L
. ]6 {' S0 n! @) R+ d1 ]% Q(4) saturating linear,
: T3 f; o G3 i- mf()= ,= # f8 V4 E& |& I* c- f# J8 k
4 A- x- r' e/ u8 c- j; w(5) symmetric saturating linear4 x$ y4 C( i5 Y
f()= ,=
- |' A, t5 K0 M1 _! S* ~; a; h / T$ \# |) }& Q+ ` ~0 o) }
(6) log-sigmoid
% U) C! S; p1 U" r( \3 ] Kf()= ,= ) P* C. I) m5 u7 q/ I' ^# f
(7) hyperbolic tangent sigmoid
: E8 j" \+ R9 X, _- [: _0 yf()= ,=
& Y. j. D, m; _$ @/ {; |5 L(8) positive linear5 }# e$ C7 @" V2 d" \# s$ B0 {
f()= ,= - D# P( C- q1 k+ u/ l5 f: s
2神经网络结构
8 V9 O0 `% B8 d1 Q' d(1) 前馈网络
W w$ r8 A1 o0 W" L W . O; _* i0 x4 i! F
(2) 反馈网络9 K. {7 ~2 C/ ?) \6 P7 @/ |. F
9 D/ ~0 \# O; ]3 U' L, I) e6 ^5 k(3) Recurrent神经网络
+ B# D( B( U2 c' d5 C. P$ {0 Q& L7 ?
9 i7 E5 S' {* [. ~' \(4) 单层前馈神经网络
( G* Z+ R$ d+ o: R* ~- I问题:: f, M+ H3 k, u- S( t: g* }7 P; g3 V
(1)每层有多少个神经元,每个神经元采用什么传递函数,每个连接的权值是多少?
6 p( x$ [& ]% ?7 O. [(2)针对问题,确定神经网络,即为学习。0 X) V3 t, g5 m1 J* ]# v7 e
(3)用作记忆,具有联想能力的记忆函数,象人一样,识别字母,a, b, c, d, e, f, g, …, x, y, z.
+ g4 I/ W0 z! l) P* k* H还有其他种类的神经网络,等讲到时再说。
: V% v) B( K! P3神经网络学习规则! d, Q4 F* o( ~/ d4 T0 s
自己看,以后慢慢理解。
, _5 \+ ~/ k- z3 s4应用实例
3 `% x h6 o7 w3 c. N( E/ E & E$ m/ O. a" ^% i( ^& f8 I
解采用hard-limit函数神经元0 I; A8 |$ g& `, G$ [& A* I. v
8 T5 w/ V' k0 h: ~. p
$ f& [, m: G$ w) A+ P+ a. S) j |
zan
|