ujn_charles
发表于 2007-4-17 17:40
PSO粒子群优化算法 (转)
<div align="center" twffan="done" style="SCROLLBAR-FACE-COLOR: scrollbar; SCROLLBAR-HIGHLIGHT-COLOR: buttonhighlight; SCROLLBAR-SHADOW-COLOR: buttonshadow; SCROLLBAR-3DLIGHT-COLOR: threedlightshadow; SCROLLBAR-ARROW-COLOR: buttontext; SCROLLBAR-TRACK-COLOR: threedlightshadow; SCROLLBAR-DARKSHADOW-COLOR: threeddarkshadow;"><div align="center" twffan="done" style="SCROLLBAR-FACE-COLOR: scrollbar; SCROLLBAR-HIGHLIGHT-COLOR: buttonhighlight; SCROLLBAR-SHADOW-COLOR: buttonshadow; SCROLLBAR-3DLIGHT-COLOR: threedlightshadow; SCROLLBAR-ARROW-COLOR: buttontext; SCROLLBAR-TRACK-COLOR: threedlightshadow; SCROLLBAR-DARKSHADOW-COLOR: threeddarkshadow;"><p align="left">1. 引言<br/>粒子群优化算法(PSO)是一种进化计算技术(evolutionary computation),有Eberhart博士和kennedy博士发明。源于对鸟群捕食的行为研究 </p><p align="left">PSO同遗传算法类似,是一种基于叠代的优化工具。系统初始化为一组随机解,通过叠代搜寻最优值。但是并没有遗传算法用的交叉(crossover)以及变异(mutation)。而是粒子在解空间追随最优的粒子进行搜索。详细的步骤以后的章节介绍</p><p align="left">同遗传算法比较,PSO的优势在于简单容易实现并且没有许多参数需要调整。目前已广泛应用于函数优化,神经网络训练,模糊系统控制以及其他遗传算法的应用领域</p><p align="left"><br/>2. 背景: 人工生命</p><p align="left">"人工生命"是来研究具有某些生命基本特征的人工系统. 人工生命包括两方面的内容</p><p align="left">1. 研究如何利用计算技术研究生物现象<br/>2. 研究如何利用生物技术研究计算问题</p><p align="left">我们现在关注的是第二部分的内容. 现在已经有很多源于生物现象的计算技巧. 例如, 人工神经网络是简化的大脑模型. 遗传算法是模拟基因进化过程的.</p><p align="left">现在我们讨论另一种生物系统- 社会系统. 更确切的是, 在由简单个体组成的群落与环境以及个体之间的互动行为. 也可称做"群智能"(swarm intelligence). 这些模拟系统利用局部信息从而可能产生不可预测的群体行为</p><p align="left">例如floys 和 boids, 他们都用来模拟鱼群和鸟群的运动规律, 主要用于计算机视觉和计算机辅助设计.</p><p align="left">在计算智能(computational intelligence)领域有两种基于群智能的算法. 蚁群算法(ant colony optimization)和粒子群算法(particle swarm optimization). 前者是对蚂蚁群落食物采集过程的模拟. 已经成功运用在很多离散优化问题上.</p><p align="left">粒子群优化算法(PSO) 也是起源对简单社会系统的模拟. 最初设想是模拟鸟群觅食的过程. 但后来发现PSO是一种很好的优化工具. </p><p align="left">3. 算法介绍</p><p align="left">如前所述,PSO模拟鸟群的捕食行为。设想这样一个场景:一群鸟在随机搜索食物。在这个区域里只有一块食物。所有的鸟都不知道食物在那里。但是他们知道当前的位置离食物还有多远。那么找到食物的最优策略是什么呢。最简单有效的就是搜寻目前离食物最近的鸟的周围区域。</p><p align="left">PSO从这种模型中得到启示并用于解决优化问题。PSO中,每个优化问题的解都是搜索空间中的一只鸟。我们称之为“粒子”。所有的例子都有一个由被优化的函数决定的适应值(fitness value),每个粒子还有一个速度决定他们飞翔的方向和距离。然后粒子们就追随当前的最优粒子在解空间中搜索</p><p align="left">PSO 初始化为一群随机粒子(随机解)。然后通过叠代找到最优解。在每一次叠代中,粒子通过跟踪两个"极值"来更新自己。第一个就是粒子本身所找到的最优解。这个解叫做个体极值pBest. 另一个极值是整个种群目前找到的最优解。这个极值是全局极值gBest。另外也可以不用整个种群而只是用其中一部分最为粒子的邻居,那么在所有邻居中的极值就是局部极值。</p><p align="left">在找到这两个最优值时, 粒子根据如下的公式来更新自己的速度和新的位置</p><p align="left">v[] = v[] + c1 * rand() * (pbest[] - present[]) + c2 * rand() * (gbest[] - present[]) (a)<br/>present[] = persent[] + v[] (b)</p><p align="left">v[] 是粒子的速度, persent[] 是当前粒子的位置. pbest[] and gbest[] 如前定义 rand () 是介于(0, 1)之间的随机数. c1, c2 是学习因子. 通常 c1 = c2 = 2. </p><p align="left">程序的伪代码如下</p><p align="left">For each particle <br/>____Initialize particle<br/>END</p><p align="left">Do<br/>____For each particle <br/>________Calculate fitness value<br/>________If the fitness value is better than the best fitness value (pBest) in history<br/>____________set current value as the new pBest<br/>____End</p><p align="left">____Choose the particle with the best fitness value of all the particles as the gBest<br/>____For each particle <br/>________Calculate particle velocity according equation (a)<br/>________Update particle position according equation (b)<br/>____End <br/>While maximum iterations or minimum error criteria is not attained</p><p align="left">在每一维粒子的速度都会被限制在一个最大速度Vmax,如果某一维更新后的速度超过用户设定的Vmax,那么这一维的速度就被限定为Vmax</p><p align="left">4. 遗传算法和 PSO 的比较</p><p align="left">大多数演化计算技术都是用同样的过程<br/>1. 种群随机初始化<br/>2. 对种群内的每一个个体计算适应值(fitness value).适应值与最优解的距离直接有关<br/>3. 种群根据适应值进行复制 <br/>4. 如果终止条件满足的话,就停止,否则转步骤2</p><p align="left">从以上步骤,我们可以看到PSO和GA有很多共同之处。两者都随机初始化种群,而且都使用适应值来评价系统,而且都根据适应值来进行一定的随机搜索。两个系统都不是保证一定找到最优解</p><p align="left">但是,PSO 没有遗传操作如交叉(crossover)和变异(mutation). 而是根据自己的速度来决定搜索。粒子还有一个重要的特点,就是有记忆。</p><p align="left">与遗传算法比较, PSO 的信息共享机制是很不同的. 在遗传算法中,染色体(chromosomes) 互相共享信息,所以整个种群的移动是比较均匀的向最优区域移动. 在PSO中, 只有gBest (or lBest) 给出信息给其他的粒子, 这是单向的信息流动. 整个搜索更新过程是跟随当前最优解的过程. 与遗传算法比较, 在大多数的情况下,所有的粒子可能更快的收敛于最优解</p><p align="left">5. 人工神经网络 和 PSO</p><p align="left">人工神经网络(ANN)是模拟大脑分析过程的简单数学模型,反向转播算法是最流行的神经网络训练算法。进来也有很多研究开始利用演化计算(evolutionary computation)技术来研究人工神经网络的各个方面。</p><p align="left">演化计算可以用来研究神经网络的三个方面:网络连接权重,网络结构(网络拓扑结构,传递函数),网络学习算法。</p><p align="left">不过大多数这方面的工作都集中在网络连接权重,和网络拓扑结构上。在GA中,网络权重和/或拓扑结构一般编码为染色体(Chromosome),适应函数(fitness function)的选择一般根据研究目的确定。例如在分类问题中,错误分类的比率可以用来作为适应值</p><p align="left">演化计算的优势在于可以处理一些传统方法不能处理的例子例如不可导的节点传递函数或者没有梯度信息存在。但是缺点在于:在某些问题上性能并不是特别好。2. 网络权重的编码而且遗传算子的选择有时比较麻烦</p><p align="left">最近已经有一些利用PSO来代替反向传播算法来训练神经网络的论文。研究表明PSO 是一种很有潜力的神经网络算法。PSO速度比较快而且可以得到比较好的结果。而且还没有遗传算法碰到的问题</p><p align="left">这里用一个简单的例子说明PSO训练神经网络的过程。这个例子使用分类问题的基准函数(Benchmark function)IRIS数据集。(Iris 是一种鸢尾属植物) 在数据记录中,每组数据包含Iris花的四种属性:萼片长度,萼片宽度,花瓣长度,和花瓣宽度,三种不同的花各有50组数据. 这样总共有150组数据或模式。</p><p align="left">我 们用3层的神经网络来做分类。现在有四个输入和三个输出。所以神经网络的输入层有4个节点,输出层有3个节点我们也可以动态调节隐含层节点的数目,不过这 里我们假定隐含层有6个节点。我们也可以训练神经网络中其他的参数。不过这里我们只是来确定网络权重。粒子就表示神经网络的一组权重,应该是4*6+ 6*3=42个参数。权重的范围设定为[-100,100] (这只是一个例子,在实际情况中可能需要试验调整).在完成编码以后,我们需要确定适应函数。对于分类问题,我们把所有的数据送入神经网络,网络的权重有 粒子的参数决定。然后记录所有的错误分类的数目作为那个粒子的适应值。现在我们就利用PSO来训练神经网络来获得尽可能低的错误分类数目。PSO本身并没 有很多的参数需要调整。所以在实验中只需要调整隐含层的节点数目和权重的范围以取得较好的分类效果。 </p><p align="left">6. PSO的参数设置</p><p align="left">从上面的例子我们可以看到应用PSO解决优化问题的过程中有两个重要的步骤: 问题解的编码和适应度函数<br/>PSO的一个优势就是采用实数编码, 不需要像遗传算法一样是二进制编码(或者采用针对实数的遗传操作.例如对于问题 f(x) = x1^2 + x2^2+x3^2 求解, 粒子可以直接编码为 (x1, x2, x3), 而适应度函数就是f(x). 接着我们就可以利用前面的过程去寻优.这个寻优过程是一个叠代过程, 中止条件一般为设置为达到最大循环数或者最小错误</p><p align="left">PSO中并没有许多需要调节的参数,下面列出了这些参数以及经验设置</p><p align="left">粒子数: 一般取 20 – 40. 其实对于大部分的问题10个粒子已经足够可以取得好的结果, 不过对于比较难的问题或者特定类别的问题, 粒子数可以取到100 或 200</p><p align="left">粒子的长度: 这是由优化问题决定, 就是问题解的长度</p><p align="left">粒子的范围: 由优化问题决定,每一维可是设定不同的范围</p><p align="left">Vmax: 最大速度,决定粒子在一个循环中最大的移动距离,通常设定为粒子的范围宽度,例如上面的例子里,粒子 (x1, x2, x3) x1 属于 [-10, 10], 那么 Vmax 的大小就是 20</p><p align="left">学习因子: c1 和 c2 通常等于 2. 不过在文献中也有其他的取值. 但是一般 c1 等于 c2 并且范围在0和4之间</p><p align="left">中止条件: 最大循环数以及最小错误要求. 例如, 在上面的神经网络训练例子中, 最小错误可以设定为1个错误分类, 最大循环设定为2000, 这个中止条件由具体的问题确定. </p><p align="left">全局PSO和局部PSO: 我们介绍了两种版本的粒子群优化算法: 全局版和局部版. 前者速度快不过有时会陷入局部最优. 后者收敛速度慢一点不过很难陷入局部最优. 在实际应用中, 可以先用全局PSO找到大致的结果,再有局部PSO进行搜索.</p><p align="left">另外的一个参数是惯性权重, 由Shi 和Eberhart提出, 有兴趣的可以参考他们1998年的论文(题目: A modified particle swarm optimizer)</p><div align="left" twffan="done" style="SCROLLBAR-FACE-COLOR: scrollbar; SCROLLBAR-HIGHLIGHT-COLOR: buttonhighlight; SCROLLBAR-SHADOW-COLOR: buttonshadow; SCROLLBAR-3DLIGHT-COLOR: threedlightshadow; SCROLLBAR-ARROW-COLOR: buttontext; SCROLLBAR-TRACK-COLOR: threedlightshadow; SCROLLBAR-DARKSHADOW-COLOR: threeddarkshadow;">7. Online Resources of PSO </div><p align="left">The development of PSO is still ongoing. And there are still many unknown areas in PSO research such as the mathematical validation of particle swarm theory.</p><p align="left">One can find much information from the internet. Following are some information you can get online:</p><p align="left">http://www.particleswarm.net lots of information about Particle Swarms and, particularly, Particle Swarm Optimization. lots of Particle Swarm Links.</p><p align="left">http://icdweb.cc.purdue.edu/~hux/PSO.shtml lists an updated bibliography of particle swarm optimization and some online paper links</p><p align="left">http://www.researchindex.com/ you can search particle swarm related papers and references. </p><p align="left">References:</p><p align="left">http://www.engr.iupui.edu/~eberhart/<br/>http://users.erols.com/cathyk/jimk.html<br/>http://www.alife.org<br/>http://www.aridolan.com<br/>http://www.red3d.com/cwr/boids/<br/>http://iridia.ulb.ac.be/~mdorigo/ACO/ACO.html<br/>http://www.engr.iupui.edu/~shi/Coference/psopap4.html<br/>Kennedy, J. and Eberhart, R. C. Particle swarm optimization. Proc. IEEE int'l conf. on neural networks Vol. IV, pp. 1942-1948. IEEE service center, Piscataway, NJ, 1995.<br/>Eberhart, R. C. and Kennedy, J. A new optimizer using particle swarm theory. Proceedings of the sixth international symposium on micro machine and human science pp. 39-43. IEEE service center, Piscataway, NJ, Nagoya, Japan, 1995.<br/>Eberhart, R. C. and Shi, Y. Particle swarm optimization: developments, applications and resources. Proc. congress on evolutionary computation 2001 IEEE service center, Piscataway, NJ., Seoul, Korea., 2001.<br/>Eberhart, R. C. and Shi, Y. Evolving artificial neural networks. Proc. 1998 Int'l Conf. on neural networks and brain pp. PL5-PL13. Beijing, P. R. China, 1998.<br/>Eberhart, R. C. and Shi, Y. Comparison between genetic algorithms and particle swarm optimization. Evolutionary programming vii: proc. 7th ann. conf. on evolutionary conf., Springer-Verlag, Berlin, San Diego, CA., 1998.<br/>Shi, Y. and Eberhart, R. C. Parameter selection in particle swarm optimization. Evolutionary Programming VII: Proc. EP 98 pp. 591-600. Springer-Verlag, New York, 1998.<br/>Shi, Y. and Eberhart, R. C. A modified particle swarm optimizer. Proceedings of the IEEE International Conference on Evolutionary Computation pp. 69-73. IEEE Press, Piscataway, NJ, 1998</p></div></div><br/>
kalvin
发表于 2009-12-26 13:58
good(本文来自于数学中国社区,网址为http://www.madio.net/mcm)
crg511
发表于 2010-1-26 13:32
觉得很难应用哦。。。。。。。。。。。。。。。。。
liunengwu
发表于 2010-4-17 10:35
看看再顶一下~才能下多一个,嘻嘻
Rekcahpu
发表于 2010-12-16 20:15
老兄 百度百科?
yejunz
发表于 2011-7-13 16:02
vb vb vb 好好啊啊了克格勃
albertzmh
发表于 2011-8-22 00:13
理解 再理解
甲光向日
发表于 2011-8-27 09:55
常来论坛逛,好处多
xiaocongfei
发表于 2011-8-27 09:57
卡看。、。。
kong415627458
发表于 2011-8-27 09:59
{:soso_e100:}{:soso_e100:}