粒子群优化算法-python实现

PSOIndividual.py

 1 import numpy as np
 2 import ObjFunction
 3 import copy
 4
 5
 6 class PSOIndividual:
 7
 8     ‘‘‘
 9     individual of PSO
10     ‘‘‘
11
12     def __init__(self, vardim, bound):
13         ‘‘‘
14         vardim: dimension of variables
15         bound: boundaries of variables
16         ‘‘‘
17         self.vardim = vardim
18         self.bound = bound
19         self.fitness = 0.
20
21     def generate(self):
22         ‘‘‘
23         generate a rondom chromsome
24         ‘‘‘
25         len = self.vardim
26         rnd = np.random.random(size=len)
27         self.chrom = np.zeros(len)
28         self.velocity = np.random.random(size=len)
29         for i in xrange(0, len):
30             self.chrom[i] = self.bound[0, i] + 31                 (self.bound[1, i] - self.bound[0, i]) * rnd[i]
32         self.bestPosition = np.zeros(len)
33         self.bestFitness = 0.
34
35     def calculateFitness(self):
36         ‘‘‘
37         calculate the fitness of the chromsome
38         ‘‘‘
39         self.fitness = ObjFunction.GrieFunc(
40             self.vardim, self.chrom, self.bound)

PSO.py

  1 import numpy as np
  2 from PSOIndividual import PSOIndividual
  3 import random
  4 import copy
  5 import matplotlib.pyplot as plt
  6
  7
  8 class ParticleSwarmOptimization:
  9
 10     ‘‘‘
 11     the class for Particle Swarm Optimization
 12     ‘‘‘
 13
 14     def __init__(self, sizepop, vardim, bound, MAXGEN, params):
 15         ‘‘‘
 16         sizepop: population sizepop
 17         vardim: dimension of variables
 18         bound: boundaries of variables
 19         MAXGEN: termination condition
 20         params: algorithm required parameters, it is a list which is consisting of[w, c1, c2]
 21         ‘‘‘
 22         self.sizepop = sizepop
 23         self.vardim = vardim
 24         self.bound = bound
 25         self.MAXGEN = MAXGEN
 26         self.params = params
 27         self.population = []
 28         self.fitness = np.zeros((self.sizepop, 1))
 29         self.trace = np.zeros((self.MAXGEN, 2))
 30
 31     def initialize(self):
 32         ‘‘‘
 33         initialize the population of pso
 34         ‘‘‘
 35         for i in xrange(0, self.sizepop):
 36             ind = PSOIndividual(self.vardim, self.bound)
 37             ind.generate()
 38             self.population.append(ind)
 39
 40     def evaluation(self):
 41         ‘‘‘
 42         evaluation the fitness of the population
 43         ‘‘‘
 44         for i in xrange(0, self.sizepop):
 45             self.population[i].calculateFitness()
 46             self.fitness[i] = self.population[i].fitness
 47             if self.population[i].fitness > self.population[i].bestFitness:
 48                 self.population[i].bestFitness = self.population[i].fitness
 49                 self.population[i].bestIndex = copy.deepcopy(
 50                     self.population[i].chrom)
 51
 52     def update(self):
 53         ‘‘‘
 54         update the population of pso
 55         ‘‘‘
 56         for i in xrange(0, self.sizepop):
 57             self.population[i].velocity = self.params[0] * self.population[i].velocity + self.params[1] * np.random.random(self.vardim) * (
 58                 self.population[i].bestPosition - self.population[i].chrom) + self.params[2] * np.random.random(self.vardim) * (self.best.chrom - self.population[i].chrom)
 59             self.population[i].chrom = self.population[
 60                 i].chrom + self.population[i].velocity
 61
 62     def solve(self):
 63         ‘‘‘
 64         the evolution process of the pso algorithm
 65         ‘‘‘
 66         self.t = 0
 67         self.initialize()
 68         self.evaluation()
 69         best = np.max(self.fitness)
 70         bestIndex = np.argmax(self.fitness)
 71         self.best = copy.deepcopy(self.population[bestIndex])
 72         self.avefitness = np.mean(self.fitness)
 73         self.trace[self.t, 0] = (1 - self.best.fitness) / self.best.fitness
 74         self.trace[self.t, 1] = (1 - self.avefitness) / self.avefitness
 75         print("Generation %d: optimal function value is: %f; average function value is %f" % (
 76             self.t, self.trace[self.t, 0], self.trace[self.t, 1]))
 77         while self.t < self.MAXGEN - 1:
 78             self.t += 1
 79             self.update()
 80             self.evaluation()
 81             best = np.max(self.fitness)
 82             bestIndex = np.argmax(self.fitness)
 83             if best > self.best.fitness:
 84                 self.best = copy.deepcopy(self.population[bestIndex])
 85             self.avefitness = np.mean(self.fitness)
 86             self.trace[self.t, 0] = (1 - self.best.fitness) / self.best.fitness
 87             self.trace[self.t, 1] = (1 - self.avefitness) / self.avefitness
 88             print("Generation %d: optimal function value is: %f; average function value is %f" % (
 89                 self.t, self.trace[self.t, 0], self.trace[self.t, 1]))
 90
 91         print("Optimal function value is: %f; " % self.trace[self.t, 0])
 92         print "Optimal solution is:"
 93         print self.best.chrom
 94         self.printResult()
 95
 96     def printResult(self):
 97         ‘‘‘
 98         plot the result of pso algorithm
 99         ‘‘‘
100         x = np.arange(0, self.MAXGEN)
101         y1 = self.trace[:, 0]
102         y2 = self.trace[:, 1]
103         plt.plot(x, y1, ‘r‘, label=‘optimal value‘)
104         plt.plot(x, y2, ‘g‘, label=‘average value‘)
105         plt.xlabel("Iteration")
106         plt.ylabel("function value")
107         plt.title("Particle Swarm Optimization algorithm for function optimization")
108         plt.legend()
109         plt.show()

运行程序:

1 if __name__ == "__main__":
2
3     bound = np.tile([[-600], [600]], 25)
4     pso = PSO(60, 25, bound, 1000, [0.7298, 1.4962, 1.4962])
5     pso.solve()

ObjFunction见简单遗传算法-python实现

时间: 2024-10-31 09:47:30

粒子群优化算法-python实现的相关文章

粒子群优化算法

2011-12-05 19:49:55 标签:群智能 休闲 蚁群优化 粒群优化 粒子群优化 原创作品,允许转载,转载时请务必以超链接形式标明文章 原始出处 .作者信息和本声明.否则将追究法律责任.http://nxlhero.blog.51cto.com/962631/734212 粒子群优化算法属于群智能(swarm intelligence)优化算法.群智能分两种,一种是粒群优化,另一种是蚁群优化. 群智能概念 假设你和你的朋友正在寻宝,每个人有个探测器,这个探测器可以知道宝藏到探测器的距离

量子粒子群优化算法

参考文献: 量子行为粒子群优化算法研究[D] ,孙俊,博士论文2.4节. #include <iostream> #include <math.h> #include <time.h> using namespace std; #define M 50 //群体数目50 #define N 4 //每个粒子的维数4 //测试类 class TestFunction { public: double resen(double x1,double x2,double x3,

粒子群优化算法(PSO)

1. 概念 粒子群优化算法(PSO:Particle swarm optimization) 是一种进化计算技术(evolutionary computation). 源于对鸟群捕食的行为研究.粒子群优化算法的基本思想:是通过群体中个体之间的协作和信息共享来寻找最优解. PSO的优势:在于简单容易实现并且没有许多参数的调节.目前已被广泛应用于函数优化.神经网络训练.模糊系统控制以及其他遗传算法的应用领域. 2. 算法 2.1 问题抽象 鸟被抽象为没有质量和体积的微粒(点),并延伸到N维空间,粒子

粒子群优化算法简介

好好学数学. 一.问题来源 经朋友介绍,接了一份工作,就是做PSO及其优化,恰好我导师也研究这个,刚开学也有接触,那我就接了.......赚点生活费. 欢迎大家和我联系做算法类项目,QQ:791909235,Tel:13137910179. 二.背景介绍 2.1 人工生命 人工生命:研究具有某些生命基本特征的人 工系统.包括两方面的内容: 1.研究如何利用计算技术研究生物现象: 2. 研究如何利用生物技术研究计算问题. 我们关注的是第二点.已有很多源于生物现象的计算技巧,例如神经网络和遗传算法.

粒子群优化算法(PSO)找最优解

关于粒子群优化算法(PSO)的解释:http://blog.csdn.net/myarrow/article/details/51507671 (等网上各种参考资料) 用PSO找函数极值. function [ f ] = fun( x, y ) %UNTITLED2 此处显示有关此函数的摘要 % 此处显示详细说明 a = 50; b = 50; f = (x-a)^2 + (y-b)^2; end 构造了一个二元函数,很明显,有极小值,在(50, 50). 用五个粒子去找.每个点对应的函数输出

粒子群优化算法PSO及matlab实现

算法学习自:MATLAB与机器学习教学视频 1.粒子群优化算法概述 粒子群优化(PSO, particle swarm optimization)算法是计算智能领域,除了蚁群算法,鱼群算法之外的一种群体智能的优化算法,该算法最早由Kennedy和Eberhart在1995年提出的,该算法源自对鸟类捕食问题的研究. • PSO算法首先在可行解空间中初始化一群粒子,每个粒子都代表极值优化问题的一个潜在最优解,用位置.速度和适应度值三项指标表示该粒子特征. • 粒子在解空间中运动,通过跟踪个体极值Pb

粒子群优化算法及其java实现

憋了两周终于把开题报告憋出来了,再一次证明自己不适合搞学术,哎--,花了点时间把报告中提到的粒子群算法看了看,看了些资料,用java跑起来. 算法简介 粒子群算法最先由Barnhart博士和Kennedy博士于1995 年提出,是一种源于对鸟群捕食行为的研究而发明的进化计算技术,原理是模仿鸟群寻觅食物的搜索过程,设想鸟群在一定区域搜寻食物,在不知道食物确切位置的情况下,鸟群依靠群体中个体判断距离食物的远近程度来调节飞行方向和飞行速度,最终通过群体的经验和自身记忆的智慧找到食物. 算法原理 算法描

粒子群优化算法解决场地资源布局问题-算法原型探讨

在面试的过程当中,在面试官提出问题的时候,往往会就问题本身引申出较深层次的问题.比如:你使用过with语句吗?我的回答是:with语句经常适用于对资源进行访问的场合,确保在访问的过程中不管是否发生异常都会指执行必要的清理操作,比如文件的自动关闭以及线程中锁的自动获取与释放.面试官紧接着问,那你知道为什么with语句能够使文件正确关闭,一下子把我问闷了,只能依稀记得with语句会开辟出一块独立环境来执行文件的访问,类似沙盒机制.面试官对这个答案不置可否,算是勉强通过了.所以知其然更要知其所以然.在

基本粒子群优化算法(PSO)的matlab实现

粒子群优化算法是一种模拟鸟群社会行为的群体搜素算法.它分为全局最佳粒子优化和局部最佳粒子优化,对于全局最佳PSO,或者叫做gbest PSO,每个粒子的邻域都是整个群,其算法伪代码如下: 创建并初始化一个n维的粒子群 repeat for 每个粒子i=1,2,-n do //设置个体最佳位置 if f(i)<y then y=f(i); end //设置全局最佳位置 if y<Y then Y=y; end end for 每个粒子i=1,2,-n do 用速度方程更新速度 用位置方程更新位置