克隆选择算法-python实现

CSAIndividual.py

 1 import numpy as np
 2 import ObjFunction
 3
 4
 5 class CSAIndividual:
 6
 7     ‘‘‘
 8     individual of clone selection algorithm
 9     ‘‘‘
10
11     def __init__(self,  vardim, bound):
12         ‘‘‘
13         vardim: dimension of variables
14         bound: boundaries of variables
15         ‘‘‘
16         self.vardim = vardim
17         self.bound = bound
18         self.fitness = 0.
19         self.trials = 0
20
21     def generate(self):
22         ‘‘‘
23         generate a random chromsome for clone selection algorithm
24         ‘‘‘
25         len = self.vardim
26         rnd = np.random.random(size=len)
27         self.chrom = np.zeros(len)
28         for i in xrange(0, len):
29             self.chrom[i] = self.bound[0, i] + 30                 (self.bound[1, i] - self.bound[0, i]) * rnd[i]
31
32     def calculateFitness(self):
33         ‘‘‘
34         calculate the fitness of the chromsome
35         ‘‘‘
36         self.fitness = ObjFunction.GrieFunc(
37             self.vardim, self.chrom, self.bound)

CSA.py

  1 import numpy as np
  2 from CSAIndividual import CSAIndividual
  3 import random
  4 import copy
  5 import matplotlib.pyplot as plt
  6
  7
  8 class CloneSelectionAlgorithm:
  9
 10     ‘‘‘
 11     the class for clone selection algorithm
 12     ‘‘‘
 13
 14     def __init__(self, sizepop, vardim, bound, MAXGEN, params):
 15         ‘‘‘
 16         sizepop: population sizepop
 17         vardim: dimension of variables
 18         bound: boundaries of variables
 19         MAXGEN: termination condition
 20         params: algorithm required parameters, it is a list which is consisting of[beta, pm, alpha_max, alpha_min]
 21         ‘‘‘
 22         self.sizepop = sizepop
 23         self.vardim = vardim
 24         self.bound = bound
 25         self.MAXGEN = MAXGEN
 26         self.params = params
 27         self.population = []
 28         self.fitness = np.zeros(self.sizepop)
 29         self.trace = np.zeros((self.MAXGEN, 2))
 30
 31     def initialize(self):
 32         ‘‘‘
 33         initialize the population of ba
 34         ‘‘‘
 35         for i in xrange(0, self.sizepop):
 36             ind = CSAIndividual(self.vardim, self.bound)
 37             ind.generate()
 38             self.population.append(ind)
 39
 40     def evaluation(self):
 41         ‘‘‘
 42         evaluation the fitness of the population
 43         ‘‘‘
 44         for i in xrange(0, self.sizepop):
 45             self.population[i].calculateFitness()
 46             self.fitness[i] = self.population[i].fitness
 47
 48     def solve(self):
 49         ‘‘‘
 50         the evolution process of the clone selection algorithm
 51         ‘‘‘
 52         self.t = 0
 53         self.initialize()
 54         self.evaluation()
 55         bestIndex = np.argmax(self.fitness)
 56         self.best = copy.deepcopy(self.population[bestIndex])
 57         while self.t < self.MAXGEN:
 58             self.t += 1
 59             tmpPop = self.reproduction()
 60             tmpPop = self.mutation(tmpPop)
 61             self.selection(tmpPop)
 62             best = np.max(self.fitness)
 63             bestIndex = np.argmax(self.fitness)
 64             if best > self.best.fitness:
 65                 self.best = copy.deepcopy(self.population[bestIndex])
 66
 67             self.avefitness = np.mean(self.fitness)
 68             self.trace[self.t - 1, 0] =  69                 (1 - self.best.fitness) / self.best.fitness
 70             self.trace[self.t - 1, 1] = (1 - self.avefitness) / self.avefitness
 71             print("Generation %d: optimal function value is: %f; average function value is %f" % (
 72                 self.t, self.trace[self.t - 1, 0], self.trace[self.t - 1, 1]))
 73         print("Optimal function value is: %f; " % self.trace[self.t - 1, 0])
 74         print "Optimal solution is:"
 75         print self.best.chrom
 76         self.printResult()
 77
 78     def reproduction(self):
 79         ‘‘‘
 80         reproduction
 81         ‘‘‘
 82         tmpPop = []
 83         for i in xrange(0, self.sizepop):
 84             nc = int(self.params[1] * self.sizepop)
 85             for j in xrange(0, nc):
 86                 ind = copy.deepcopy(self.population[i])
 87                 tmpPop.append(ind)
 88         return tmpPop
 89
 90     def mutation(self, tmpPop):
 91         ‘‘‘
 92         hypermutation
 93         ‘‘‘
 94         for i in xrange(0, self.sizepop):
 95             nc = int(self.params[1] * self.sizepop)
 96             for j in xrange(1, nc):
 97                 rnd = np.random.random(1)
 98                 if rnd < self.params[0]:
 99                     # alpha = self.params[
100                     #     2] + self.t * (self.params[3] - self.params[2]) / self.MAXGEN
101                     delta = self.params[2] + self.t * 102                         (self.params[3] - self.params[3]) / self.MAXGEN
103                     tmpPop[i * nc + j].chrom += np.random.normal(0.0, delta, self.vardim)
104                     # tmpPop[i * nc + j].chrom += alpha * np.random.random(
105                     # self.vardim) * (self.best.chrom - tmpPop[i * nc +
106                     # j].chrom)
107                     for k in xrange(0, self.vardim):
108                         if tmpPop[i * nc + j].chrom[k] < self.bound[0, k]:
109                             tmpPop[i * nc + j].chrom[k] = self.bound[0, k]
110                         if tmpPop[i * nc + j].chrom[k] > self.bound[1, k]:
111                             tmpPop[i * nc + j].chrom[k] = self.bound[1, k]
112                     tmpPop[i * nc + j].calculateFitness()
113         return tmpPop
114
115     def selection(self, tmpPop):
116         ‘‘‘
117         re-selection
118         ‘‘‘
119         for i in xrange(0, self.sizepop):
120             nc = int(self.params[1] * self.sizepop)
121             best = 0.0
122             bestIndex = -1
123             for j in xrange(0, nc):
124                 if tmpPop[i * nc + j].fitness > best:
125                     best = tmpPop[i * nc + j].fitness
126                     bestIndex = i * nc + j
127             if self.fitness[i] < best:
128                 self.population[i] = copy.deepcopy(tmpPop[bestIndex])
129                 self.fitness[i] = best
130
131     def printResult(self):
132         ‘‘‘
133         plot the result of clone selection algorithm
134         ‘‘‘
135         x = np.arange(0, self.MAXGEN)
136         y1 = self.trace[:, 0]
137         y2 = self.trace[:, 1]
138         plt.plot(x, y1, ‘r‘, label=‘optimal value‘)
139         plt.plot(x, y2, ‘g‘, label=‘average value‘)
140         plt.xlabel("Iteration")
141         plt.ylabel("function value")
142         plt.title("Clone selection algorithm for function optimization")
143         plt.legend()
144         plt.show()

运行程序:

1 if __name__ == "__main__":
2
3     bound = np.tile([[-600], [600]], 25)
4     csa = CSA(50, 25, bound, 500, [0.3, 0.4, 5, 0.1])
5     csa.solve()

ObjFunction见简单遗传算法-python实现

时间: 2024-10-05 15:23:58

克隆选择算法-python实现的相关文章

【机器学习算法-python实现】采样算法的简单实现

1.背景 采样算法是机器学习中比较常用,也比较容易实现的(出去分层采样).常用的采样算法有以下几种(来自百度知道): 一.单纯随机抽样(simple random sampling) 将调查总体全部观察单位编号,再用抽签法或随机数字表随机抽取部分观察单位组成样本. 优点:操作简单,均数.率及相应的标准误计算简单. 缺点:总体较大时,难以一一编号. 二.系统抽样(systematic sampling) 又称机械抽样.等距抽样,即先将总体的观察单位按某一顺序号分成n个部分,再从第一部分随机抽取第k

【机器学习算法-python实现】矩阵去噪以及归一化

1.背景 项目需要,打算用python实现矩阵的去噪和归一化.用numpy这些数学库没有找到很理想的函数,所以一怒之下自己用标准库写了一个去噪和归一化的算法,效率有点低,不过还能用,大家如果有需要可以拿去. (1)去噪算法:根据概率论的知识,如果一组数据服从正态分布,我们设均值是n,方差是v,那么对于每个离散数值有百分之九十二以上的概率会在(n-3*v,n+3*v)的区间内.所以这里的去噪功能主要是实现如果超出了区间就将这个值标记为区间所能容忍最大值. (2)归一化:找到输入队列最大值max,最

【机器学习算法-python实现】协同过滤(cf)的三种方法实现

(转载请注明出处:http://blog.csdn.net/buptgshengod) 1.背景 协同过滤(collaborative filtering)是推荐系统常用的一种方法.cf的主要思想就是找出物品相似度高的归为一类进行推荐.cf又分为icf和ucf.icf指的是item collaborative filtering,是将商品进行分析推荐.同理ucf的u指的是user,他是找出知趣相似的人,进行推荐.通常来讲icf的准确率可能会高一些,通过这次参加天猫大数据比赛,我觉得只有在数据量非

【机器学习算法-python实现】svm支持向量机(2)—简化版SMO算法

(转载请注明出处:http://blog.csdn.net/buptgshengod) 1.背景知识 通过上一节我们通过引入拉格朗日乗子得到支持向量机变形公式.详细变法可以参考这位大神的博客--地址 参照拉格朗日公式F(x1,x2,...λ)=f(x1,x2,...)-λg(x1,x2...).我们把上面的式子变型为: 约束条件就变成了: 下面就根据最小优化算法SMO(Sequential Minimal Optimization).找出距离分隔面最近的点,也就是支持向量集.如下图的蓝色点所示.

【机器学习算法-python实现】K-means无监督学习实现分类

1.背景 无监督学习的定义就不多说了,不懂得可以google.因为项目需要,需要进行无监督的分类学习. K-means里面的K指的是将数据分成的份数,基本上用的就是算距离的方法. 大致的思路就是给定一个矩阵,假设K的值是2,也就是分成两个部分,那么我们首先确定两个质心.一开始是找矩阵每一列的最大值max,最小值min,算出range=max-min,然后设质心就是min+range*random.之后在逐渐递归跟进,其实要想明白还是要跟一遍代码,自己每一步都输出一下看看跟自己想象的是否一样. (

FP_Growth算法python实现

FP_Growth算法是关联分析中比较优秀的一种方法,它通过构造FP_Tree,将整个事务数据库映射到树结构上,从而大大减少了频繁扫描数据库的时间. FP_Growth算法主要分成两个步骤,第一步是构造FP-Tree,第二步是从FP-Tree中提取频繁项集. 更多关联分析和FP_Growth的介绍以及伪代码请见:什么是关联分析.FP-Growth算法的介绍. 本文主要目的是介绍python实现FP_Growth算法的代码. FP_Growth项目目录有四个文件: >FP_Growth ? __i

FP-Growth算法python实现之 FP-tree的构造

本文主要介绍FP-tree的构造算法.上接:FP-Growth算法python实现. tree_builder.py代码: #coding=utf-8 import tree_building class Tree_builder(object): """tree_builder类. 作用:根据事务数据集进行数据准备及构造树.""" def __init__(self, routines, min_sup=-1, counts=[], heade

FP-Growth算法python实现之频繁项集的挖掘

本文主要介绍从FP-tree中提取频繁项集的算法. 更多请见:FP-Growth算法的介绍.FP_Growth算法python实现.FP-Growth算法python实现之 FP-tree的构造. tree_miner.py代码: #coding=utf-8 import tree_builder import copy class Tree_miner(object): """tree_miner类. 作用:对Tree进行频繁项集的挖掘"""

【机器学习算法-python实现】PCA 主成分分析、降维

1.背景 PCA(Principal Component Analysis),PAC的作用主要是降低数据集的维度,然后挑选出主要的特征. PCA的主要思想是移动坐标轴,找到方差最大的方向上的特征值,什么叫方差最大的方向的特征值呢.就像下图中的曲线B,一样,它的覆盖范围最广. 基本步骤:(1)首先计算数据集的协方差矩阵 (2)计算协方差矩阵的特征值和特征向量 (3)保留最重要的n个特征 what is 协方差矩阵: 定义是变量向量减去均值向量,然后乘以变量向量减去均值向量的转置再求均值.例如x是变