✅作者简介:热爱科研的算法开发者,Python、Matlab项目可交流、沟通、学习。
🍎个人主页:算法工程师的学习日志
前两天分享了粒子群优化算法的原理和Matlab原理实现,本文分享一下Python代码下的PSO实现以及Matlab下的粒子群函数。
前文参看:粒子群优化算法(PSO)
以Ras函数(Rastrigin’s Function)为目标函数,求其在x1,x2∈[-5,5]上的最小值。这个函数对模拟退火、进化计算等算法具有很强的欺骗性,因为它有非常多的局部最小值点和局部最大值点,很容易使算法陷入局部最优,而不能得到全局最优解。如下图所示,该函数只在(0,0)处存在全局最小值0。
Python代码实现
import numpy as np
import matplotlib.pyplot as plt
# 目标函数定义
def ras(x):
y = 20 + x[0] ** 2 + x[1] ** 2 - 10 * (np.cos(2 * np.pi * x[0]) + np.cos(2 * np.pi * x[1]))
return y
# 参数初始化
w = 1.0
c1 = 1.49445
c2 = 1.49445
maxgen = 200 # 进化次数
sizepop = 20 # 种群规模
# 粒子速度和位置的范围
Vmax = 1
Vmin = -1
popmax = 5
popmin = -5
# 产生初始粒子和速度
pop = 5 * np.random.uniform(-1, 1, (2, sizepop))
v = np.random.uniform(-1, 1, (2, sizepop))
fitness = ras(pop) # 计算适应度
i = np.argmin(fitness) # 找最好的个体
gbest = pop # 记录个体最优位置
zbest = pop[:, i] # 记录群体最优位置
fitnessgbest = fitness # 个体最佳适应度值
fitnesszbest = fitness[i] # 全局最佳适应度值
# 迭代寻优
t = 0
record = np.zeros(maxgen)
while t Vmax] = Vmax # 限制速度
v[v popmax] = popmax # 限制位置
pop[pop 0.8: # 如果这个数落在变异概率区间内,则进行变异处理
k = np.random.randint(0,2) # 在[0,2)之间随机选一个整数
pop[:,k] = np.random.random() # 在选定的位置进行变异
'''
# 计算适应度值
fitness = ras(pop)
# 个体最优位置更新
index = fitness
结果为
[0.99699579 0.00148844]
可以知道求解的点非最小值,算法陷入了局部最小值。
删除自适应变异部分的注释,运行后结果如下,可以看出收敛到全局最优解。
[0.00022989 0.00014612]
Matlab有个自带的粒子群优化函数particleswarm也可以使用。本例的代码如下:
y = @(x) 20 + x(1).^2 + x(2).^2 - 10*(cos(2*pi*x(1))+cos(2*pi*x(2)));
rng default
options = optimoptions('particleswarm','SwarmSize',200,'HybridFcn',@fmincon,'MaxIterations',200, 'Display','iter');
lb = [-5 -5]; % 这是变量的下限
ub = [5 5]; % 这是变量的上限
[x,fval,exitflag,output] = particleswarm(y,length(lb),lb,ub,options);
结果如下
particleswarm详细资料参考:
服务器托管,北京服务器托管,服务器租用 http://www.fwqtg.net
机房租用,北京机房租用,IDC机房托管, http://www.e1idc.net