基于Singer映射和参数位置自适应更新机制的改进被囊群算法

news/2024/7/3 1:47:40

文章目录

  • 一、理论基础
    • 1、被囊群算法
    • 2、基于Singer映射和参数位置自适应更新机制的改进被囊群算法
      • (1)基于Singer映射的种群初始化
      • (2)参数位置自适应更新
      • (3)ITSA流程
  • 二、仿真实验与结果分析
  • 三、参考文献

一、理论基础

1、被囊群算法

请参考这里。

2、基于Singer映射和参数位置自适应更新机制的改进被囊群算法

传统TSA存在全局勘探和局部开采能力不平衡的问题,文献[1]从种群初始化、参数位置更新2个方面对TSA进行改进。

(1)基于Singer映射的种群初始化

初始种群在解空间中分布越均匀,算法搜索到最优值的概率越大。混沌映射策略因其遍历性、非重复性等特点被广泛用于群智能优化算法的初始种群生成中。因此,为增强被囊群在整个解空间的分布性,引入Singer映射代替TSA中的随机搜索策略对被囊群进行初始化。Singer映射的迭代公式为 φ n + 1 = μ ( 7.86 φ n − 23.31 φ n 2 ) + μ ( 28.75 φ n − 13.302875 φ n 4 ) (1) \varphi_{n+1}=\mu\left(7.86\varphi_n-23.31\varphi_n^2\right)+\mu\left(28.75\varphi_n-13.302875\varphi_n^4\right)\tag{1} φn+1=μ(7.86φn23.31φn2)+μ(28.75φn13.302875φn4)(1)其中, φ n \varphi_n φn φ n + 1 \varphi_{n+1} φn+1分别为第 n n n次、第 n + 1 n+1 n+1次混沌值; μ \mu μ为常数, μ ∈ ( 0.9 , 1.08 ) \mu\in(0.9,1.08) μ(0.9,1.08),本文取 μ = 1.07 \mu=1.07 μ=1.07
为验证Singer映射生成的初始被囊群相对于随机搜索和其他常见混沌映射具有更好的性能,对随机搜索、Tent映射、Gauss映射和Singer映射生成的初始被囊群位置进行对比,如图1所示。
在这里插入图片描述

(a) 随机搜索

在这里插入图片描述
(b) Tent映射

在这里插入图片描述
(c) Gauss映射

在这里插入图片描述
(d) Singer映射

图1 不同方法生成的初始被囊群位置

由图1可知,随机搜索、Tent映射和Gauss映射生成的初始被囊群在解空间中的分布更均匀,但Singe映射更有助于提高算法的收敛性能,加快算法在迭代初期的搜索速度。当初始被囊群在空间中的分布均匀时,在各个位置上的被囊搜索最优解均保持相同的迭代速度;而采用Singer映射生成的初始被囊群进行搜索时,由于在上边界分布的被囊个体更多,算法在初始迭代时很快便能对上边界进行遍历,能较快降低解空间大小,对后期算法求解最优值效果更佳。

(2)参数位置自适应更新

为提高TSA性能,提出了一种新的参数位置自适应更新策略来平衡TSA的全局探索和局部开发能力。
对于被囊个体位置,由式(19)可知,当生成的
为增强算法搜索全局最优值的能力,增大当前被囊搜索步长以增强算法逃逸极值能力,计算如下: L ( n ∗ ) = { U + 2 c 3 A B , r ≥ 0.5 U − A B ,    r < 0.5 (2) \boldsymbol L(n^*)=\begin{dcases}\boldsymbol U+2c_3\boldsymbol{AB},\quad r\geq0.5\\[2ex]\boldsymbol U-\boldsymbol{AB},\quad\quad\,\, r<0.5\end{dcases}\tag{2} L(n)=U+2c3AB,r0.5UAB,r<0.5(2)引入一种自适应权重因子代替随机参数 c 1 c_1 c1 ω ( n ) = cos ⁡ ( n ( π N / 2 ) ) − e − α n (3) \omega(n)=\cos\left(n\left(\frac{\pi}{N/2}\right)\right)-e^{-\alpha n}\tag{3} ω(n)=cos(n(N/2π))eαn(3)其中, ω ( n ) \omega(n) ω(n)为自适应权重因子; N N N为最大迭代次数; α \alpha α为控制自适应权值因子衰减和上升的参数,本文取0.25。
因此,新的被囊群群体行为可重新定义为 L ( n + 1 ) = L ( n ) + L ( n + 1 ) 2 + ω ( n ) (4) \boldsymbol L(n+1)=\frac{\boldsymbol L(n)+\boldsymbol L(n+1)}{2+\omega(n)}\tag{4} L(n+1)=2+ω(n)L(n)+L(n+1)(4)为验证自适应权重因子相对于随机参数对算法具有更好的性能,分别利用随机参数和自适应权重因子生成的函数值如图2所示。可看出利用随机参数生成的函数值具有不确定性,对算法性能无显著影响;自适应权重因子对算法性能的影响可分为2个阶段,在自适应权重因子非线性递减阶段,TSA先探索再开发,在自适应权重因子非线性递增阶段,TSA先开发再探索。因此,采用自适应权重因子代替随机参数能更好地体现算法全局勘探和局部开采能力。
在这里插入图片描述

(a) 随机参数

在这里插入图片描述
(b) 自适应权重因子

图2 基于随机参数和自适应权重因子生成的函数值

(3)ITSA流程

ITSA流程图如图3所示。
在这里插入图片描述

图3 ITSA算法流程图

二、仿真实验与结果分析

为验证ITSA具有更好的寻优和收敛性能,与GWO、WOA、ASO、TSA进行对比分析,以文献[1]中的F1~F5(30维)为例,实验设置种群规模为30,最大迭代次数为1000,每种算法独立运算30次,结果显示如下:
在这里插入图片描述在这里插入图片描述在这里插入图片描述在这里插入图片描述在这里插入图片描述

函数:F1
ASO:最优值: 2.1909e-21, 最差值: 1.9811e-18, 平均值: 1.2334e-19, 标准差: 3.6324e-19
GWO:最优值: 2.3926e-62, 最差值: 3.824e-58, 平均值: 6.2721e-59, 标准差: 1.0473e-58
WOA:最优值: 1.9789e-166, 最差值: 2.3194e-147, 平均值: 7.7353e-149, 标准差: 4.2346e-148
TSA:最优值: 4.3499e-50, 最差值: 5.2899e-46, 平均值: 3.7367e-47, 标准差: 1.0512e-46
ITSA:最优值: 5.5882e-246, 最差值: 1.2735e-225, 平均值: 4.245e-227, 标准差: 0
函数:F2
ASO:最优值: 4.1508e-10, 最差值: 7.3483e-08, 平均值: 5.9582e-09, 标准差: 1.3486e-08
GWO:最优值: 2.6852e-36, 最差值: 9.9811e-34, 平均值: 1.2049e-34, 标准差: 1.918e-34
WOA:最优值: 8.0676e-116, 最差值: 8.166e-102, 平均值: 2.8428e-103, 标准差: 1.4894e-102
TSA:最优值: 4.8e-31, 最差值: 1.1136e-27, 平均值: 1.2378e-28, 标准差: 2.3895e-28
ITSA:最优值: 6.0182e-128, 最差值: 2.2206e-124, 平均值: 2.3148e-125, 标准差: 5.4361e-125
函数:F3
ASO:最优值: 198.7427, 最差值: 1417.4589, 平均值: 706.8371, 标准差: 334.1198
GWO:最优值: 2.6032e-20, 最差值: 6.0879e-14, 平均值: 3.7144e-15, 标准差: 1.1431e-14
WOA:最优值: 1697.3788, 最差值: 47348.2675, 平均值: 23695.4051, 标准差: 10876.6702
TSA:最优值: 6.2893e-22, 最差值: 7.1619e-10, 平均值: 2.6761e-11, 标准差: 1.3056e-10
ITSA:最优值: 1.7559e-219, 最差值: 1.232e-211, 平均值: 9.1929e-213, 标准差: 0
函数:F4
ASO:最优值: 0.64463, 最差值: 1.836, 平均值: 1.1781, 标准差: 0.31224
GWO:最优值: 0, 最差值: 0.018629, 平均值: 0.0021607, 标准差: 0.0056849
WOA:最优值: 0, 最差值: 0, 平均值: 0, 标准差: 0
TSA:最优值: 0, 最差值: 0.020567, 平均值: 0.0034481, 标准差: 0.007065
ITSA:最优值: 0, 最差值: 0, 平均值: 0, 标准差: 0
函数:F5
ASO:最优值: 2.4696e-11, 最差值: 1.6741e-09, 平均值: 2.0379e-10, 标准差: 3.2149e-10
GWO:最优值: 7.9936e-15, 最差值: 2.2204e-14, 平均值: 1.5454e-14, 标准差: 3.7726e-15
WOA:最优值: 8.8818e-16, 最差值: 7.9936e-15, 平均值: 3.9672e-15, 标准差: 2.234e-15
TSA:最优值: 7.9936e-15, 最差值: 3.9418, 平均值: 1.7561, 标准差: 1.5775
ITSA:最优值: 4.4409e-15, 最差值: 4.4409e-15, 平均值: 4.4409e-15, 标准差: 0

实验结果表明:ITSA具有更好的收敛精度、收敛速度和稳定性能。

代码下载地址:https://download.csdn.net/download/weixin_43821559/86064927

三、参考文献

[1] 李在友, 孙艳斌, 王晓光, 等. 基于改进被囊群算法的露天矿无人驾驶卡车运输调度[J]. 工矿自动化, 2022, 48(6): 87-94+127.


http://www.niftyadmin.cn/n/2132491.html

相关文章

Elasticsearch 分布式特性

前言 本文的主要内容&#xff1a; 分布式介绍及cerebro构建集群副本与分片集群状态与故障转移文档分布式存储脑裂问题shard详解分布式介绍及cerebro ES支持集群模式&#xff0c;是一个分布式系统&#xff0c;其好处主要有两个&#xff1a; 增大系统容量&#xff0c;如内存、磁盘…

基于金豺优化算法的函数寻优算法

文章目录一、理论基础1、金豺优化算法&#xff08;1&#xff09;搜索空间公式&#xff08;2&#xff09;探索阶段或搜索猎物&#xff08;3&#xff09;开发阶段或围捕和突袭猎物&#xff08;4&#xff09;从探索转向开发2、GJO伪代码二、仿真实验与结果分析三、参考文献一、理论…

基于多策略的改进花授粉算法

文章目录一、理论基础1、基本花授粉算法2、基于多策略改进的花授粉算法&#xff08;1&#xff09;新全局搜索策略&#xff08;2&#xff09;引入精英变异策略的局部搜索策略&#xff08;3&#xff09;对劣解的改进策略&#xff08;4&#xff09;自适应调整转换概率二、实验仿真…

人工智能并非万能,智慧停车怕难解决城市停车难题?

根据公安部交管局公布的数据显示&#xff1a;截止2017年底&#xff0c;中国机动车保有量达3.10亿辆&#xff0c;其中汽车占2.17亿辆&#xff0c;随着汽车数量的增加&#xff0c;停车位缺口已超过5000万个。以车主一年3000元的停车花费测算&#xff0c;停车收费的静态市场空间已…

基于白鲸优化算法的函数寻优算法

文章目录一、理论基础1、白鲸优化算法&#xff08;1&#xff09;探索阶段&#xff08;2&#xff09;开发阶段&#xff08;3&#xff09;鲸落2、BWO算法流程图二、仿真实验与结果分析三、参考文献一、理论基础 1、白鲸优化算法 文献[1]从白鲸的行为出发&#xff0c;提出了一种…

(Ajax)axios源码简析(一)——axios入口文件

传送门&#xff1a; axios源码简析&#xff08;一&#xff09;——axios入口文件axios源码简析&#xff08;二&#xff09;——Axios类与拦截器axios源码简析&#xff08;三&#xff09;——请求与取消请求axios简介 axios是时下最流行的http请求库&#xff0c;可以用于浏览器环…

基于引力搜索机制的花朵授粉算法

文章目录一、理论基础1、花朵授粉算法2、基于引力搜索策略的花朵授粉算法2.1 引力搜索算法2.2 引力机制的FPA2.3 算法的实现二、仿真实验与结果分析三、参考文献一、理论基础 1、花朵授粉算法 请参考这里。 2、基于引力搜索策略的花朵授粉算法 2.1 引力搜索算法 请参考这里…

融合振幅随机补偿与步长演变机制的改进原子搜索优化算法

文章目录一、理论基础1、原子搜索优化算法(ASO)2、改进的原子搜索优化算法(IASO)&#xff08;1&#xff09;初始原子种群的混沌优化&#xff08;2&#xff09;振幅函数随机参数优化&#xff08;3&#xff09;步长演变搜索机制&#xff08;4&#xff09;IASO算法的实现二、仿真实…