​遗传算法优化神经网络实现数据预测

article/2025/9/23 8:58:05

作者 | 李秋键 责编 | 寇雪芹

头图 | 下载于视觉中国

出品 | AI科技大本营(ID:rgznai100)

引言

随着人工智能和大数据的发展,大量实验和数据处理等流程对算法的要求也随之变得越来越高,故综合以及灵活运用不同的算法以实现更高效的算法将会是一个很重要的突破点。

传统的优化算法一般都是基于梯度信息,但一般这种方法都是用在约束条件和目标函数可以求导的时候,而且容易陷入局部最优解的循环。但进化算法与之不同,其中最为典型的就是遗传算法,遗传进化算法模拟了自然选择的过程,它用单个个体来代表待求解问题的最优解,将初始化好的大量不同个体组成种群。按照初始化种群、变异、交叉、选择等流程,通过模拟自然界中的优胜劣汰的法则,引导种群因子不断进化,从而使得种群中的个体逐步接近问题的最优解。

与传统优化算法比较而言,遗传算法是一种在群体基础上搜索最优化个体的算法,具有鲁棒性强、搜索效率高、不易陷入局部最优等特点。因此,将他与神经网络算法相结合在一起,能够更好地利用神经网络去解决问题。

近几年来,大量学者研究发展也提出了很多新的优化算法,如邱宁佳提出的多头注意力评论量化的聚类优化推荐算法,他利用BiGRU网络的特征时序性与CNN网络的强局部特征有效性联合提取评论深度特征,并利用多头注意力机制的多维语义特征筛选对评论进行深度语义特征挖掘;然后经过多层感知机非线性转换进行多特征融合完成准确量化;最后使用PCA对差分进化变异选择进行优化完成相似用户聚类优化操作,寻找相似用户完成项目推荐,当然还有赵今越提出的垃圾分类收运路径问题的新型混合蚁群算法求解, 改进灰狼算法优化LSSVM的交通流量预测, 杨文强提出的求解仓储作业优化问题的多物种协同进化算法等等。

系统模型

模型的搭建,按照神经网络搭建和遗传算法优化的顺序进行。

2.1 神经网络的搭建

(1)数据集阐述:

本文所使用的测试数据集,是为二输入三输出的数据集,数据如图1可见:

图1 数据集图片

如图1可见,其中参数l和t为输入的影响参数x,Tmax、D和Tavg为输出y。

首先要读入数据:

 1K.set_image_data_format("channels_last")2data_tr=pd.read_table('ALL-BPTrain.txt')3x_1= data_tr.iloc[:, 0]4x_2= data_tr.iloc[:, 1]5y_1= data_tr.iloc[:, 2]6y_2= data_tr.iloc[:, 3]7y_3= data_tr.iloc[:, 4]8data_tr=pd.read_table('predict input.txt')9x_input1= data_tr.iloc[:, 0]
10x_input2= data_tr.iloc[:, 1]
11y_output1= data_tr.iloc[:, 2]
12y_output2= data_tr.iloc[:, 3]
13y_output3= data_tr.iloc[:, 4]

(2)网络结构的搭建:

搭建的神经网络如下图,图2可见:

图2 网络结构图

其中设定kernel_initializer为RandomNormal来初始化权重,即定义为正态分布初始化。

代码如下:

 1# 建立模型2inputs_01 = Input((1,), name='input_1')3inputs_02 = Input((1,), name='input_2')4merge = Concatenate()([inputs_01, inputs_02])5hide_1  = Dense(units=4, use_bias=True, kernel_initializer='RandomNormal', bias_initializer='zeros')(merge)6hide_1  = layers.PReLU(alpha_initializer='zeros',alpha_regularizer=None,alpha_constraint=None,shared_axes=None)(hide_1)7output_01 = Dense(units=4, use_bias=True, kernel_initializer='RandomNormal', bias_initializer='zeros')(hide_1)8output_01 = layers.PReLU(alpha_initializer="zeros",alpha_regularizer=None,alpha_constraint=None,shared_axes=None)(output_01)9output_01 = Dense(units=1, use_bias=True, kernel_initializer='RandomNormal', bias_initializer='zeros')(output_01)
10output_01 = layers.PReLU(alpha_initializer='zeros',alpha_regularizer=None,alpha_constraint=None,shared_axes=None, name='output_1')(output_01)
11output_02 = Dense(units=8, use_bias=True, kernel_initializer='RandomNormal', bias_initializer='zeros')(hide_1)
12output_02 = layers.PReLU(alpha_initializer='zeros',alpha_regularizer=None,alpha_constraint=None,shared_axes=None)(output_02)
13output_02 = Dense(units=1, use_bias=True, kernel_initializer='RandomNormal', bias_initializer='zeros')(output_02)
14output_02 = layers.PReLU(alpha_initializer='zeros',alpha_regularizer=None,alpha_constraint=None,shared_axes=None, name='output_2')(output_02)
15output_03 = Dense(units=6, use_bias=True, kernel_initializer='RandomNormal', bias_initializer='zeros')(hide_1)
16output_03 = layers.PReLU(alpha_initializer='zeros',alpha_regularizer=None,alpha_constraint=None,shared_axes=None)(output_03)
17output_03 = Dense(units=1, use_bias=True, kernel_initializer='RandomNormal', bias_initializer='zeros')(output_03)
18output_03 = layers.PReLU(alpha_initializer='zeros',alpha_regularizer=None,alpha_constraint=None,shared_axes=None, name='output_3')(output_03)
19model = Model(inputs=[inputs_01, inputs_02], outputs=[output_01, output_02 , output_03])

(3)模型训练保存:

模型优化器选择使用Adam优化器,Adam 算法是一种对随机目标函数执行一阶梯度优化的算法,该算法基于适应性低阶矩估计。Adam 算法很容易实现,并且有很高的计算效率和较低的内存需求。Adam 算法梯度的对角缩放(diagonal rescaling)具有不变性,因此很适合求解带有大规模数据或参数的问题。该算法同样适用于解决大噪声和稀疏梯度的非稳态问题。

 1Adam=optimizers.Adam(lr=0.001, beta_1=0.9, beta_2=0.999, epsilon=1e-08)2model.compile(optimizer=Adam,3              loss={'output_1': 'mean_squared_error',4                    'output_2': 'mean_squared_error',5                    'output_3': 'mean_squared_error'},6              loss_weights={'output_1': 1.0, 'output_2': 1.0, 'output_3': 1.0},7              metrics={'output_1': 'mean_absolute_percentage_error',8                       'output_2': 'mean_absolute_percentage_error',9                       'output_3': 'mean_absolute_percentage_error'})
10filepath = "ALL-weights.hdf5"
11checkpoint = ModelCheckpoint(filepath, monitor='val_loss', verbose=1, save_best_only=True, mode='min', period=1)
12callbacks_list = [checkpoint]
13history = model.fit({'input_1': x_1, 'input_2': x_2}, {'output_1': y_1, 'output_2': y_2, 'output_3': y_3},
14                    batch_size=2,
15                    callbacks=callbacks_list,
16                    validation_split=0.2,

最终模型的运行效果如下图可见:

图3 神经网络运行过程图

2.2 遗传算法优化神经网络:

在定义完神经网络结构之后,需要确定遗传算法的优化参数的数目,进而确定遗传算法个体的编码长度。因为神经网络的初始权值和阈值是遗传算法优化的参数,只要网络的结构已知,权值和阈值的个数也就已知。种群中的每个个体都包含了一个网络所有权值和阈值,个体通过适应度函数计算个体适应度值,遗传算法通过选择、交叉和变异操作找到最优适应度值对应的个体。神经网络预测用遗传算法得到最优个体对网络进行初始权值和阈值的赋值,网络经训练后预测样本输出。神经网络的权值和阈值一般是通过初始化为【-0.5,0.5】区间的随机数,这个初始化参数对网络训练的影响很大,但是又无法准确获得,对于相同的初始权重值和阈值,网络的训练结果是一样的,引入遗传算法就是为了优化出最优的初始权值和阈值。遗传算法优化神经网络流程如下可见:

图4 遗传算法优化过程

定义配置并处理的转换和突变个人基因组。部分代码如下图:

 1def denseParam(self, i):2    key = self.dense_layer_shape[i]3    return self.layer_params[key]4def mutate(self, genome, num_mutations):5    num_mutations = np.random.choice(num_mutations)6    index=num_mutations7    try:8        genome[index] = np.random.choice(list(range(len(self.optimizer))))9    except:
10        pass
11    return genome

定义遗传算法优化算法的运行等:

 1  def set_objective(self, metric):2        if metric == 'acc':3            metric = 'accuracy'4        if metric not in ['loss', 'accuracy']:5            raise ValueError(('Invalid metric name {} provided - should be'6                              '"accuracy" or "loss"').format(metric))7        self._metric = metric8        self._objective = "max" if self._metric == "accuracy" else "min"9        self._metric_index = 1 if self._metric == 'loss' else -1
10        self._metric_op = METRIC_OPS[self._objective == 'max']
11        self._metric_objective = METRIC_OBJECTIVES[self._objective == 'max']
12    def run(self, num_generations, pop_size, epochs, fitness=None,
13            metric='accuracy'):
14        self.set_objective(metric)
15        members = self._generate_random_population(pop_size)
16        pop = self._evaluate_population(members,
17                                        epochs,
18                                        fitness,
19                                        0,
20                                        num_generations)
21        for gen in range(1, num_generations):
22            members = self._reproduce(pop, gen)
23            pop = self._evaluate_population(members,
24                                            epochs,
25                                            fitness,
26                                            gen,
27                                            num_generations)
28        return load_model('best-model.h5')

程序运行效果图如下图可见:

图中generation为遗传算法的迭代,model为神经网络的迭代。

图5 遗传算法优化结果

算法原理

3.1 神经网络

神经网络是一种模仿生物神经网络(动物的中枢神经系统,特别是大脑)的结构和功能的数学模型或计算模型,用于对函数进行估计或近似。神经网络由大量的人工神经元联结进行计算。大多数情况下人工神经网络能在外界信息的基础上改变内部结构,是一种自适应系统。现代神经网络是一种非线性统计性数据建模工具。典型的神经网络具有以下三个部分:

结构:其指定了网络中的变量和它们的拓扑关系。例如,神经网络中的变量可以是神经元连接的权重和神经元的激励值。

激励函数:大部分神经网络模型具有一个短时间尺度的动力学规则,来定义神经元如何根据其他神经元的活动来改变自己的激励值。一般激励函数依赖于网络中的权重(即该网络的参数)。

学习规则:学习规则指定了网络中的权重如何随着时间推进而调整。这一般被看做是一种长时间尺度的动力学规则。一般情况下,学习规则依赖于神经元的激励值。它也可能依赖于监督者提供的目标值和当前权重的值。

3.2 遗传算法

遗传算法是模拟达尔文生物进化论的自然选择和遗传学机理的生物进化过程的计算模型,是一种通过模拟自然进化过程搜索最优解的方法。

其主要特点是直接对结构对象进行操作,不存在求导和函数连续性的限定;具有内在的隐并行性和更好的全局寻优能力;采用概率化的寻优方法,不需要确定的规则就能自动获取和指导优化的搜索空间,自适应地调整搜索方向。

遗传算法以一种群体中的所有个体为对象,并利用随机化技术指导对一个被编码的参数空间进行高效搜索。其中,选择、交叉和变异构成了遗传算法的遗传操作;参数编码、初始群体的设定、适应度函数的设计、遗传操作设计、控制参数设定五个要素组成了遗传算法的核心内容。

仿真结果

通过运行demo.py,会生成模型参数保存文件ALL-weights.hdf5,最优模型文件best-model.h5等。

图6 仿真结果生成文件

程序运行结果如图7可见:

图7 运行结果图

更多精彩推荐
☞30 周岁的 Python,“虐”我 20 年☞疫情期间网络攻击花样翻新,全年 81748 起安全事件背后暗藏规律☞用数据分析《你好,李焕英》“斐妈”爆红的真相☞最低售价17999元,华为发布新一代折叠屏手机Mate X2
点分享点收藏点点赞点在看

http://chatgpt.dhexx.cn/article/wVQtLZSf.shtml

相关文章

Python实现GWO智能灰狼优化算法优化支持向量机回归模型(svr算法)项目实战

说明:这是一个机器学习实战项目(附带数据代码文档视频讲解),如需数据代码文档视频讲解可以直接到文章最后获取。 1.项目背景 灰狼优化算法(GWO),由澳大利亚格里菲斯大学学者 Mirjalili 等人于2014年提出来的一种群智能…

基于遗传算法GA算法优化BP神经网络(Python代码实现)

一、 概述 BP-GA算法的设计︰基于遗传算法的BP神经网络算法(以下简称BP-GA)就是在BP神经网络的学习过程中,将权重和阀值描述为染色体,并选取适宜的适应函数,然后进行GA迭代,直到某种意义上的收敛.与普通BP学习算法相比,算法 BP一GA的优势在于可以处理一些传统方法不能处理的例子…

Python实现WOA智能鲸鱼优化算法优化支持向量机分类模型(SVC算法)项目实战

说明:这是一个机器学习实战项目(附带数据代码文档视频讲解),如需数据代码文档视频讲解可以直接到文章最后获取。 1.项目背景 鲸鱼优化算法 (whale optimization algorithm,WOA)是 2016 年由澳大利亚格里菲斯大学的Mirjalili 等提出…

基于灰狼算法优化支持向量机的数据分类算法及其MATLAB实现-附代码

基于灰狼算法优化支持向量机的数据分类算法及其MATLAB实现-附代码 文章目录 基于灰狼算法优化支持向量机的数据分类算法及其MATLAB实现-附代码1 GWO-SVM 模型1.1 灰狼优化器GWO1.2 支持向量机分类SVM 2 基于GWO-SVM 的分类算法2.1 优化变量与目标函数的选取2.2 GWO-SVM 建模步骤…

基于麻雀算法优化LSTM回归预测(matlab)

基于麻雀算法优化LSTM回归预测(matlab) 概述: 麻雀算法构思lstm原理麻雀优化lstm原理代码及结果展示 第一部分 麻雀算法构思 众所周知,麻雀是常见的留鸟而且非常喜欢群居。这种生物是非常聪明的,有很强的记忆力&am…

鲸鱼优化算法优化BP神经网络回归预测的算法设计-附代码

鲸鱼优化算法WOA优化BP神经网络回归预测模型以及MATLAB代码实现 文章目录 鲸鱼优化算法WOA优化BP神经网络回归预测模型以及MATLAB代码实现1. 算法描述2. 鲸鱼优化算法优化BP神经网络预测的步骤与流程图设计3. WOA-BP预测算法的参数设置4. 运行结果5. MATLAB代码 1. 算法描述 鲸…

遗传算法优化BP神经网络

遗传算法原理 遗传算法背景不作介绍。遗传算法作为一种并行随机搜索最优化算法,将自然界的优胜劣汰的生物进化原理引入优化参数形成的编码串联群体中,按照所选的适应度函数并通过遗传中的选择,交叉和变异对个体进行筛选,使适应度…

基于蝙蝠算法优化BP神经网络的数据分类算法及其MATLAB实现-附代码

基于蝙蝠算法优化BP神经网络的数据分类算法及其MATLAB实现-附代码 文章目录 基于蝙蝠算法优化BP神经网络的数据分类算法及其MATLAB实现-附代码1 蝙蝠算法与BP神经网络分类模型1.1 蝙蝠算法BA1.2 one-hot编码 2 基于蝙蝠算法BA优化的BP神经网络分类算法2.1 优化变量与目标函数的…

粒子群算法优化PID参数实例

粒子群优化算法(PSO)以及Matlab实现 1、粒子群算法 粒子群算法是一种智能优化算法。关于智能,个人理解,不过是在枚举法的基础上加上了一定的寻优机制。试想一下枚举法,假设问题的解空间很小,比如一个函数 …

R-CNN算法优化策略

** R-CNN算法优化策略 ** 1,两阶段检测的进阶模型 首先进行数据处理,然后输入backbone得到特征图,然后进入RPN中提取候选区域roi,然后再ROI Align提取特争,然后送入BBox Head进行进一步的回归和分类。 主要介绍方面…

优化算法优化支持向量机(SVM)进行分类

0、前言 采用优化算法优化SVM参数进行分类。包含GWO、WOA、AFSA、AO、BAT、GTO、HBA、MPA、POA、SSA、SMA、jSSA、HHO、EO、AOA、SO等优化算法对SVM的改进。 2、实现步骤 SVM 为典型的核方法,首先选定核函数,确定待优化的核参数;其次&#x…

粒子群算法优化SVM的核参数

更新一下:以下代码是优化高斯核函数的惩罚因子和g参数的。因为在svmtrain函数中没有给-v赋值,所以是默认值2,若要优化其他核函数,可以修改svmtrain中的-v参数的值以及增加其他参数的粒子更新代码。此代码的目标函数是svmtrain三折…

粒子群算法优化的OTSU图像分割

文章目录 1 基本概念2 算法实现3 算法优化举例4 算法构成要素分析5算法优缺点分析6 算法图像分割中应用 1 基本概念 粒子群优化算法(PSO):它是进化算法的一种,它源于鸟群捕食的行为研究,基本思想是通过群体中个体之间…

【机器学习】K-Means算法优化

K-Means算法优化 学习目标1. Canopy算法配合初始聚类1.1 Canopy算法配合初始聚类实现流程1.2 Canopy算法的优缺点 2. K-means3. 二分k-means4. k-medoids(k-中心聚类算法)5. Kernel k-means6. ISODATA7. Mini Batch K-Means8. 小结 学习目标 知道K-mean…

鲸鱼算法优化PID参数优化附matlab代码

第一 章 鲸鱼优化算法 算法介绍参考文献:Seyedali Mirjalili,Andrew Lewis. The Whale Optimization Algorithm[J]. Advances in Engineering Software,2016,95. 第二章 鲸鱼优化PID参数 首先我们需要建立一个直流电机PID控制系统,WOA算法通过将系统上的误差作为…

麻雀优化算法 优化XGBoost的参数 python代码

文章目录 麻雀优化算法麻雀优化算法的改进加入Ten混沌序列 XGBoost原理麻雀优化算法优化XGBoost参数范围部分代码画图 优化结果评价结果和运行时间适应度曲线训练集结果测试集结果 麻雀优化算法 麻雀优化算法是2020年提出来的,该算法利用麻雀的角色分工和协作机制高…

KNN算法优化

在之前所写的KNN算法python实现里,KNN对k的选取很敏感,因为它给所有的近邻分配相同权重,无论距离测试样本有多远。为了降低该敏感性,可以使用加权KNN,给更近的近邻分配更大的权重,给较远的样本权重相应减少…

【常见的优化算法介绍】

常见的优化算法介绍 1. 批量梯度下降算法(batch gradient descent BGD) 每次迭代都需要把所有样本都送入,这样的好处是每次迭代都顾及了全部的样本,做的是全局最优化,但是有可能达到局部最优。 2. 随机梯度下降算法(…

常用优化算法介绍

作者:Walker 在机器学习的世界中,通常我们会发现有很多问题并没有最优的解,或是要计算出最优的解要花费很大的计算量,面对这类问题一般的做法是利用迭代的思想尽可能的逼近问题的最优解。我们把解决此类优化问题的方法叫做优化算法,优化算法本质上是一种数学方法,常见的…

十大经典算法及其优化

本文转自:https://blog.csdn.net/qq_40803710/article/details/80642703 算法概述 0.1 算法分类 十种常见排序算法可以分为两大类: 非线性时间比较类排序:通过比较来决定元素间的相对次序,由于其时间复杂度不能突破O(nlogn)&#…