时序预测 | MATLAB实现POA-CNN-BiLSTM鹈鹕算法优化卷积双向长短期记忆神经网络时间序列预测

2023-09-22 09:27:19

时序预测 | MATLAB实现POA-CNN-BiLSTM鹈鹕算法优化卷积双向长短期记忆神经网络时间序列预测

预测效果

在这里插入图片描述

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

基本介绍

MATLAB实现POA-CNN-BiLSTM鹈鹕算法优化卷积双向长短期记忆神经网络时间序列预测(完整源码和数据)
1.MATLAB实现POA-CNN-BiLSTM鹈鹕算法优化卷积双向长短期记忆神经网络时间序列预测(完整源码和数据)
2.输入输出单个变量,时间序列预测预测;
3.多指标评价,评价指标包括:R2、MAE、MSE、RMSE等,代码质量极高;
4.鹈鹕算法优化参数为:学习率,隐含层节点,正则化参数;
5.excel数据,方便替换,运行环境2020及以上。

程序设计

  • 完整源码和数据获取方式:私信博主回复MATLAB实现POA-CNN-BiLSTM鹈鹕算法优化卷积双向长短期记忆神经网络时间序列预测
%%  获取最优种群
   for j = 1 : SearchAgents
       if(fitness_new(j) < GBestF)
          GBestF = fitness_new(j);
          GBestX = X_new(j, :);
       end
   end
   
%%  更新种群和适应度值
   pop_new = X_new;
   fitness = fitness_new;

%%  更新种群 
   [fitness, index] = sort(fitness);
   for j = 1 : SearchAgents
      pop_new(j, :) = pop_new(index(j), :);
   end

%%  得到优化曲线
   curve(i) = GBestF;
   avcurve(i) = sum(curve) / length(curve);
end

%%  得到最优值
Best_pos = GBestX;
Best_score = curve(end);

%%  得到最优参数
NumOfUnits       =abs(round( Best_pos(1,3)));       % 最佳神经元个数
InitialLearnRate =  Best_pos(1,2) ;% 最佳初始学习率
L2Regularization = Best_pos(1,1); % 最佳L2正则化系数
% 
inputSize = k;
outputSize = 1;  %数据输出y的维度  
%  参数设置
opts = trainingOptions('adam', ...                    % 优化算法Adam
    'MaxEpochs', 20, ...                              % 最大训练次数
    'GradientThreshold', 1, ...                       % 梯度阈值
    'InitialLearnRate', InitialLearnRate, ...         % 初始学习率
    'LearnRateSchedule', 'piecewise', ...             % 学习率调整
    'LearnRateDropPeriod', 6, ...                     % 训练次后开始调整学习率
    'LearnRateDropFactor',0.2, ...                    % 学习率调整因子
    'L2Regularization', L2Regularization, ...         % 正则化参数
    'ExecutionEnvironment', 'gpu',...                 % 训练环境
    'Verbose', 0, ...                                 % 关闭优化过程
    'SequenceLength',1,...
    'MiniBatchSize',10,...
    'Plots', 'training-progress');                    % 画出曲线

参考资料

[1] https://blog.csdn.net/kjm13182345320/article/details/128577926?spm=1001.2014.3001.5501
[2] https://blog.csdn.net/kjm13182345320/article/details/128573597?spm=1001.2014.3001.5501

更多推荐

Git全套命令使用

日升时奋斗,日落时自省目录1、Git安装1.1、创建git本地仓库1.2、配置Git1.3、认识Git内部区分2、Git应用操作2.1、添加文件2.2、查看日志2.3、查看修改信息2.4、查看添加信息3、版本回退4、撤销修改4.1、工作区撤销4.2、已经add,但没有commit4.3、已经add,也commit4.4

ESLint+Prettier+VSCode编程规范

编程规范ESLintPrettierESLint和Prettier配合解决代码格式化问题1.在VSCode搜索Prettier插件安装2.创建prettier配置文件3.在VSCode中设置3.1找到左下角设置图标,点击设置3.2但是对VSCode而言,默认一个tab等于4个空格,而ESLint希望一个tab为两个空格

大模型微调方法

下面是一些参数高效的微调大模型方法:Adapter模型总览Adapter作为一个插件加入到大模型内,微调下游任务时,固定大模型参数,只训练Adapter参数。LoRALoRA名为大语言模型的低阶适应,最初设计用于微调LLM,但却在文生图领域大放异彩,并逐渐被人数知。其思想跟ResNet非常相似,通过在大模型旁侧添加一路

Mybatis的原理和MybaitsPlus

看完Mybatis的基本操作,我们来聊下Mybaits的底层实现原理:MyBatis是一个持久层框架,它的底层实现原理主要涉及SQL解析、参数映射、SQL执行和结果映射等方面。下面是MyBatis的基本工作原理:配置文件加载:MyBatis的配置文件(通常为mybatis-config.xml)被加载,并解析成内部的配

线性代数的本质(六)——线性空间

文章目录线性空间线性空间子空间坐标与同构线性变换与矩阵基变换与坐标变换线性空间线性空间Grant:普适的代价是抽象。仔细分析就会发现,关于向量空间的一切概念及有关定理都不依赖于向量的具体表现形式(有序数组),也不依赖于向量加法、数乘的具体计算式,而只依赖于如下两点:向量的加法与数乘运算封闭;加法、数乘满足八条运算法则。

EMMC模块电路的PCB设计建议

EMMC电路简介EMMC(EmbeddedMultiMediaCard)是MMC协会订立、主要针对手机或平板电脑等产品的内嵌式存储器标准规格。EMMC在封装中集成了一个控制器,提供标准接口并管理闪存。原理电路8位数据信号如图8-38所示,地址、控制信号如图8-39所示,电源信号如图8-40所示。RK3588EMMC控制

深入理解Java单例模式和优化多线程任务处理

目录饿汉模式懒汉模式单线程版多线程版双重检查锁定阻塞队列单例模式能保证某个类在程序中只存在唯一一份实例,而不会创建出多个实例,并提供一个全局访问点。饿汉模式类加载的同时,创建实例。classSingleton{privatestaticfinalSingletoninstance=newSingleton();//将构

《Web安全基础》07. 反序列化漏洞

web1:基本概念1.1:序列化&反序列化1.2:反序列化漏洞1.3:POP链2:PHP反序列化2.1:序列化&反序列化2.2:魔术方法3:JAVA反序列化3.1:序列化&反序列化3.2:反射机制3.3:相关资源本系列侧重方法论,各工具只是实现目标的载体。命令与工具只做简单介绍,其使用另见《安全工具录》。靶场参考:pi

利用Pycharm将python程序打包为exe文件(亲测可用)

最近做了一个关于py的小项目,对利用Pycharm将python文件打包为exe文件不是很熟悉,故学习记录之。目录一、下载pyinstaller库二、打开Pycharm进行打包(不更改图标)三、打开Pycharm进行打包(更改图标)一、下载pyinstaller库1.点击win+r,输入cmd打开控制管理器2.输入pi

[maven] scopes & 管理 & profile & 测试覆盖率

[maven]scopes&管理&profile&测试覆盖率这里将一些其他的特性和测试覆盖率(主要是jacoco)scopesmaven的scope主要就是用来限制和管理依赖的传递性,简单的说就是,每一个scope都有其对应的特性,并且会决定依赖包在打包和运行时是否会被使用这里主要谈论的差别是compileclassp

Secrets of RLHF in Large Language Models Part I: PPO

本文是LLM系列文章,针对《SecretsofRLHFinLargeLanguageModelsPartI:PPO》的翻译。大型语言模型中RLHF的秘密(上):PPO摘要1引言2相关工作3人类反馈的强化学习4有益和无害的奖励模型5PPO的探索6评估和讨论局限性摘要大型语言模型(LLM)为通用人工智能的发展制定了蓝图。它

热文推荐