网站开发主要包括的事项,网站产品简介,门户网站ui设计,张雪峰谈网络工程运动想象迁移学习系列:EEGNet-Fine tuning 0. 引言1. 主要贡献2. 提出的方法2.1 EEGNet框架2.2 微调 3. 实验结果3.1 各模型整体分类结果3.2 算法复杂度比较3.3 不同微调方法比较 4. 总结欢迎来稿 论文地址#xff1a;https://www.nature.com/articles/s41598-021-99114-1#cit… 运动想象迁移学习系列:EEGNet-Fine tuning 0. 引言1. 主要贡献2. 提出的方法2.1 EEGNet框架2.2 微调 3. 实验结果3.1 各模型整体分类结果3.2 算法复杂度比较3.3 不同微调方法比较 4. 总结欢迎来稿 论文地址https://www.nature.com/articles/s41598-021-99114-1#citeas 论文题目A transfer learning framework based on motor imagery rehabilitation for stroke 论文代码无 0. 引言
深度学习网络已成功应用于传递函数使模型可以从源域适应到不同的目标域。本研究利用多个卷积神经网络对脑卒中患者的脑电图EEG进行解码设计有效的运动意象MI脑机接口BCI系统。这项研究引入了 “微调” 来传输模型参数并减少训练时间。所提出的框架的性能是通过模型的两类MI识别能力来评估的。
总得来说这是一篇较老的文章进一步说明了EEGNet模型的普适性与优越性(效果好且稳定)。
1. 主要贡献
比较多个模型的实验结果可以推断EEGNet是所有框架中迁移学习的最佳网络模型。实验表明迁移学习可以有效提高脑机接口系统对脑卒中患者康复的性能也证明了所提框架的有效性和鲁棒性。
2. 提出的方法
2.1 EEGNet框架 2.2 微调
迁移学习的有效性取决于许多因素。其中最重要的因素是原始数据与目标数据的相似性。相似度越高“微调”效果越好。EEGNet的前几层获得的特征是基本的常规特征例如从前几层中提取特定的频率空间滤波器。后几层提取特定特征例如模型可以分别汇总每个特征图的内核并找到特征图的最佳组合。
为了避免过度拟合所提出的神经网络的 “微调” 分为以下几个步骤
修改最后一层的输出参数。所提出的方法是冻结或重新训练前几层的参数然后修改softmax层的类别参数。调整模型的配置参数适当降低学习率、步长和纪元。模型的学习率相对较低因为有效的模型权重用于“微调”。如果学习率太高模型可以快速更新并破坏原有的良好权重信息。在“微调”后本研究选择打开所有图层并更新步长参数。EEGNet模型之前是在大规模数据集上进行的无形中扩展了训练后的脑电数据其处理性能对数据集非常有利。因此“微调”可以改进模型在相对较少的时期后获得更好的结果。开始训练并加载预训练模型的参数。
3. 实验结果
3.1 各模型整体分类结果 模型参数
3.2 算法复杂度比较 3.3 不同微调方法比较
在EEGNet模型上执行了三种处理方法。 第一种方法是随机初始化整个网络的权重然后放入一个新的训练数据集进行重新训练。处理后的模型称为 EEGNet_0。 第二种方法是在预训练模型中冻结块 1 的权重并重新训练以下层的其余部分以便获得新的权重处理后的模型称为 EEGNet_1。 第三种方法与第二种方法类似只是冻结了块 1 和块 2 的层权重其余相同处理后的模型称为 EEGNet_2。
4. 总结
到此使用 EEGNet-Fine tuning 已经介绍完毕了 如果有什么疑问欢迎在评论区提出对于共性问题可能会后续添加到文章介绍中。
如果觉得这篇文章对你有用记得点赞、收藏并分享给你的小伙伴们哦。
欢迎来稿
欢迎投稿合作投稿请遵循科学严谨、内容清晰明了的原则 有意者可以后台私信