当前位置: 首页 > news >正文

菜鸟教程网站中国建筑网官网查证

菜鸟教程网站,中国建筑网官网查证,无锡市网站设计,做网站一条龙一、说明 在机器学习的广阔环境中#xff0c;变压器作为建筑奇迹屹立不倒#xff0c;以其复杂的设计和捕获复杂关系的能力重塑了我们处理和理解大量数据的方式。 自 2017 年创建第一台变压器以来#xff0c;变压器类型呈爆炸式增长#xff0c;包括强大的生成 AI 模型#… 一、说明 在机器学习的广阔环境中变压器作为建筑奇迹屹立不倒以其复杂的设计和捕获复杂关系的能力重塑了我们处理和理解大量数据的方式。 自 2017 年创建第一台变压器以来变压器类型呈爆炸式增长包括强大的生成 AI 模型如 ChatGPT* 和 DALL-E*。虽然转换器在文本到文本或文本到图像模型中有效但在将转换器应用于时间序列时存在一些挑战。在 2023 年北美开源峰会* 上Ezequiel Lanza 分享了电流互感器模型的问题并介绍了新的变压器这些变压器开始在时间序列方面显示出有希望的结果。 这篇文章不会深入到技术方面但如果你想内容我们将包括指向重要论文的链接。 自从第一台变压器香草变压器问世以来已经创造了许多新的变压器。 二、变压器功能概述 让我们看看变压器在稳定扩散*中的作用稳定扩散是一种深度学习模型可以将短语例如“戴眼镜的狗”转换为图像。转换器接收用户输入的文本并生成文本嵌入。文本嵌入是可以由卷积神经网络 CNN 读取的文本表示形式在本例中为 U-NET。虽然稳定扩散模型使用嵌入来生成图像但嵌入可用于生成对时间序列模型有用的其他输出。 三、变压器的工作原理 要了解如何将转换器应用于时序模型我们需要关注转换器体系结构的三个关键部分 嵌入和位置编码编码器计算多头自注意力解码器计算多头自我注意 例如我们将解释香草变压器的工作原理这是一种将简单短语从一种语言翻译成另一种语言的转换器。 3.1 嵌入和位置编码如何表示输入数据 当您在香草转换器中输入短语“我爱狗”时称为 Word2Vec 的算法会将每个单词转换为数字列表称为向量。每个向量都包含有关单词的含义以及它与其他单词如同义词和反义词的关系的信息。 模型还必须了解短语中每个单词的位置。例如“我爱的狗”与“我爱狗”的含义不同。第二种称为位置向量的算法使用复杂的数学方程来帮助模型理解句子顺序。Word2Vec 和位置向量算法提供的信息打包在一起就是所谓的文本嵌入或者以机器可以读取的方式表示您的原始短语。 3.2 编码器级别的多头自我注意 接下来编码器接收文本嵌入并将其转换为新向量添加信息以帮助模型识别短语中单词之间的关系。例如在短语“在公园玩耍的儿童”中编码器将为“儿童”、“玩耍”和“公园”分配最大的权重。我们称这个过程为自我注意因为它决定了模型应该最关注哪些词。 为了计算自我注意编码器为每个单词创建三个向量——查询向量、键向量和值向量。向量是通过将短语与三个矩阵相乘来创建的。这是一个复杂的算法但要理解的重要部分是短语中的每个单词都会乘以短语中的每个其他单词并且计算长短语的注意力可能需要大量时间。 为了更好地理解单词之间的关系自我注意层可以同时运行多个头部。这个过程称为多头注意力它允许模型同时关注短语的不同部分例如当存在短期和长期依赖关系时。例如在短语“动物因为太累而没有过马路”中多头注意力告诉模型“动物”和“它”指的是同一个想法。 阅读本文深入了解自我注意和多头注意力算法阅读“注意力是你所需要的一切”这篇论文最初介绍了多头注意力 计算注意力所需的时间随着您添加到序列中的每个新数据点而二次增加。 3.3 解码器级别的多头自注意力 解码器的工作方式与编码器相同只是它使用不同的数据集进行了训练。例如在香草变压器中如果编码器在英语数据上进行了训练解码器在法语数据上进行了训练则解码器将运行相同的多头自注意力算法将原始短语翻译成法语。 四、对时序使用转换器 为什么此转换器体系结构不适用于时序时间序列在某些方面类似于一种语言但它与传统语言不同。在语言中您可以使用截然不同的单词或句子顺序来表达相同的想法。一旦基于语言的转换器如vanilla在语言上进行了训练它就可以理解单词之间的关系因此当您在两个不同的输入中表示一个想法时转换器仍然会得出大致相同的含义。然而时间序列需要严格的序列——数据点的顺序更重要。这给使用转换器进行时间序列带来了挑战。 让我们看看我们目前如何解决这个问题以及为什么这些模型不足。 4.1 当前的方法 自回归积分移动平均线 ARIMA 模型适用于某些时间序列但需要深入了解相关趋势、季节性变化和残值——即便如此它也仅适用于线性依赖关系。在许多具有多变量问题的时间序列中依赖关系之间的关系不是线性的ARIMA 将不起作用。 还有几种使用神经网络的方法。 前馈神经网络 FNN 模型使用序列中的任何前六个数据点来预测接下来的六个数据点。尽管 FNN 支持非线性依赖关系但它们需要您手动制作一个专注于非常具体的问题或数据子集的模型这使得该模型对于大型数据集的构造过于耗时。在递归神经网络 RNN 模型中您可以向模型提供与时间序列相关的一小部分数据点RNN 中的单元格将记住哪些数据点很重要以及它们的权重是多少。但是当您处理具有长期依赖关系的数据集时权重变得不那么相关并且模型的准确性会随着时间的推移而降低。长短期记忆LSTM模型类似于RNN不同之处在于每个细胞都有一个记忆允许您在长序列期间更频繁地更新权重。这使得 LSTM 成为某些用例的良好解决方案。Seq2seq 是提高 LSTM 性能的一种方法。您可以将数据馈送到编码器中而不是直接馈送网络编码器会生成输入的特征这些特征被馈送到解码器中。 4.2 变压器如何改进时间序列 使用变压器支持的多头注意力可以帮助改进时间序列模型处理长期依赖关系的方式比当前方法更具优势。为了让您了解转换器在长依赖项方面的工作情况请考虑 ChatGPT 可以在基于语言的模型中生成的长而详细的响应。将多头注意力应用于时间序列可以产生类似的好处允许一个头专注于长期依赖关系而另一个头专注于短期依赖关系。我们相信变压器可以使时间序列模型预测多达1个数据点如果不是更多的话。 4.3 二次复杂性问题 变压器计算多头自我注意力的方式对于时间序列来说是有问题的。由于序列中的数据点必须乘以序列中的所有其他数据点因此添加到输入中的每个数据点都会成倍增加计算注意力所需的时间。这称为二次复杂度它在处理长序列时会产生计算瓶颈。 计算注意力所需的时间随着您添加到序列中的每个新数据点而二次增加。 五、改进时间序列的转换器模型 今年年初发布的一项调查确定了在将变压器应用于时间序列之前需要解决的两个基本网络修改 位置编码我们如何表示输入数据注意力模块降低时间复杂度的方法 下一节将介绍高级要点但您可以阅读调查以获取有关修改及其结果的更多详细信息。 5.1 网络修改No1位置编码 2019 年我们尝试在原版变压器中应用 Word2Vec 编码过程但该模型无法充分利用时间序列的重要特征。香草转换器擅长辨别单词之间的关系但不擅长遵循数据序列中的严格顺序。。 2021 年我们创建了可学习的文本嵌入使我们能够在输入中包含额外的位置编码信息。与普通变压器中的固定编码相比可学习的位置编码使变压器更加灵活更好地利用顺序排序信息。这有助于转换器了解有关时间序列的更重要上下文例如季节性信息。 5.2 网络修改No2注意力模块 为了降低注意力层的二次复杂度新的转换器引入了概率稀疏注意力的概念。通过使注意力层仅使用最重要的数据点而不是所有数据点来计算权重和概率ProbSparse 有助于大大减少计算注意力所需的时间。 Informer* 等新模型中使用的 ProbS稀疏注意力通过仅基于序列中最重要的数据点计算概率来减少时间。 六、对新变压器进行测试 虽然许多新的转换器如LogTrans*Pyraformer*和FEDformer*都包含了这些网络修改但在这里我们专注于Informer和Spacetimeformer*因为它们是开源的。 GitHub* 存储库提供参考文档和示例以便根据数据轻松微调模型而无需了解注意力层的每个细节。 让我们看看Informer和Spacetimeformer 如何利用这些网络修改看看它们会产生什么样的结果。 6.1 告密者架构 通过告密者转换器您可以向他们提供有关季节性、每月或节假日趋势的重要信息以帮助模型了解数据在一年中行为方式的细微差异。例如您的数据集在夏季的行为可能与在冬季的行为不同。通过位置编码您可以告诉模型在一年中的不同时间使用不同的权重从而更好地控制输入的质量。 通过结合ProbSparse注意力模型和位置编码Informer提供了优于LSTM等传统变压器的性能优势。当预测未来的 24 个数据点时Informer 产生的均方误差 MSE 为 0.577略好于 LSTM 的 MSE 0.650。当预测 720 个数据点时性能差异越来越大Informer 的 MSE 为 1.215而 LSTM 为 1.960。我们可以在这里得出结论Informer在长序列中提供了稍微好一点的结果但LSTM在某些短期用例中仍可能产生良好的结果。 访问告密者 GitHub 存储库以查看更多结果 Informer产生的结果比LSTM模型略好特别是对于长数据系列。 七、时空建筑 Spacetimeformer 提出了一种表示输入的新方法。像Informer这样的时间注意力模型在单个输入令牌中表示每个时间步长的多个变量的值这没有考虑特征之间的空间关系。图形注意力模型允许您手动表示特征之间的关系但依赖于无法随时间变化的硬编码图形。时空前者结合了时间和空间注意力方法创建一个输入令牌来表示给定时间单个要素的值。这有助于模型更多地了解空间、时间和价值信息之间的关系。 时空形成者使用并行的空间和时间特征计算权重由右下角的蓝线表示。 与Informer一样Spacetimeformer 提供的结果比LSTM略好。在预测未来40小时时Spacetimeformer的MSE为12.49略好于LSTM的MSE为14.29。虽然对于更长的序列这个裕度会扩大但对于每个用例Spacetimeformer 还没有提供明显优于 LSTM 的结果。 访问时空前 GitHub 存储库了解有关时空模型如何工作的更多信息 与Informer类似Spacetimeformer 产生的结果比 LSTM 略好特别是对于更长的时间序列。 八、用例微服务架构上的延迟 让我们将时间序列模型应用于在线精品店。该商店有 11 个微服务包括允许用户添加和删除项目的购物车服务和允许用户搜索单个产品的目录服务。 将 Informer 时间序列预测应用于具有 11 个微服务的在线精品店。 为了演示对最终用户的影响我们将预测用户必须等待每个微服务处理请求的时间。基于每个服务的先前 360 个数据点的模型我们对未来运行了 36 个数据点的简短预测对未来运行了 120 个数据点的长期预测。 在预测接下来的36个数据点时Informer产生的MSE为0.6略好于LSTM。但是告密者需要更多时间来处理。长模型的结果也是如此Informer的预测更准确但需要更长的处理时间。 Informer在短数据系列和长数据系列中都产生了更好的结果但处理时间略多。 九、参与并开始测试 时序的复杂性各不相同因此测试模型以找到最适合您的用例非常重要。虽然LSTM等传统模型是某些短期时间序列的有力选择但Informer和Spacetimeformer可以为长期序列提供更准确的预测。随着我们继续对注意力层和输入数据的表示方式进行优化我们预计性能会有所提高。此外作为开源框架Informer和Spacetimeformer 使安装模型并开始用您的数据进行测试变得更加容易。 请为 GitHub 存储库做出贡献以帮助推进这些项目。我们还提供深度学习工具和框架库以充分利用我们的开源模型。 转到告密者 GitHub 存储库访问时空前 GitHub 存储库查看时序 GitHub 存储库了解时序和序列的最新深度学习 有关英特尔的更多开源内容请查看 open.intel
http://www.ho-use.cn/article/10815750.html

相关文章:

  • 做oa系统的网站蝙蝠做等级的网站
  • wordpress外链缩略图seo 培训教程
  • 哪里建设网站大连新图闻网站设计
  • 设计类素材网站湛江网上房地产
  • 做网站ie缓存做网站每年包多少流量
  • 网站网页设计培训班鞍山seo外包
  • 公司网站制作费计入会计什么科目萧江网站建设
  • 网站标题关键词堆砌企业网站建设admin
  • 排名好的宜昌网站建设wordpress 优化
  • 网站建设销售销售流程图宁波建设协会网站首页
  • 网站关键词是指什么有什么网站可以做问卷调查
  • 网站产品推广新建站点步骤
  • 诸城网站价格镇江市建设工程管理处网站
  • 常用网站域名国家提供的免费网课平台
  • 如何利用国外网站开发客户中国中国建设银行网站
  • 酒店网站建设方案网站诚信建设
  • 单位网站建设流程网站页面两侧漂浮的怎样做
  • 网站建设合同服务范围网站开发前台代码和后台代码
  • 外包网站建设是什么意思wordpress主页打不开
  • 织梦网站修改seo怎么刷关键词排名
  • 吉安哪家做网站的公司好es网站建设
  • 如何给自己网站做反链低代码开发平台 免费
  • 网站发布后打不开wordpress 关闭搜索
  • 网站开发包括几部分wordpress模板文件修改插件
  • 大学生做网站步骤企业网站运营外包费用
  • 网站建设开发有什么好处无锡网站制作楚天软件
  • 站内优化怎么做柳州建设局网站
  • 深圳市住房和建设局网站首页新品发布会一般在哪里举行
  • 吉林省建设标准化网站wordpress文件位置
  • 礼服外贸网站网站建设策划书缺点