广州网站建设网页制作开发,企业信用信息查询公示系统河南,做计算机网站有哪些,北京家装公司排名前十强目录
前言
关于存内计算
1、常规算力局限性
2、存内计算诞生记
3、存内计算核心
存内计算芯片研发历程及商业化
1、存内计算芯片研发历程
2、存内计算先驱出道
3、存内计算商业化落地
基于知存科技存内计算开发板ZT1的降噪验证
#xff08;一#xff09;任务目标以…目录
前言
关于存内计算
1、常规算力局限性
2、存内计算诞生记
3、存内计算核心
存内计算芯片研发历程及商业化
1、存内计算芯片研发历程
2、存内计算先驱出道
3、存内计算商业化落地
基于知存科技存内计算开发板ZT1的降噪验证
一任务目标以及具体步骤
1、主模块
2、子模块烧录时候需要用到
3、主模块设置
4、连接效果
二模拟及验证结果
1、啸叫环境模拟
2、啸叫抑制效果
体验与收获
结束语
参考文献 前言 众所周知人工智能的高速发展颠覆了人们传统的生活和工作方式AI已经逐渐“渗透”到各个领域与AI相关的一切也都在发生重大改变。就拿人工智能比较核心的深度学习算法来讲它让芯片领域也发生了巨大的技术变革比如在人工智能发展的早期基于AI的芯片是使用传统的冯·诺依曼计算架构的但是随着芯片存储性能的劣势逐渐凸显使得AI芯片研发工程师们不得不采取其他新技术来规避这种缺点这就使得存内计算应运而生。那么本文就来简单分享一下关于存内计算技术是如何打破常规算力局限性的以及对应的存内计算芯片产品的体验分享。 关于存内计算
1、常规算力局限性
首先来了解一下冯·诺依曼计算架构冯·诺依曼结构也称普林斯顿结构它是一种将程序指令存储器和数据存储器合并在一起的存储器结构是由数学家冯·诺依曼提出的计算机制造的三个基本原则采用二进制逻辑、程序存储执行以及计算机由五个部分组成运算器、控制器、存储器、输入设备、输出设备这个理论体系被称为冯·诺依曼体系结构。
如果内存的传输速度跟不上CPU的性能就会导致计算能力受到限制也就是出现“内存墙”比如CPU处理运算一道指令的耗时假若为1ns但内存读取传输该指令的耗时可能就已达到10ns这就严重影响了CPU的运行处理速度。另外如果读写一次内存的数据能量比计算一次数据的能量多消耗几百倍也就是说的存在的“功耗墙”。
随着近几年云计算和人工智能AI应用的发展面对计算中心的数据洪流数据搬运慢、搬运能耗大等问题成为了计算的关键瓶颈。冯·诺依曼架构由于指令和数据共享同一内存使得处理器不能同时取指令和数据会导致在程序执行过程中可能发生数据和指令冲突造成处理器的等待周期这会降低系统的执行效率和速度。这里不得不提一下存算一体存算一体Computing in Memory其实就是在存储器中嵌入计算能力以新的运算架构进行二维和三维矩阵乘法/加法运算也为后面的新的存内计算诞生埋下了伏笔。
2、存内计算诞生记
在2018年的时候Google针对自己产品的耗能情况做了一项研究调查发现整个系统耗能的62.7%浪费在CPU和内存的读写传输上也就是传统冯·诺依曼架构导致的高延迟和高耗能的问题成为急需解决的问题而其中的短板存储器成为了制约数据处理速度提高的主要瓶颈。
但是经过一系列的技术攻关诞生的存内计算可以有效消除存储单元与计算单元之间的数据传输耗能过高、速度有限的情况从而有效解决冯·诺依曼架构的瓶颈。而且存内计算存在多种基于不同存储介质的技术路径比如SRAM、Flash及其它新型存储器。
3、存内计算核心
存内计算Computing in Memory是指将计算单元直接嵌入到存储器中顾名思义就是把计算单元嵌入到内存当中通常计算机运行的冯·诺依曼体系包括存储单元和计算单元两部分。在本质上消除不必要的数据搬移的延迟和功耗从而消除了传统的冯·诺依曼架构的瓶颈打破存储墙。据悉存内计算特别适用于需要大数据处理的领域比如云计算、人工智能等领域最重要的一点是存内计算是基于存储介质的计算架构而且存内计算是一种新型存储架构且轻松打破传统存储架构的瓶颈。
根据存储介质的不同存内计算芯片可分为基于传统存储器和基于新型非易失性存储器两种。传统存储器包括SRAM, DRAM和Flash等新型非易失性存储器包括ReRAM、PCM、FeFET、MRAM等。其中距离产业化较近的是基于NOR Flash和基于SRAM的存内计算芯片。虽然基于各类存储介质的存算一体芯片研究百花齐放但是各自在大规模产业化之前都仍然面临一些问题和挑战。存算一体技术在产业界的进展同样十分迅速国内外多家企业在积极研发例如我国台湾的台积电韩国三星、日本东芝、美国Mythic国内的知存科技等。
但是当前最接近产业化的主要是台积电、Mythic和知存科技。从2019年至今台积电得益于其强大的工艺能力已基于SRAM与ReRAM发表了一系列存算一体芯片研究成果具备量产代工能力。Mythic已于2021年推出基于NOR Flash的存内计算量产芯片M1076可支持80 MB神经网络权重单个芯片算力达到25 TOPS主要面向边缘侧智能场景。国内的知存科技于2021年发布基于NOR Flash的存内计算芯片WTM2101是率先量产商用的全球首颗存内计算SoC芯片已经应用于百万级智能终端设备。
存内计算芯片研发历程及商业化
1、存内计算芯片研发历程
其实早在2012年深度学习算法在图像分类竞赛中展现出的显著性能提升就引发了新一轮的AI热潮。而在2015年深度学习算法对芯片的快速增长需求引发了AI芯片的创业热潮。但是拥抱AI芯片的设计者们很快就发现使用经典的冯·诺依曼计算架构AI芯片即使在运算单元算力大幅提升但是在存储器性能提升速度较慢的情况下两者的性能差距越来越明显这使得“内存墙”的问题越来越显著。
在传统计算机的设定里存储模块是为计算服务的因此设计上会考虑存储与计算的分离与优先级。但如今存储和计算不得不整体考虑以最佳的配合方式为数据采集、传输和处理服务。存储与计算的再分配过程就会面临各种问题主要体现为存储墙、带宽墙和功耗墙问题。存算一体的优势是打破存储墙消除不必要的数据搬移延迟和功耗并使用存储单元提升算力成百上千倍的提高计算效率降低成本。
其实利用存储器做计算在很早以前就有人研究上世纪90年代就有学者发表过相关论文但没有人真正实现产业落地究其原因一方面是设计挑战比较大更为关键的是没有杀手级应用。但是随着深度学习的大规模爆发存内计算技术才开始产业化落地存内计算的产业化落地历程与知存科技创始人的求学创业经历关系密切。
2、存内计算先驱出道
2011年郭昕婕本科毕业于北大信息科学技术学院微电子专业本科毕业之后郭昕婕开始了美国加州大学圣塔芭芭拉分校UCSB的博士学业她的导师Dmitri B.Strukov教授是存内计算领域的学术大牛2008年在惠普完成了忆阻器的首次制备2010年加入了美国加州大学圣塔芭芭拉分校。郭昕婕也成为了Dmitri B.Strukov教授的第一批博士生开始了基于NOR FLASH存内计算芯片的研究。
2013年随着深度学习的研究热潮席卷学术界在导师的支持下郭昕婕开始尝试基于NOR FLASH存内计算的芯片研发。耗时4年历经6次流片郭昕婕终于在2016年研发出全球第一个3层神经网络的浮栅存内计算深度学习芯片PRIME架构首次验证了基于浮栅晶体管的存内计算在深度学习应用中的效用。相较于传统冯诺伊曼架构的传统方案PRIME可以实现功耗降低约20倍、速度提升约50倍引起产业界广泛关注。随着人工智能等大数据应用的兴起存算一体技术得到国内外学术界与产业界的广泛研究与应用。
在2017年微处理器顶级年会(Micro 2017)上包括英伟达、英特尔、微软、三星、加州大学圣塔芭芭拉分校等都推出了他们的存算一体系统原型。也就是在2017年郭昕婕就进一步攻下7层神经网络的浮栅存内计算深度学习芯片。
3、存内计算商业化落地
AIoT是存内计算技术率先落地的重点领域因其强调人机交互同时先进的存算存储技术以及制造业能够为其提供最短路径支持。知存科技是目前唯一实现市场规模化应用的存内计算企业2021年发布的WTM2101芯片主要布局在语言唤醒语音活动检测Voice Activity DetectionVAD、语音识别、通话降噪、声纹识别等已落地应用在嵌入式领域中包括智能手表健康监测以及较低功耗毫安级的智能眼镜语音识别。
据悉WTM2101成功开拓市场以后知存科技重点布局的将是AI视觉领域。据官方资料知存科技将发布首个存内计算AI视觉芯片支持至少24Tops AI算力支持极低功耗的图像处理和空间计算。此外九天睿芯产品主要用于语音唤醒或者时间序列传感器信号计算处理定位推广可穿戴及超低功耗IOT设备后摩智能相关芯片应用于无人车边缘端以及云端推理和培训等场景2022年5月后摩智能自主研发的存算一体技术大算力AI芯片跑通智能驾驶算法模型。可以预见存内计算技术的商业化应用正在呈现百花齐放的局面也期待这些企业能够推动我国AI算力的突破性发展实现更多AI应用落地。
全球首个存内计算社区创立涵盖最丰富的存内计算内容以存内计算技术为核心绝无仅有存内技术开源内容囊括云/边/端侧商业化应用解析以及新技术趋势洞察等 邀请业内大咖定期举办线下存内workshop实战演练体验前沿架构从理论到实践做为最佳窗口存内计算让你触手可及。
传送门https://bbs.csdn.net/forums/computinginmemory?category10003 社区最新活动存内计算大使招募中,享受社区资源倾斜打造属于你的个人品牌点击下方一键加入。
https://bbs.csdn.net/topics/617915760 基于知存科技存内计算开发板ZT1的降噪验证
接下来是本文的重头戏也就是直接对基于存内计算ZT1开发板的降噪验证。在开始实际操作之前需要进行一些准备工作本文是基于已经有ZT1开发板来讲的主要是对开发板进行连线和配置操作。首先来看一下开发板全貌主要分为主模块、子模块、耳机三部分组成具体如下所示。先来看一下知存ZT1开发板另外需要注意ZT1开发板目前只支持Windows系统的电脑连接关联。
一任务目标以及具体步骤
1、主模块
主模块的概览如下所示。 2、子模块烧录时候需要用到
这里的子模块分为正反两面根据模块的提示字符与主模块进行关联即可。 3、主模块设置
这里的设置主要是把开关放在对应的USB这个位置具体如下图所示 4、连接效果
根据上面的逐一介绍再加上官方的指导视频具体的板子关联效果如下所示。 二模拟及验证结果
在执行完上面的板子、耳机连接以及通过数据线连接板子和电脑的之后就是插电验证啸叫抑制的效果在耳机连接之后会出现高分贝杂音啸叫接着再打开板子杂音马上消失这就是ZT1开发板成功啸叫抑制的结果。由于不能上传演示视频这里只做图片说明的结果展示。
1、啸叫环境模拟
未使用ZT1开发板的啸叫环境下噪音环境声音75db啸叫85db具体演示局部如下所示。 打开使用ZT1开发板直接精准啸叫抑制时间延迟1ms噪音环境声音75db啸叫:0db非常快非常专业具体演示掠影如下所示。 2、啸叫抑制效果
最后引用一下知存科技的最后啸叫抑制的对比效果具体如下所示。
啸叫抑制前 啸叫抑制后 功耗验证 功耗笔测试的数据图 体验与收获
通过上面关于基于存内计算ZT1开发版的降噪验证体验颠覆了自己对AI领域的常规认知也是自己距离AI最近的一次尤其通过使用知存的ZT1开发板进行啸叫抑制的测试体验彻底让我知道存内计算的先进性和魅力然后通过这次近距离的操作体验让自己真真切切体验了一把AI就在我“旁边”的无距离接触。
对我自己来说虽然AI已经火了一年多了但是我实际接触AI的情景却不多除了之前对一些国内外AI大模型的使用体验还有对国内的某一个大模型进行开发使用之外就很少接触真正的AI相关的核心内容。通过这次对知存的ZT1开发板使用体验让我一下子就步入了AI入门水平而且还是直接接触了AI的核心中的核心内容存内计算以及AI芯片个人觉得于我来说是个非常有价值的事情也让自己涉猎了新的核心内容受益匪浅。
虽然这次只做了简单的使用体验没有深度的参与开发板的烧录等实践但是这已经非常不错了成功的操作体验也让我对AI领域有了更浓厚的兴趣也让我很有成就感更重要的是这次使用体验让我感受到了AI对硬件领域的技术影响巨大倒逼传统技术模式的变革尤其是AI芯片等领域的快速发展。
经过本次的使用体验也让我加深了一些人工智能知识的掌握以及对知存的ZT1开发板的深度了解为我后面使用知存的ZT1开发板烧录体验以及更多存内计算开发奠定基础。虽然我自己现阶段关于AI的学习和掌握还停留在入门水平但是在这次体验实践之后未来可能在AI硬件和软件领域都会有更深入的使用和学习。
结束语
通过上文的详细介绍和体验分享想必读者对传统的冯·诺依曼计算架构的局限性以及存内计算技术的明显优势都有了深入的体会吧。存内计算的独有优势也是给AI芯片计算带来了不可估量的优势解决了影响算力的大问题非常值得表扬。随着AI的快速发展诞生的存内计算可以有效消除存储单元与计算单元之间的数据传输耗能过高、速度有限的情况从而有效解决冯·诺依曼架构的瓶颈。知存科技的基于存内计算ZT1开发版的降噪验证也是给人工智能领域带来了强心剂从个人使用体验来讲这是一个非常棒的经历切实感受到了它的强大功能及特点。我相信在不久的以后关于人工智能的新技术还会相继而出也希望人工智能领域继续完善和发展也期待存内计算再创新的辉煌也预祝知存科技的相关技术更上一层楼
参考文献
1、存内计算的使用手册WTM2101 EVBZT1用户使用手册V1.1
2、存内计算芯片研究进展及应用_郭昕婕
3、中国移动研究院完成业界首次忆阻 器存算一体芯片的端到端技术验证 - 移动通信网