当前位置:首页 > 嵌入式 > 嵌入式硬件
[导读]微软在Build大会期间宣布,开发者现在可以接入微软Azure云,试用由Project Brainwave芯片计算平台提供的AI服务。同时还发布了可部署于边缘设备平台的Project Brainwave内测版。Project Brainwave计算平台是微软基于英特尔FPGA芯片打造的低延迟深度学习计算平台。

微软在Build大会期间宣布,开发者现在可以接入微软Azure云,试用由Project Brainwave芯片计算平台提供的AI服务。同时还发布了可部署于边缘设备平台的Project Brainwave内测版。Project Brainwave计算平台是微软基于英特尔FPGA芯片打造的低延迟深度学习计算平台。

微软表示,与最流行的行业基准相比,Project Brainwave可以将实时AI计算的延迟时间降到最小,并且成本控制在可接受的范围。

一、Project Brainwave是什么?

Project Brainwave项目在去年8月23日于芯片行业论坛HotChips被微软提出。微软表示Project Brainwave计算平台的目标是:支持快速深度学习运算,并支持开发人员对芯片进行重构。

微软将Project Brainwave计算平台的架构分为三个层面:

1、高性能的分布式架构(架构层)

2、集成到FPGA中的硬件DNN引擎(硬件层)

3、针对训练好的模型,支持平滑部署的一套编译器及运行时环境(软件环境)

去年提出Project Brainwave时,微软表示,这个计算平台将支持微软Cognitive Toolkit和谷歌TensorFlow。。

今年3月,微软为了测试Project Brainwave计算平台的能力,让自家的Bing搜索引擎接入了这个平台,实验结果表明,Bing搜索引擎的能力提升了十倍。

昨天发布Project Brainwave试用版,是微软首次通过云端向外部用户提供FPGA AI专用芯片的能力。

二、Project Brainwave中FPGA芯片的意义是什么?

AI芯片对于AI的意义,可以看作发动机对于汽车意义。所以Project Brainwave计算平台的能力强弱,取决于这个平台所使用的芯片。

微软表示,Project Brainwave计算平台使用的FPGA芯片将使AI数据处理速度很快,相比谷歌使用的TPU芯片,FPGA芯片的处理速度快上了5倍。微软说道:“该芯片为实时AI而设计——这意味着,它能以极低的延迟在接收数据后立刻处理请求。由于云平台需要处理实时数据流,不管是搜索请求、视频、传感器数据流还是用户交互,实时AI正在变得越来越重要。”

这种芯片的另一个优势在于,客户企业将能够根据自己的需求重新对芯片系统进行设计,这是微软为客户提供更强灵活性服务策略的一部分。

三、FPGA芯片的优劣势

可见,在Project Brainwave项目中,微软大力研发FPGA AI专用芯片,其他巨头为了迎接即将到来的AI时代也进行着各自的努力,例如谷歌TPU、英伟达GPU等等。那么,他们各自都有何特点呢?

1.英伟达GPU

GPU并不是近期才出现的,其实它就是你电脑中显卡的核心部件,名字是图形处理器。

目前,GPU在AI领域的应用,都是采用“CPU+GPU”计算模型。

与CPU相比,CPU 由专为顺序串行处理而优化的几个核心组成,GPU 拥有一个由数以千计的更小、更高效的核心(专为同时处理多重任务而设计)组成的大规模并行计算架构。“CPU+GPU”计算模型能将应用程序计算密集部分的工作负载转移到 GPU,同时仍由 CPU 运行其余程序代码。从而提升运算速度。

但这种计算模型其实就是利用现有的成熟技术提供了一种通用级的解决方法来满足AI深度学习的要求,而并不是一种针对性的专业解决方案。

2.谷歌TPU

TPU是谷歌专门为加速深层神经网络运算能力而研发的一款芯片,目前主要运用于模型建立以及定点推测。

TPU其实是一个ASIC(专用集成电路),ASIC是应特定要求和特定电子系统的需要而设计、制造的集成电路。

通常而言,ASIC的开发需要耗时数年。但谷歌TPU从设计到验证、构建和部署到数据中心里,只用了15个月。

除了开发部署时间短外,TPU在峰值性能上也较GPU有一定优势。GPU在单个时钟周期内,可以处理数百到数千次运算。而TPU可以在单个时钟周期内处理数十万次运算。

同时,确定性是TPU专用用途带来的另一个优势。CPU和GPU需要考虑各种任务上的性能优化,因此会有越来越复杂的机制,带来的副作用就是这些处理器的行为非常难以预测。而使用TPU能轻易预测运行一个神经网络并得出模型与推测结果需要多长时间,这样,就能让芯片以吞吐量接近峰值的状态运行,同时严格控制延迟。

不过,TPU的性能优势使得它的灵活性较弱,这也是ASIC芯片的常见属性。

3.灵活的FPGA

FPGA全称是Field Programmable Gate Array:现场可编程门阵列。FPGA内部集成大量的数字电路基本门电路和存储器,用户可以通过烧入配置文件来定义这些它们之间的连线,从而达到定制电路的目的。

通俗来说就是,对比TPU,TPU虽然也是基于特定需求设计的ASIC,但就好比是雕一尊雕像,雕好后不能再更改;而FPGA则是乐高积木,什么硬件电路都能模仿,而且能多次更改。

有了这个特点,FPGA的设计部署周期比TPU更短,只需要6个月左右,而且更加能灵活适应多种需求。

而且,FPGA不像GPU依赖于冯·诺依曼结构,一个计算得到的结果可以被直接馈送到下一个计算,无需在主存储器临时保存,因此不仅存储器带宽需求低,而且还具有流水处理的特点,大大减小了输入与输出的延时比。

FPGA的的架构固然带来了应用上的灵活性,但是从执行运算的效率上来说,它又远远比不上ASIC。FPGA的运算电路基于查找表,比如说,FPGA内部有1000万个自定义逻辑部件,一个4输入的查找表单元需要96个晶体管来支持,而在ASIC上来实现估计只需要10个左右。这些问题也导致了FPGA芯片的面积更大、功耗更多。

四、AI芯片热潮

看完以上各个巨头研发的AI芯片优劣势,我们可以感到,目前,尚未出现某种芯片“独步天下”的态势,各种芯片都有其优劣势。

AI是下一次科技革命的核心技术,全球企业都纷纷在AI芯片上发力,期待着自己成为这个行业的领头羊。外国企业热火朝天,中国企业也不甘人后,现在已经涌现地平线、寒武纪、深鉴科技、中天微等一批明星初创企业。数据显示,仅去年下半年,在芯片制造巨头台积电的生产线上,就有超过30家AI芯片排队等待流片。

众多企业投身这个行业,我们或许可以期待今后能有一款芯片,在GPU、ASIC、FPGA芯片的优缺点之间,找到高灵活性、强运算能力、低能耗、低成本之间的平衡。

本站声明: 本文章由作者或相关机构授权发布,目的在于传递更多信息,并不代表本站赞同其观点,本站亦不保证或承诺内容真实性等。需要转载请联系该专栏作者,如若文章内容侵犯您的权益,请及时联系本站删除。
换一批
延伸阅读

随着人工智能(AI)模型变得越来越复杂,数据量不断攀升,数据中心正在通过改变系统架构,来实现更快、更高效的处理。

关键字: AI 连接器

近日举办的GTC大会把人工智能/机器学习(AI/ML)领域中的算力比拼又带到了一个新的高度,这不只是说明了通用图形处理器(GPGPU)时代的来临,而是包括GPU、FPGA和NPU等一众数据处理加速器时代的来临,就像GPU...

关键字: FPGA AI 图形处理器

随着信息技术的飞速发展,芯片作为现代电子设备的核心部件,其制作工艺流程的精密与复杂程度日益提高。芯片的制作,不仅仅是一系列技术操作的集合,更是一场探索微观世界的工艺之旅。本文将带领读者走进芯片制作的世界,揭示其大致工艺流...

关键字: 芯片 半导体

西门子作为制造业数字化转型成功的代表企业之一,面对生产、服务与业务增长等挑战,积极拥抱AI、自动化等新兴技术,优化企业业务流程,打造企业数字化技术新基座,开拓出更多业务转型思路。

关键字: 自动化 AI 数字化

瑞典乌普萨拉,2024年3月27日 – 全球领先的嵌入式系统开发软件解决方案供应商IAR自豪地宣布:公司备受全球数百万开发者青睐的开发环境再次升级,已率先支持瑞萨首款通用32位RISC-V MCU,该 MCU 搭载了瑞萨...

关键字: MCU RISC-V CPU

2024年3月20日,2024中国闪存市场峰会(CFMS2024)在深圳宝安前海·JW万豪酒店盛大举办。本次峰会以“存储周期、激发潜能”为主题,共同探讨在供需关系依然充满挑战的大环境下,未来存储市场的变化,以及如何挖掘产...

关键字: SSD 存储 AI

联发科与高通骁龙的对决可以说是一场性能与价值的较量,那么,你对两者的芯片有了解吗?在移动设备领域,芯片制造商的竞争愈发激烈。其中,来自台湾的联发科(MediaTek)与美国的高通(Qualcomm)无疑是该领域的两大巨头...

关键字: 联发科 高通骁龙 CPU 处理器

近日,胡润研究院发布《2024家大业大酒·胡润全球富豪榜》。70岁的钟睒睒财富比去年缩水9%,以4500亿元连续第四次成为中国首富,位于全球第21位,同比下降6位。44岁的黄峥财富比去年增长71%,即1600亿元,是今年...

关键字: 钟睒睒 AI

tda2030功放芯片将是下述内容的主要介绍对象,通过这篇文章,小编希望大家可以对它的相关情况以及信息有所认识和了解,详细内容如下。

关键字: tda2030 功放 芯片
关闭
关闭