当前位置:首页 > 嵌入式 > 嵌入式新闻
[导读]日前,去年击败世界围棋第一人李世石,由DeepMind(已被谷歌收购)开发的围棋AI—AlphaGo,已移师中国,再战目前等级分排名世界第一的中国棋手柯洁九段,且率先拿下一局

日前,去年击败世界围棋第一人李世石,由DeepMind(已被谷歌收购)开发的围棋AI—AlphaGo,已移师中国,再战目前等级分排名世界第一的中国棋手柯洁九段,且率先拿下一局暂时领先的消息再次引发了业内的高度关注。

那么问题来了,AlphaGo缘何如此“聪明”和超乎人类的思考和反应能力?

就在AlphaGo与柯洁“人机大战”不久前,Google I/O 2017 大会上,谷歌“移动为先”向“AI优先”再次升级,其中最典型的表现之一就是更新升级了去年公布的TPU(Tensor Processing Unit),一款谷歌自己高度定制化的AI(针对AI算法,例如其自己开发的Tensor Flow深度学习架构)芯片。

 

这款芯片也是AlphaGo背后的功臣,即AlphaGo能以超人的熟练度下围棋都要靠训练神经网络来完成,而这又需要计算能力(硬件越强大,得到的结果越快),TPU就充当了这个角色,更重要的是借此显现出了在AI芯片领域相对于英特尔CPU和英伟达GPU的优势。何以见得?

在去年的“人机大战”中,起初AlphaGo的硬件平台采用的是CPU+GPU,即AlphaGo的完整版本使用了40个搜索线程,运行在48块CPU和8块GPU上,AlphaGo的分布式版本则利用了更多的芯片,40个搜索线程运行在1202块CPU和176块GPU上。

这个配置是和当时樊麾比赛时使用的,所以当时李世石看到AlphaGo与樊麾的对弈过程后,对“人机大战”很有信心。但是就在短短几个月时间内,谷歌就把运行AlphaGo的硬件平台切换到了TPU上,之后对战的结果是AlphaGo以绝对优势击败了李世石。也就是说,采用TPU之后的AlphaGo的运算速度和反应更快。那么究竟TPU与CPU和GPU相比,到底有多大的优势(例如性能和功耗)?

据谷歌披露的相关文件显示,其TPU与服务器级的英特尔Haswell CPU和英伟达K80 GPU进行比较,这些硬件都在同一时期部署在同个数据中心。测试负载为基于TensorFlow框架的高级描述,应用于实际产品的NN应用程序(MLP,CNN和LSTM),这些应用代表了数据中心承载的95%的NN推理需求。

尽管在一些应用上利用率很低,但TPU平均比当前的GPU或CPU快15~30倍,性能功耗比(TOPS/Watt)高出约30~80倍。此外,在TPU中采用GPU常用的GDDR5存储器能使性能TPOS指标再高3倍,并将能效比指标TOPS/Watt提高到GPU的70倍,CPU的200倍。

 

尽管英伟达对于上述的测试表示了异议,但TPU相对于CPU和GPU存在的性能功耗比的优势(不仅体现在AI,还有数据中心)已经成为业内的共识。值得一提的是,在刚刚举办Google I/O 2017 大会上发布的新一代TPU已经达到每秒180万亿次的浮点运算性能,超过了英伟达刚刚推出的GPU Tesla2 V100每秒120万亿次浮点运算性能。那么是什么造就TPU的优势?

简单来说,CPU是基于完全通用的诉求,实现的通用处理架构。GPU则主要基于图像处理的诉求,降低了一部分通用性,并针对核心逻辑做了一定的优化,是一款准通用的处理架构,以牺牲通用性为代价,在特定场合拥有比CPU快得多的处理效率。

而TPU,则针对更明确的目标和处理逻辑,进行更直接的硬件优化,以彻底牺牲通用性为代价,获得在特定场合和应用的极端效率,也就是俗话所言的“万能工具的效率永远比不上专用工具”。而这正好迎合了当下诸多炙手可热的人工智能的训练和推理等均需要大量、快速的数据运算的需求。

到目前为止,谷歌的TPU已经应用在各种领域的应用中,例如谷歌图像搜索(Google Image Search)、谷歌照片(Google Photo)、谷歌云视觉API(Google Cloud Vision API)、谷歌翻译以及AlphaGo的围棋系统中。实际上我们上述提到的Google I/O 2017大会推出和更新的诸多AI产品和服务背后均有TPU的硬件支持。

当然,我们在此并非否认CPU和GPU在AI中的作用,例如鉴于CPU的通用性,其灵活性最大,不仅可以运行各种各样的程序,也包括使用各种软件库的深度学习网络执行的学习和推理。GPU虽然不像 CPU那样通用和灵活,但它在深度学习计算方面更好,因为它能够执行学习和推理,并且不局限于单个的软件库。相比之下,TPU则几乎没有灵活性,并且只能在自家的TensorFlow中效率最高,这也是为何谷歌对外声称TPU不对外销售,且仍会继续采用CPU和GPU。

但谷歌的这一做法印证了一个芯片产业的发展趋势,即在AI负载和应用所占数据中心比重越来越大的今天和未来,像谷歌、微软、Facebook、亚马逊、阿里巴巴、腾讯等这些数据中心芯片采购的大户,其之前对于CPU和GPU的通用性需求可能会越来越少,而针对AI开发应用的兼顾性能和能效的定制化芯片需求则会越来越多。

而作为通用芯片厂商的英特尔和英伟达,如何顺应芯片产业在AI驱动下的发展趋势,则关系着其在AI时代到来之时,其能否继续满足客户的需求和引领产业的发展。或许,应该特尔和英伟达都应该未雨绸缪。

本站声明: 本文章由作者或相关机构授权发布,目的在于传递更多信息,并不代表本站赞同其观点,本站亦不保证或承诺内容真实性等。需要转载请联系该专栏作者,如若文章内容侵犯您的权益,请及时联系本站删除。
换一批
延伸阅读

英特尔全球供应链中,仅应用材料公司等27家企业获此殊荣

关键字: 英特尔 供应链

近日,英特尔在深圳举办以“智绘混合AI新篇, 赋能生成式 AI 无处不在 -- OpenVINO™ 2024 焕新启航”为主题的OpenVINO™ DevCon中国系列工作坊2024活动,此次活动汇聚了英特尔产品专家、行...

关键字: AI 英特尔 AIGC大模型

近日外媒引述消息人士报道称,中国推出采购需求标准,或意味着中国将禁止政府电脑使用英特尔和超微半导体(AMD)CPU(处理器)芯片,截止目前英特尔和AMD尚未就此消息做出回应。

关键字: 英特尔 AMD 芯片

假设未来AI真的成长为改变世界的庞大产业,韩国有没有能力分一杯羹?能分多少?在哪些领域?这些问题值得我们观察。毕竟对于中国半导体产业来说,在某些特定领域,韩国始终是不容忽视的存在。

关键字: 韩国AI产业 AI存储芯片 英伟达

英伟达日前推出基于CUDA-Q混合量子计算平台的云服务,使用户能够进行量子计算的软件测试。该平台的意义不容忽视,或许不亚于GPU升级。

关键字: 英伟达 量子云平台 AI芯片

3月25日消息,据媒体报道,英伟达最快将从9月开始大量购买12层HBM3E内存,这些内存将由三星电子独家供货。

关键字: SK海力士 英特尔

美国总统拜登日前宣布,随着美国政府加大力度将芯片制造片转移到本土,英特尔已经通过《芯片法案》获得高达85亿美元的资助。此外,该公司可以通过这一法案获得额外的110亿美元贷款。

关键字: 英特尔 芯片 半导体

近日,在美国加州圣何塞举行的英伟达GTC 2024开发者大会上,英伟达宣布与比亚迪进一步扩大合作,未来的比亚迪汽车将搭载英伟达 DRIVE Thor智能车机芯片。比亚迪还将使用英伟达 AI 基础设施进行自动驾驶模型训练,...

关键字: 比亚迪 英伟达 芯片

在凭借RAN加速器进军移动网络领域之后,英伟达希望依托芯片和AI技术,能够在6G领域发挥更大、更关键的作用。

关键字: 英伟达 6G 云平台 6G RAN

3月21日消息,英伟达创始人兼CEO黄仁勋接受全球媒体采访中分享了对行业的深入见解。他提到,全球数据中心市场规模去年已达到约2500亿美元,且以20%至25%的迅猛速度增长,这无疑为英伟达带来了巨大的市场机遇。

关键字: 黄仁勋 英伟达 特工芯片
关闭
关闭