鲭鱼为什么那么便宜CPU,GPU那么便宜

《好看》依托百度技术,精准推荐优质短视频内容,懂你所好,量身打造最适合你的短视频客户端!您正在使用IE低版浏览器,为了您的雷锋网账号安全和更好的产品体验,强烈建议使用更快更安全的浏览器
发私信给AI研习社
导语:如何看待谷歌公开 tensorflow 专用处理器 TPU?
同步到新浪微博
聚焦数据科学,连接AI开发者。
当月热门文章
为了您的账户安全,请
您的邮箱还未验证,完成可获20积分哟!
您的账号已经绑定,现在您可以以方便用邮箱登录
请填写申请人资料说出来你可能不信,王二正在被信息怪追杀,没错,就是那……
OLED在显示行业的热度还没达到顶峰,Micro LED就出来&ld……
要说最近半导体行业的巨人战争,当属博通费尽心机收购高……
有人说LoRa是NB-IoT的竞争技术,其实我们认为它们是一种……
试想这样的一个情景,你将一枚鸡蛋、一个土豆、一块火腿……
演讲人:郝晓贝时间: 10:00:00
演讲人:王海莉时间: 10:00:00
演讲人:卢柱强时间: 10:00:00
预算:¥10000预算:小于¥10000
浙江省湖北省
CPU并非万能,深度学习为啥更看好GPU、FPGA发挥?
[导读]深度学习全称深度神经网络,本质上是多层次的人工神经网络算法,即模仿人脑的神经网络,从最基本的单元上模拟了人类大脑的运行机制。近年来,其所取得的前所未有的突破掀起了人工智能新一轮的发展热潮。
深度学习全称深度神经网络,本质上是多层次的人工神经网络算法,即模仿人脑的神经网络,从最基本的单元上模拟了人类大脑的运行机制。近年来,其所取得的前所未有的突破掀起了人工智能新一轮的发展热潮。本文引用地址:
最早的神经网络的思想起源于 1943 年的 MCP
人工神经元模型,当时是希望能够用计算机来模拟人的神经元反应的过程,但直到最近,它才真正让人工智能火起来。主要原因在于:算法的突破、数据量的激增和计算机能力/成本的下降。其中计算能力的提升的作为人工智能实现的物理基础,对人工智能发展的意义不言而喻。
本文我们就来分析目前主流的深度学习芯片的优缺点。
CPU 不适合深度学习
深度学习与传统计算模式最大的区别就是不需要编程,它是从输入的大量数据中自发地总结出规律,而传统计算模式更多都需要人为提取所需解决问题的特征或者总结规律来进行编程。也正因为如此,深度学习对计算能力要求非常高,以至于有人将深度学习称之为&暴力计算&。
因此,传统的 CPU 并不适用于深度学习。
从内部结构上来看,CPU 中 70%晶体管都是用来构建 Cache(高速缓冲存储器)和一部分控制单元,负责逻辑运算的部分(ALU
模块)并不多。控制单元等模块的存在都是为了保证指令能够一条接一条的有序执行。
这种通用性结构对于传统的编程计算模式非常适合,但对于并不需要太多的程序指令,却需要海量数据运算的深度学习的计算需求,这种结构就显得有心无力了。
GPU 深度学习主流芯片
与 CPU 少量的逻辑运算单元相比,GPU 整个就是一个庞大的计算矩阵,GPU 具有数以千计的计算核心、可实现 10-100
倍应用吞吐量,而且它还支持对深度学习至关重要的并行计算能力,可以比传统处理器更加快速,大大加快了训练过程。GPU
是目前最普遍采用的深度学习运算单元之一。
目前,谷歌、Facebook、微软、Twitter 和百度等互联网巨头,都在使用 GPU
作为其深度学习载体,让服务器学习海量的照片、视频、声音文档,以及社交媒体上的信息,来改善搜索和自动化照片标记等各种各样的软件功能。而某些汽车制造商也在利用这项技术开发无人驾驶汽车。
不过,由于 GPU 的设计初衷是为了应对图像处理中需要大规模并行计算。因此,根据乐晴智库介绍,其在应用于深度学习算法时有数个方面的局限性:
第一, 应用过程中无法充分发挥并行计算优势。深度学习包含训练和应用两个计算环节,GPU
在深度学习算法训练上非常高效,但在应用时一次性只能对于一张输入图像进行处理, 并行度的优势不能完全发挥。
第二, 硬件结构固定不具备可编程性。深度学习算法还未完全稳定,若深度学习算法发生大的变化,GPU 无法灵活的配置硬件结构。
另外,在能耗上面,虽然 GPU 要好于 CPU,但其能耗仍旧很大。
备受看好的 FPGA
FPGA,即现场可编辑门阵列,是一种新型的可编程逻辑器件,由于其具有静态可重复编程和动态在系统重构的特性,使得硬件的功能可以像软件一样通过编程来修改。
FPGA 作为人工智能深度学习方面的计算工具,主要原因就在于其本身特性:可编程专用性,高性能,低功耗。
北京大学与加州大学的一个关于 FPGA 加速深度学习算法的合作研究。展示了 FPGA 与 CPU 在执行深度学习算法时的耗时对比。在运行一次迭代时,使用
CPU 耗时 375 毫秒,而使用 FPGA 只耗时 21 毫秒,取得了 18 倍左右的加速比。
根据瑞士苏黎世联邦理工学院 (ETHZurich) 研究发现,基于 FPGA 的应用加速比 CPU/GPU 方案,单位功耗性能可提升 25
倍,而时延则缩短了 50 到 75 倍,与此同时还能实现出色的 I/O 集成。而微软的研究也表明,FPGA 的单位功耗性能是 GPU 的 10 倍以上,由多个
FPGA 组成的集群能达到 GPU 的图像处理能力并保持低功耗的特点。
根据英特尔预计,到 2020 年,将有 1/3 的云数据中心节点采用 FPGA 技术。
不可估量的 ASIC
ASIC(Application Specific Integrated
Circuits,专用集成电路),是指应特定用户要求或特定电子系统的需要而设计、制造的集成电路。ASIC
用于专门的任务,比如去除噪声的电路,播放视频的电路,但是 ASIC
明显的短板是不可更改任务。但与通用集成电路相比,具有以下几个方面的优越性:体积更小、功耗更低、可靠性提高、性能提高、保密性增强、成本降低。
从算力上来说,ASIC 产品的计算能力是 GK210 的 2.5 倍。功耗上,ASIC 功耗做到了 GK210 的 1/15。
当然 ASIC 是能效最高的,但目前,都在早期阶段,算法变化各异。想搞一款通用的 ASIC 适配多种场景,还是有很多路需要走的。但从比特币挖矿机经历的从
CPU、GPU、FPGA 到最后 ASIC 的四个阶段来推论,ASIC 将是人工智能发展的重要趋势之一。另外,在通信领域,FPGA 曾经也是风靡一时,但是随着
ASIC 的不断发展和蚕食,FPGA 的份额和市场空间已经岌岌可危。
据了解,谷歌最近曝光的专用于人工智能深度学习计算的 TPU,其实也是一款 ASIC。
【文章转载自网络,版权归原作者所有,若有侵权请联系删除】
基于ARM+FPGA的高速同步数据采集方案,主要包括以下几个部分:ARM控制器、存储电路、FPGA逻辑控制电路、A/D转换电路、FIFO缓存、电源电路、接口电路等。......关键字:
Thomas Sohmers 认为,即使是强如英特尔,每年出货数以亿计芯片这样的公司,也同样有弱点。在他看来,英特尔的芯片太耗能。在他的创业公司 Rex Computing 中,Sohmers 正在研究的另一种方式来设计芯片,仅需使用英特尔......关键字:
作为一名在嵌入式行业摸爬滚打许久的老鸟,回想自己的经历之路,那么漫长可又仿佛近在眼前。――此文仅献给那些刚刚踏上硬件之路和还在徘徊的同学们,在此我简要的记录了我的学习经历和其间自己所获的一些心得,以帮助初学者少走弯路。......关键字:
国产CPU已经有不少,但能跑Windows的国产高性能CPU还真不多。不过,到明年我们或许就能看到一款真正给力的产品了。......关键字:
神经形态芯片(neuromorphics)被设计专门用于模仿人类大脑,他们可能很快取代CPU。......关键字:
最近英特尔对5个CPU常识进行了科普,还号称99%的人不敢说全懂,言下之意就是这5个常识不仅非常重要,而且不少人可能不认识或者存在误区。......关键字:
我 要 评 论
热门关键词生产干货满满的科技视频投稿:93粉丝:9.0万未经作者授权 禁止转载
看过该视频的还喜欢miniOFF对文章打分
谷歌硬件工程师揭秘TPU为何会比CPU、GPU快30倍?
阅读 (54811) 评论 (27)
阅读 (20839) 评论 (12)
阅读 (18907) 评论 (6)
阅读 (54861) 评论 (27)
阅读 (43632) 评论 (6)
阅读 (40457) 评论 (3)
Advertisment ad adsense googles cpro.baidu.com

我要回帖

更多关于 为什么福睿斯那么便宜 的文章

 

随机推荐