最大的优势不在于chip,在于与TensorFlow 的深度集成,在于软件的full stack,性能对于g来说够用最好,非要全方位超越gpu超越各种nn处理器没有必要。
TPU本质上还是ASIC,还是面向某种计算框架的协处理器,虽然有几条指令。寒武纪扩展性通用型(Nn领域内)都要强很多,指标上也好看很多。但是与现有主流nn计算框架的兼容性或者支持程度目前还没有相关信息,寒武纪定位应该是更偏向一款IP,而不是面向某个框架专门定制的协处理器。
两者定位不同。
深度学习加速芯片主要有四种,按灵活易用排CPU>GPU>FPGA>ASIC,效率则是相反的(还有DSP,不过个人不太了解)。谷歌这次的TPU属于ASIC,针对特定算法优化可以达到很高的效率,缺点是灵活性较差,只支持8bit预测,无法训练。而且应用面太窄量做不上去成本就降不下来。芯片在产量趋于无穷大的时候成本会趋于沙子价,但产量小的时候固定成本会很高。
实际上TPU是几年前的技术,很早就看到过介绍TPU的新闻稿。但当时几乎没有细节,唯一能得到信息就是谷歌做了个芯片……
那么谷歌在这个时间点上放出这篇论文并大力宣传是什么用意呢,我猜大概有三个可能:
1 内部已经有更好的技术,过时的技术放出来做宣传。
几年过去了谷歌几乎肯定有更好的技术,TPU公开也不会给竞争者学走什么东西。这时候论文发出来既可以抬股价又可以吸引人才。
2 和nvidia杀价
nvidia盈利大涨,股票一年翻了4倍。这个钱很大一部分来自各大公司的硬件采购。nvidia现在垄断了服务器GPU市场如日中天,定价底气很足。谷歌搞TPU不一定比GPU经济(因为量小固定成本高),但是放出来可以打压一下nvidia,增加议价能力。
nv的老板黄仁勋第二天就发了一篇回击的文,表示根核弹比起来TPU就是渣。但是仔细一看两边的文章都有点论据不足,偷换概念。只能说全是套路。
3 战略性忽悠
这么多年下来很多人都发现了,谷歌发论文经常是有战略目的的,有的时候会故意放一些烟幕弹来误导别人的研究方向。有可能是谷歌发现TPU这个路线做不下去了所以忽悠别人跳坑。