资讯详情
当前位置:首页 > 行业新闻 > 资讯详情

谷歌AI部门宣布发现新技术!

行业分类:业内资讯 发布时间:2019-07-17 11:35

谷歌的张量处理器(TPU)和英特尔的Nervana神经网络处理器等人工智能加速器硬件有望加速人工智能模型训练,但由于芯片的架构方式,训练管道的早期阶段(如数据预处理)并没有从提升中受益。

这就是为什么近日Google BrAIn (谷歌的人工智能研究部门)的科学家在一篇论文中提出了一种名为“数据响应”(data echoing)的技术。

TPU、Nervana与神经网络

TPU是一种高速定制机器学习芯片,最初是在2016年5月由该公司进行的 I/O 开发者大会上推出的。搜索、街景、照片、翻译,这些Google提供的服务,都使用了Google的TPU(张量处理器)来加速背后的神经网络计算。

据称,TPU与同期的CPU和GPU相比,可以提供15-30倍的性能提升,以及30-80倍的效率(性能/瓦特)提升。

TPU设计封装了神经网络计算的本质,可以针对各种神经网络模型进行编程。

英特尔则于今年1月的CES 2019展会上发布了Nervana系列神经网络处理器的最新型号NNP-I,这种芯片适用于企业级高负载推理任务的加速,计划于今年投入生产。

英特尔推出的Nervana神经网络处理器据称可以在训练任务上达到其竞争对手GPU的十倍速度。

Facebook是英特尔的合作伙伴之一,而7月3日,英特尔还宣布将与百度合作开发英特尔Nervana神经网络训练处理器(NNP-T)。这一合作将全新定制化加速器,以实现极速训练深度学习模型的目的。


免责声明:本文所用视频、图片、文字如涉及作品版权问题,请第一时间告知,我们将根据您提供的证明材料确认版权并立即删除内容。