刘伯温资料,刘伯温资料特码,刘伯温资料大全,刘伯温资料免费大全,www.412999.com

返回首页
当前位置: 主页 > 刘伯温资料特码 >

NVIDIA抨击会话人工智能培训的记录

时间:2019-10-03 13:17
  

  人工智能(AI)似乎正在侵入我们生活的方方面面,从支持部分和全部自动驾驶汽车,到为我们使用的搜索引擎提供动力,以及更平凡的任务,例如在智能手机上运行算法以优化电池寿命。人工智能可用于增强我们每天执行的许多任务,而NVIDIA希望借助其特斯拉GPU加速器。

  对于提升成熟的一个重要领域是会话AI。虽然今天的数字助理可以与他们的人类操作员“交谈”,但他们的语音表现和理解能力往往是笨拙的,而不是完全像人一样。这就是NVIDIA在使用变形金刚双向编码器表示(BERT)语言模型的会话AI方面取得突破的地方。

  不可否认,NVIDIA拥有一些强大的处理能力,可以让大公司为全球客户提供最先进的语言理解。对于BERT培训,NVIDIA部署了一个DGX SuperPOD,它由92个NVIDIA DGX-2H系统组成,配备了总共1,472个Tesla V100GPU。

  凭借这种强大的功能,NVIDIA能够在短短53分钟内完成BERT-Large培训。从正确的角度来看,BERT-Large培训绩效通常以天为单位进行衡量。此外,马会图库开奖直播,NVIDIA表示它能够显着改善推理时间,将BERT-Base SQuAD数据集推断从40毫秒减少到仅2.2毫秒。据NVIDIA称,在实时应用方面,任何不到10毫秒的时间都是可取的。

  那么,这对我们这个最终用户意味着什么呢?嗯,这意味着我们将有更好的表现和更智能的AI聊天机器人,在输入请求时更相关的搜索结果,以及像Alexa,Siri,Cortana和Google Assistant这样的数字助理可以在“思考”时处理我们的请求更像是人类。这是否意味着现实生活中的JARVIS很快就能掌握在我们手中?我们只需看看......

  毫不奇怪,微软是NVIDIA对话人工智能进步的早期受益者之一。“通过与NVIDIA的密切合作,Bing进一步优化了使用NVIDIA GPU的流行自然语言模型BERT的推理,这是Azure AI基础设施的一部分,这导致Bing在去年部署的搜索质量排名最大,”Rangan Majumder说道。 ,团队项目经理,微软Bing。

  “与使用基于CPU的平台相比,使用Azure NVIDIA GPU进行推理时,我们实现了两倍的延迟减少和五倍的吞吐量提升。”

  Copyright © 威智网 文章均来自网络,如有侵权请联系我们删除 联系

------分隔线----------------------------
最新文章
最最快开奖结果| 香港挂牌彩图期期更新| 九龙老牌图库印刷彩图| 平特王日报全年资料| 香港正版挂牌全篇每期| 澳门赌博论坛| 香港最快开奖现场直播开奖记录| 东方心经满天星开奖网| 雷锋论坛九龙老牌图库| 环球博彩网|