人工智能所需的计算量太大以至于阻碍了其更新的进度

导读 新时代,高科技越来越发达。朋友们读了很多关于科技的重要新闻。我们也应该在生活中使用很多这些高科技的东西。朋友应该注意什么?今天,我

新时代,高科技越来越发达。朋友们读了很多关于科技的重要新闻。我们也应该在生活中使用很多这些高科技的东西。朋友应该注意什么?今天,我想和大家分享一条关于科技的知识。我希望你会喜欢它。

欧洲一家大型连锁超市在2019年初引入了人工智能(AI)。该公司使用人工智能来预测客户每天会在不同的商店购买哪些产品,从而有助于减少昂贵的产品浪费并保持库存。

该公司使用采购数据和简单的统计方法来预测销售。此外,除了当地天气、交通状况、竞争对手动向等其他信息外,深度学习的引入加速了AI近年来的显著进步,深度学习的引入将错误率提升至75%。减少了。

这正是我们期望人工智能削减成本的地方。但是有一个很大的陷阱。新算法需要大量的计算,所以公司最终决定不使用它。

麻省理工学院表示:“简单来说,除非云计算的成本降低,或者算法变得更加高效,否则不应该进行大规模部署。”收集此类案例研究的研究员Niall thompson说。请注意,汤普森没有透露公司名称。

汤普森指出,这个案例凸显了AI及其用户面临的紧迫问题。近年来,人工智能的发展取得了快速进步,创造了超越人类的游戏、友好的个人助理以及在繁忙道路上自动驾驶汽车。然而,能否继续取得这样的进展取决于能否在这个问题上持续投入更多的计算资源。

在一篇新论文中,汤普森和其他团队认为,如果我们继续取得这些进步,我们将不会或很快无法以同样的速度提高我们的计算能力。这可能会扼杀计算机视觉、翻译和语言理解领域的进一步发展。

计算量急剧增加

在过去的十年里,人工智能所需的计算量急剧增加。2012年,当深度学习的热潮开始时,多伦多大学的一个团队用了两个GPU,在五天内创造了一个革命性的图像识别算法。2019年,谷歌和卡内基梅隆大学的研究人员在6天内开发出了一种更好的图像识别算法,使用了大约1000个特殊芯片,性能超过了早期的GPU。

本文就为大家讲解到这里了。
版权声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时间联系我们修改或删除,多谢。