有没有可能一些引导式人工智能的例子并没有我们想象的那么聪明?称之为人工智能。一群计算机研究生报告说,有可能人工智能的一些实例,仔细研究了几十种被称为人工研究里程碑的信息,并没有我们想象的那么聪明?称之为人工智能。一组计算机研究生报告说,仔细研究几十种信息检索算法,这些算法被称为人工研究的里程碑,实际上远没有声称的革命性。实际上,那些算法中使用的AI通常只是对之前建立的套路进行微调。
麻省理工学院的研究生研究员戴维斯布拉洛克(Davis Blalock)表示,在他的团队研究了81种开发神经网络的方法后,这种方法被普遍认为优于早期的研究结果,团队无法确认是否实际上有任何改善。
布拉克说,“已经收到了五十篇论文。显然,目前的水平还不清楚。”
在过去的十年中,人工智能的进步很大程度上得益于硬件的提升,如图形处理器、计算机处理单元和摄像头,使得在复杂的搜索项目、面部识别、摄影、语言翻译和语音识别方面实现指数级增长和突破的虚拟现实游戏的视觉效果越来越优秀。当然算法的改进也是有帮助的。
但麻省理工团队表示,至少人工智能算法的一些改进是虚幻的。
他们发现,例如,通过微调长期存在的人工智能算法,旧程序可以在本质上与高度吹捧的“新改进”程序一起使用。其实很多时候,新的AI模型还不如旧的。
《103010》杂志的一篇评估这项研究的文章引用了对搜索引擎中使用的信息检索算法的元分析,直到2019年,但发现“最高分实际上是在2009年创下的”。针对服务使用的神经网络推荐系统的另一项研究确定,在几年前设计的简单算法上,所使用的七个过程中有六个未能得到改进。
Blalock指出了比较算法的技术不一致性,因此一种方法优于另一种方法的说法的准确性仍有待商榷。
事实上,根据麻省理工学院一位计算机科学家的说法,在过去十年中,人工智能在一些领域明显缺乏重大进展,这归因于无法正确比较和评估竞争方法。"这是一把旧锯子,对吗?"顾问约翰古塔格博士说。如果你不能衡量一件事,就很难把它变得更好。"
卡耐基梅隆大学的计算机科学家济科科尔特推测,给一种新算法命名,比仅仅修补和调整旧的、已建立的方法有更大的动机和社会回报。
他研究的是图像识别模型,这个模型被编程用来抵抗黑客所谓的对抗攻击。这种攻击使用巧妙改变的代码来绕过系统安全。一种叫做投影梯度下降(PGD)的早期方法可以通过训练人工智能系统来区分真实和虚假的代码示例,从而抵御这种攻击。它被认为是一种可靠的方法,但据说它被更新更好的协议所绕过。然而,Kolter的研究小组发现,在对旧的PGD方法进行简单调整后,其有效性几乎与新方法相同。
“显然,PGD实际上是正确的算法,”科尔特说。“很明显,人们希望找到过于复杂的解决方案。”
标签:
免责声明:本文由用户上传,如有侵权请联系删除!