在其生命周期中,每辆汽车平均排放约126,000磅温室气体二氧化碳(CO2)。将这些排放与人工智能(AI)技术留下的碳足迹进行比较。2019年,培训顶级人工智能产生了超过625,000磅的二氧化碳排放量。从那以后,人工智能的能源需求只会变得更大。
为了减少AI的能源足迹,圣路易斯华盛顿大学McKelvey工程学院的CliffordW.Murphy教授ShantanuChakrabartty报告了一种新型计算机内存原型。研究结果发表在《自然通讯》杂志上。
共同第一作者是Chakrabartty研究小组的成员DarshitMehta和MustafizurRahman。
当计算机在学习问题的最佳解决方案(例如正确识别人脸或翻译语言)时搜索不同的配置时,会消耗不成比例的能量来训练AI。
由于这种能源消耗,大多数公司负担不起从头开始训练新的人工智能。相反,他们对它进行“足够”的训练,并可能针对不同的应用调整一些参数。或者,如果一家公司足够大,Chakrabartty说,他们会将数据中心转移到更方便的海滨物业。
所有这些能源使用都会产生大量热量,并且需要大量的水来保持凉爽。“实际上,他们正在沸腾一个湖,以建立一个神经网络,”他说。
Chakrabartty的研究小组没有沸腾,而是转向量子隧穿。
当计算机搜索答案时,系统会使用电力来“打开”和“关闭”数十亿个微型开关,以寻求解决问题的最短路径。一旦开关反转,能量就会被释放出来,并且额外的能量用于将开关保持在适当位置或将其作为记忆保持。正是这种电力的使用造成了如此大的碳足迹。
Chakrabartty没有将源源不断的能量流输入内存阵列,而是让物理内存做它在野外所做的事情。
“电子自然希望移动到最低的稳定状态,”普雷斯顿M.格林电气与系统工程系研究和研究生教育副院长Chakrabartty说。
电子使用尽可能少的能量来做到这一点。他利用物理定律为自己谋利。通过将解决方案(例如,将“水”这个词识别为“agua”)设置为稳定状态,电子在只需要一点点指导(即直接来自训练算法)的情况下,大部分情况下会自行隧道走向正确答案。
通过这种方式,自然法则规定电子将自行找到最快、最节能的途径来解决问题。在基态,它们被一个足够重要的势垒包围,电子几乎肯定不会隧道通过。
现代记忆通过记录其进入记忆的路径并在每个翻转的开关处使用能量来使用更强力的方法,而Chakrabartty的记忆学习设计让电子在没有太多干扰的情况下完成它们所做的事情,并且几乎没有任何额外的能量。
一旦他们到达最后的障碍,据说人工智能已经学到了一些东西。
“这就像试图记住一首歌,”他说。“一开始,你在寻找你的记忆,到处寻找这首歌。但是一旦你找到它,记忆就固定了,你就无法摆脱它。”
标签:
免责声明:本文由用户上传,如有侵权请联系删除!