为节省时间和资源,IBM要研发高速易存储芯片
人工智能有望进入飞速学习模式。
为了让人工智能系统无所不能,研发者们通常会赋予人工智能系统深层神经网络算法。其实这并不是很麻烦,麻烦的是培训人工智能需要使用多台高性能超级计算机或者是耗费大量的时间。现在,这个麻烦似乎有望解决。
最近,有消息称,IBM的 T.J. Watson 研究中心的科学家们想出了一个办法,他们希望用大量的“电阻处理单元”,即结合 CPU 和非易失性存储器的理论芯片,以减少人工智能系统的学习时间和降低对计算机性能的要求。此外,这种芯片还可以加快数据的传输速度,让人工智能系统在最短的时间里完成对所有的世界语言之间的语音识别和翻译。
像谷歌的 DeepMind 或者是 IBM 的 Watson 这样的现代神经网络,它们要执行的任务以数十亿计,对 CPU 内存要求非常的高。如果能成功研发一种新型芯片,把大量的电阻式 RAM 直接放入 CPU 中,将数据永久存储,在速度上也不比 DRAM 慢的话,就有可能实现3 万倍的加速,极大的减少训练神经网络的时间和对计算机资源的需求,将以前需要在有数千台机器的数据中心培训几天的项目,在几个小时的时间里快速完成。
现在这种芯片还在研发阶段,一些技术之外的东西,像是电阻式 RAM也还没有到商业化的地步,想要让这种芯片普及使用可能还需要一段时间。但是,构建快速的本地内存芯片真的对发展人工智能技术有很大的帮助,因为只有为研发节省更多时间和资源,才可以去做更多有用的事情。
最后,记得关注微信公众号:镁客网(im2maker),更多干货在等你!
硬科技产业媒体
关注技术驱动创新