互联网 已评论

摩尔定律发展瓶颈催生AI芯片的诞生

2019-1-8 18:05

  【天极网网络频道】前言:随着人工智能技术的迅速发展,对芯片算力的要求也越来越高,但是,摩尔定律的放缓甚至失效让芯片靠先进半导体工艺来提高芯片的性能的难度越来越大。近日,美国机器人制造专家Rodney Beooks,在谈到未来50年人工智能如何发展时称,摩尔定律尚未终结,但未来摩尔定律不会适用于每一项技术,这些技术不太可能继续呈现指数级增长。

  当前的科技界,摩尔定律不管用了吗?

  近年来,摩尔定律似乎已经走到了尽头,大部分人对它的前景不抱有乐观态度,业界唱衰声不断。近日,针对未来50年内的人工智能发展趋势,Medium专栏作者采访了美国机器人制造专家、斯坦福大学博士、麻省理工学院计算机科学和人工智能实验室(CSAIL)的前负责人罗德尼·布鲁克斯(Rodney Brooks)。在谈到未来50年人工智能如何发展时,罗德尼·布鲁克斯称摩尔定律尚未终结,但未来摩尔定律不会适用于每一项技术,这些技术不太可能继续呈现指数级增长。

美国机器人制造专家罗德尼·布鲁克斯(Rodney Brooks)

  何为摩尔定律?

  Rodney Brooks谈到的摩尔定律,是由英特尔公司创始人之一戈登·摩尔(Gordon Moore)在1965年提出的。其内容为:当价格不变时,集成电路上可容纳的元器件的数目,约每隔18-24个月便会增加一倍,性能也将提升一倍。换言之,每一美元所能买到的电脑性能,将每隔18-24个月翻一倍以上。这一定律揭示了信息技术进步的速度。尽管这种趋势已经持续了几十年,摩尔定律依然被认为是一个推测,而不是一个物理或自然法。

  在1986年到2003年之间,半导体行业一直遵循着摩尔定律发展,芯片做的越做越小,单位面积的晶体管数量越来越多,功耗越来越低,价格也越来越便宜。在2003年之后,凭借着多核的设计以及半导体工艺水平的提高,芯片的性能仍然保持提升,但是摩尔定律却很明显的开始放缓。

英特尔公司创始人之一戈登·摩尔(Gordon Moore)

  AI芯片各具怎样的优势?

  如今,摩尔定律在芯片产业遭遇到了技术与经济上的双重挑战,处理器性能的增长速度越来越慢,然而人们对于计算能力、计算功耗和计算成本等都提出了更高的要求,特别是在人工智能、大数据等新的应用兴起之后。但是摩尔定律放缓的现实让芯片依靠先进半导体工艺,去提升芯片的性能变得愈发艰难。因此,无论是传统芯片企业还是科技巨头都开始相继研发AI芯片,这就促使了新的芯片类型和技术不断出现。

  事实上,目前的AI芯片并没有一个明确的定义。一般来说,面向人工智能应用的芯片都可以称为AI芯片。但是从技术架构来看,AI芯片可以分为通用性芯片(GPU)、半定制化芯片(FPGA)、全定制化芯片(ASIC)、类脑芯片四大类。

  GPU(图形处理器),又称视觉处理器,其用途是将计算机系统所需要的显示信息进行驱动,并向显示器提供扫描信号,控制显示器的正确显示,是连接显示器和个人电脑主板的重要原件,也是”人机对话“的重要设备之一。GPU善于处理图像领域的运算加速。但是GPU无法单独工作,必须由CPU进行控制调用才能工作。在CPU单独工作时,可以处理复杂的逻辑运算和不同的数据类型,但是在需要大量的处理类型统一的数据时,则需要调用GPU进行并行计算。

  FPGA(现场可编程门阵列),FPGA是用硬件实现软件算法,所以在实现复杂算法方面有一定的难度,价格相对较高。对比FPGA和GPU可以发现,FPGA缺少内存和控制所带来的存储和读取部分,速度可以更快。同时,因为缺少读取的作用,所以功耗低。FPGA综合了CPU和GPU各自的优势。

  ASIC(专用集成电路),是为实现特定要求而定制的专用AI芯片。不同于GPU和FPGA的灵活性,定制化的ASIC一旦制造完成就不能更改,因此初期成本高、开发周期长。因为ASIC是定制化的,所以与GPU和FPGA相比,在性能和功耗上存在着较大的优势。

  类脑芯片是一款模拟人类大脑的新型芯片编程架构,这一系统可以模拟人脑功能进行感知、行为和思考能力。

  写在最后:

  当前,人工智能技术的应用场景已经开始向移动设备转移,例如自动驾驶、人脸识别等。而AI芯片必须要达到更高的性能、更高的效率,才能完成人工智能技术从云端到终端的转移。

  摩尔定律也许很快就会消失,但科技进步的不会停滞。目前,从芯片发展的大趋势来看,现在AI芯片还处于初级阶段。无论是科研还是产业应用都存在着巨大的前景。

#+1你赞过了
人已赞
#
分享
查看更多内容

取消

  • #
  • #
  • #

©2023 天极网旗下网站

#
第三方账号登录
X
发布