新AI硬件加速器的爆炸式增长推动AI发展
2019/7/12 10:44:07

专业的硬件平台是人工智能、机器学习和深度学习的未来,也是我们所生活的云到边缘世界的每一项任务的未来。  人工智能的快速发展正在催生一种新型的机器学习和深度学习的硬件加速器。  一些人把这称为“寒武纪大爆发”,这是对当前狂热创新时期的一个恰当比喻。它指的是大约5亿年前的一段时期,基本上所有多细胞动物的生物“身体结构”都是在那时首次出现的。从那时起,这些生物——包括我们自己在内——开始分散开来,占领、开发并彻底改变地球上的每一个生态位。  创新的人工智能硬件加速器架构的范围正不断扩大。虽然您可能认为图形处理单元(GPU)是主要的人工智能硬件架构,但这远非事实。在过去几年中,无论是初创企业还是老牌芯片供应商都推出了令人印象深刻的新一代硬件架构,这些架构针对机器学习、深度学习、自然语言处理和其他人工智能工作负载进行了优化。  除了新一代的GPU之外,这些新的AI优化芯片组体系结构中最主要的是神经网络处理单元( NNPUs )、现场可编程门阵列( FPGAs )、专用集成电路( ASIC )和各种被称为神经突触结构的相关方法。正如Ars Technica上的一篇文章所指出的,今天的人工智能市场没有相当于英特尔x86 CPU的硬件单一文化,而x86 CPU曾经主宰着桌面计算领域。这是因为,这些新的人工智能加速器芯片架构正在适应迅速发展的云到边缘生态系统(如计算机视觉)中高度特定的角色。  AI加速器芯片的发展  要了解AI加速器芯片的快速发展,最好将重点放在市场机遇和挑战上,如下所示。  AI层  要了解人工智能加速器是如何发展的,先看看边缘生态系统,在那里新的硬件平台正在被优化,以实现移动、嵌入式和物联网设备的更大自主性。除了智能手机嵌入式人工智能处理器的激增之外,这方面最值得注意的是人工智能机器人技术的创新,它正在渗透到从无人驾驶汽车到无人驾驶飞机、智能电器和工业物联网的所有领域。  在这方面最值得注意的进展之一,是英伟达(Nvidia)对其Jetson Xavier AI系列芯片(SOCs)上的人工智能系统的最新增强。NVIDIA发布了Isaac软件开发工具包,以帮助构建在其专用机器人硬件上运行的机器人算法。  Jetson Xavier芯片反映了智能机器人的复杂性,由六个处理单元组成,包括512核的Nvidia Volta Tensor Core GPU、八核的Carmel Arm64 CPU、双Nvidia深度学习加速器以及图像、视觉和视频处理器。这些让它可以处理数十种算法,帮助机器人自主感知环境,有效响应,并与人类工程师一起安全的操作。  人工智能任务  AI加速器已经开始渗透到分布式云到边缘、高性能计算、超聚合服务器和云存储体系结构中的每一层。所有这些领域都有源源不断的新硬件创新,以支持更快速、更高效和准确的人工智能处理。  人工智能硬件创新正在进入市场,以加速这些不同应用环境的特定数据驱动的任务。市场上无数的人工智能芯片组架构反映了机器学习、深度学习、自然语言处理和其他人工智能工作负载的不同范围,从存储密集型到计算密集型,涉及到不同程度的设备自主性和人与人之间的互动。  为了解决AI芯片组用于支持的各种工作负载,供应商在其产品组合中甚至在特定的嵌入式AI部署中混合了各种技术,例如驱动智能机器人和移动应用的SOC。  Intel的Xeon Phi CPU架构已经被用于加速人工智能任务。但是英特尔认识到,如果没有专门的AI加速器芯片,它将无法跟上时代的步伐,因为这些芯片让它能够与Nvidia Volta (在GPU中)以及大量生产NNPUs和其他专门AI芯片的厂商正面竞争。因此,英特尔现在有一个产品团队正在开发一个新的GPU,将在未来两年内发布。  与此同时,它继续通过AI优化的芯片组对下面几种架构类别进行风险对冲:神经网络处理器(Nervana),FPGA(Altera)

下一页
返回列表
返回首页
©2025 智能硬件世界----智能硬件产业门户网站 电脑版
Powered by iwms