凭啥让M1芯片更快?苹果UMA内存解读!

2020-12-01
14:01:08
来源: 半导体行业观察


来源:内容由半导体行业观察(ID:icbank)编译自




howtogeek

」,谢谢。


苹果正在重新考虑笔记本电脑的内部组件应该如何存在和运行。通过在新Mac中使用M1芯片,苹果电脑拥有了新的“统一内存架构”(Unified Memory Architecture:UMA),它可以显着提高内存性能,这也是内存在Apple Silicon上的工作方式。


凭啥让M1芯片更快?苹果UMA内存解读!



Apple Silicon如何处理RAM




以防您还没有听说过该消息,我们重新说一下,Apple在2020年11月发布两千全新的Mac,包括新款的MacBook Air,MacBook Pro和Mac Mini,这些新设备都使用由Apple定制设计的基于ARM架构的处理器——M1。长期以来,人们一直期待着这种改变,这也是苹果十年来为iPhone和iPad设计基于ARM处理器的最高潮。



M1是片上系统(SoC),这意味着处理器中不仅有CPU,而且还有其他关键组件,包括GPU,I / O控制器,用于AI任务的Apple神经引擎,最重要的是,物理RAM也是封装中的一部分。需要明确的是,RAM与SoC的基本部分不在同一芯片上。相反,它位于上图所示的一侧。



向SoC添加RAM并不是什么新鲜事。智能手机的SoC可能包含RAM,并且苹果公司决定至少从2018年开始就将RAM模块放到一边。如果您查看iPad Pro 11的iFixit拆解,您会发现RAM也与A12X处理器并排放置。



现在不同的是,这种方法也适用于Mac,这是一种专为繁重的工作量而设计的成熟计算机。




基础知识:什么是RAM和内存?




RAM代表随机存取存储器。它是系统内存的主要组成部分,它是计算机当前正在使用的数据的临时存储空间。从运行操作系统所需的文件到您当前正在编辑的电子表格,再到打开的浏览器选项卡的内容,都可以是任何东西。


凭啥让M1芯片更快?苹果UMA内存解读!


当您决定打开一个文本文件时,您的CPU会收到这些指令以及要使用的程序。然后,CPU获取这些操作所需的所有数据,并将必要的信息加载到内存中。然后,CPU通过访问和操纵内存中的内容来管理对该文件所做的更改。



通常,RAM以上图这些细长棒的形式存在,可插入笔记本电脑或台式机主板上的专用插槽,如上图所示。RAM也可以是焊接在母板上的简单方形或矩形模块。无论哪种方式,用于PC和Mac的RAM传统上都是独立的组件,在主板上有自己的空间。




M1 RAM:分离的室友




因此,物理RAM模块仍然是单独的实体,但是它们与处理器位于同一绿色基板上。“大声呐喊,”我听到你说。“有什么大不了的?” 好吧,首先,这意味着更快地访问内存,这不可避免地提高了性能。此外,Apple正在调整系统中内存的使用方式。


凭啥让M1芯片更快?苹果UMA内存解读!


苹果将其方法称为“统一内存架构”(UMA)。基本思想是M1的RAM是处理器的所有部分都可以访问的单个内存池。首先,这意味着如果GPU需要更多的系统内存,则可以提高使用率,而SoC的其他部分则可以降低。更好的是,无需为SoC的每个部分分配部分内存,然后在处理器的不同部分的两个空间之间穿梭数据。相反,GPU,CPU和处理器的其他部分可以在相同的内存地址访问相同的数据。



要了解为什么这很重要,请想象一下视频游戏的运行方式。CPU首先接收游戏的所有指令,然后将GPU所需的数据卸载到图形卡。然后,图形卡将获取所有数据,并在其自己的处理器(GPU)和内置RAM中对其进行处理。



即使您具有集成显卡的处理器,GPU也会像处理器一样维护自己的内存块。他们俩都独立地处理相同的数据,然后在记忆体之间来回穿梭。如果您放弃了来回移动数据的要求,那么很容易看到将所有内容保存在同一虚拟文件柜中如何提高性能。



例如,以下是Apple在官方M1网站上描述其统一内存架构的方式:





M1还具有我们的统一内存架构或UMA。M1将其高带宽,低延迟内存统一到一个自定义封装中的单个池中。这就使得SoC中的所有技术都可以访问相同的数据,而无需在多个内存池之间进行复制。这极大地提高了性能和电源效率。影片应用程序更轻松。游戏更加丰富和详细。图像处理快如闪电。而且整个系统的响应速度更快。





不仅仅是每个组件都可以在同一位置访问相同的内存。Chris Mellor在The Register上指出,苹果在这里使用高带宽内存。内存距离CPU(和其他组件)更近,访问速度比通过Socket接口访问连接到主板的传统RAM芯片要快。




苹果并不是第一家尝试使用统一内存的公司




苹果并不是第一家提出这个解决方案的公司。例如, 大约六年前,NVIDIA开始为开发人员提供称为统一内存的硬件和软件解决方案。


凭啥让M1芯片更快?苹果UMA内存解读!


对于NVIDIA,统一内存提供了一个单一的内存位置,“可以从系统中的任何处理器访问”。在NVIDIA的世界中,就CPU和GPU而言,它们将在相同的位置存储相同的数据。但是,在后台,系统正在单独的CPU和GPU内存之间分页所需的数据。



据我们所知,Apple没有采取幕后技术。相反,SoC的每个部分都能够访问内存中数据的完全相同的位置。



Apple的UMA的底线是更快地访问RAM和共享内存池,从而提高了性能,从而消除了将数据移至不同地址的性能损失。


★ 点击文末

【阅读原文】

,可查看本文原链接。

*免责声明:本文由作者原创。文章内容系作者个人观点,半导体行业观察转载仅为了传达一种不同的观点,不代表半导体行业观察对该观点赞同或支持,如果有任何异议,欢迎联系半导体行业观察。


今天是《半导体行业观察》为您分享的第2510内容,欢迎关注。

推荐阅读




GPU决战新时代,本土厂商加速入局




光刻技术的历史与现状




英特尔史上最强的竞争对手,不是AMD!

半导体行业观察

凭啥让M1芯片更快?苹果UMA内存解读!



半导体第一垂直媒体




实时 专业 原创 深度


识别二维码

,回复下方关键词,阅读更多


存储|晶圆|华为

|FPGA|苹果|OLED|射频|封测


回复

投稿

,看《如何成为“半导体行业观察”的一员 》

回复

搜索

,还能轻松找到其他你感兴趣的文章!

凭啥让M1芯片更快?苹果UMA内存解读!


点击阅读原文,可查看本文


原文链接!

原创文章,作者:admin,如若转载,请注明出处:http://www.eefans.com/archives/169

发表评论

您的电子邮箱地址不会被公开。 必填项已用*标注