如影随形

影子是一个会撒谎的精灵,它在虚空中流浪和等待被发现之间;在存在与不存在之间....

您现在的位置是:主页 > 必赢电子游戏 >

打造 “CPU+” 异构计算平台,Arm灵活应对各类A

发布时间:2024-12-11 17:33编辑:[db:作者]浏览(123)

    对人工智能(AI)而言,任何单一硬件或盘算组件都无奈成为合适各种任务负载的全能处理计划。AI贯串从云端到边沿侧的全部古代盘算范畴,为了满意差别的AI用例跟需要,一个能够机动应用CPU、GPU跟NPU等差别盘算引擎的异构盘算平台必弗成少。依靠于Arm CPU的机能、能效、遍及性、易于编程性跟机动性,从小型的嵌入式装备到年夜型的数据核心,Arm CPU曾经为种种平台上的AI减速奠基了基本。就机动性而言,这对生态体系年夜有裨益的三个重要起因是,起首,Arm CPU能够处置普遍的AI推理用例,此中很多用例平日用于数十亿台装备,比方当今的智妙手机、云跟数据核心。不只如斯,除了推理之外,CPU还常常用于技巧栈中的数据预处置跟编排等其余义务。其次,开辟者可能在更多品种的数据格局中运转更普遍的软件,而无需构建多个版本的代码。最后,CPU的机动性使之成为减速AI任务负载的幻想东西。供给多样性跟抉择,助力行业机动安排AI盘算除了CPU产物组合外,Arm盘算平台还包含GPU跟NPU等AI减速器技巧,很多市场都在将这些技巧与CPU停止集成。在挪动端范畴,Arm终端盘算子体系(CSS)包括Armv9.2 CPU 集群,并与Arm Immortalis-G925 GPU 集成,可为种种AI用例供给减速功效,包含图像宰割、工具检测、天然言语处置跟语音转文本等用例。在物联网(IoT)方面,Arm Ethos-U85 NPU可与须要减速AI机能的基于Arm Cortex-A的体系一同计划,比方工场主动化等场景。别的,除了Arm本人的减速器技巧外,配合搭档借助Arm的CPU机动定制存在差别化的芯片处理计划。比方,NVIDIA用于AI基本设备的Grace Blackwell 跟Grace Hopper超等芯片均采取了Arm CPU跟NVIDIA的AI减速器技巧,从而明显晋升AI机能。NVIDIA Grace Blackwell超等芯片将NVIDIA的Blackwell GPU架构与基于Arm Neoverse的Grace CPU相联合。Arm奇特的产物组合使NVIDIA可能停止体系级计划优化,与NVIDIA H100 GPU比拟,其能耗下降了25倍,单个GPU机能进步了30倍。详细来说,得益于Arm Neoverse平台的机动性,NVIDIA可能实现自有的高带宽NVLink互连技巧,并晋升CPU、GPU跟内存之间的数据带宽跟耽误。Arm努力于经由过程Arm片面计划生态名目,为全部生态体系注入AI减速的机会。经由过程该生态名目,开辟者能够更快拜访Arm CSS技巧,赋能软硬件技巧提高,以此驱动AI跟芯片翻新,并放慢开辟跟安排AI优化的芯片处理计划。Arm架构满意AI所需的奇特机动性Arm CPU计划所存在机动性要害在于Arm当先的架构。它供给了一个能够与AI减速器技巧严密集成的基本平台,并支撑从128位到2048位的种种向量长度,能够在很多差别的数据点上轻松履行多个神经收集。Arm架构的机动性为全部芯片生态体系供给了多样化的定制机遇,Arm始终努力于辅助配合搭档更快地构建本人的差别化芯片处理计划。这种奇特的机动性也使Arm可能一直停止架构翻新,按期推出要害指令跟功效来减速AI盘算,进而惠及全部生态体系,此中包含当先的芯片配合搭档,以及在Arm盘算平台上构建利用的2,000多万软件开辟者等。这所有始于Armv7架构,该架构引入了高等单指令少数据(SIMD)扩大,比方Neon技巧,这是Arm初次涉足呆板进修(ML)任务负载。在从前多少年中,该架构一直加强,Armv8中增添了向量点积跟矩阵乘法特征,之后在Armv9中又引入了Arm SVE2跟新的Arm SME技巧,为普遍的天生式AI任务负载跟用例进步了盘算机能并下降了功耗。与AI减速器技巧无缝集成Arm是AI时期的盘算平台,推进了连续的架构翻新,以满意速率更快、互动性更好跟沉迷感更强的AI利用的开展。Arm CPU作为机动处置AI任务负载的异构盘算方式中的一局部,能够无缝加强跟集成GPU跟NPU等AI减速器技巧。Arm CPU是处置浩繁AI推理任务负载的适用之选,凭仗杰出的机动性,它可能与减速器技巧无缝集成,打造更强盛、更高机能的AI功效,精准满意特定用例跟盘算需要。对Arm的技巧配合搭档而言,杰出的机动性有助于实现丰盛的定制抉择,使他们可能为AI任务负载构建完全的芯片处理计划。   申明:新浪网独家稿件,未经受权制止转载。 -->