Nvidia探索将多GPU封装到一块轻松打破旧架构极限
商业计算、可选研究、以及4K多屏游戏等需求,不断推升着对现代GPU的性能需求。 根据一份近期的研究报告,NVIDIA认为正在迅速接近当前GPU架构模型的极限,因此需要寻找新的方法去攻坚。 当前这个想法仍处于模拟阶段,但文中提到的“多芯片模块GPU”(MCM-GPU)的概念,有望最终将多颗GPU模块整合到一处。
在意识到NVIDIA将很快难以通过当前架构榨取GPU性能之后,亚利桑那州立大学、英伟达、德州大学奥斯汀分校、以及巴塞罗那超算中心携手展开了研究。
此前,厂商还可以通过在每次制程迭代时堆积更多的流处理器来提升GPU性能。但遗憾的是,在单一模块中塞入更多晶体管的方法,已经变得越来越困难。
以NVIDIA V100 GPU为例,其已经需要代工厂商(台积电)将制程推到 12nm 的极限。此外,制造规模越来越大的模块,其成本和相关问题也不可忽视(比如因制造错误遇到的数量减少)。
虽然NVIDIA可以通过将多颗GPU装在一块 PCB 上的方式来提升显卡性能(比如Tesla K10 和 K80),但当前仍有一些未能解决的问题 —— 比如跨多GPU的任务分配就需要编程来提升硬件效率。
于是研究人员们另辟蹊径,决定在封装技术上寻找新方法,让 NVIDIA 可以将多个GPU模块(GPMs)封装到一块。这些 GPMs 比当代GPU要小一些,制造起来也更容易和便宜。
尽管人们对其性能仍有疑问,但研究人员声称近期基板技术的发展(PDF)已经能够帮助其部署一种快速、强健的模块通信互联架构。从理论上来讲,其带宽可达数 TB/s 。
在NVIDIA内部GPU模拟中,研究团队将 MCM-GPU 堆到了256组 SMs,而Pascal架构仅为56组SMs 。然后团队基于当前架构进行了预测,结果显示 MCM-GPU 可提速 45.5% 。
此外,在同一板子上进行的多GPU性能对比表明,MCM-GPU有26.8%的领先优势。最后,有消息称AMD公司也有类似的点子(基于Navi GPU)。