美国硅谷创企 Cerebras Systems 推出了其新的 Wafer Scale Engine 2(WSE-2)处理器,该处理器为超级计算任务而构建,具有破纪录的 2.6 万亿个晶体管(市场上最大的 GPU 只有 540 亿个晶体管)和 85 万颗 AI 优化内核,大小类似餐盘,采用台积电的 7nm 工艺。
这是 Cerebras 第二次使用整个 300mm 晶圆制造单颗芯片。这么大的晶圆一般会被切割成数百个独立芯片,Cerebras 却将其制成一个芯片。在庞大的体积之下,这种芯片相比同等算力的 GPU 集群,功耗和所占空间更小。
▲WSE-2 与最大的 GPU 尺寸对比
Cerebras Systems 位于美国加利福尼亚州,创建于 2016 年。该公司专注于深度学习的计算机系统。目前该公司在硅谷、多伦多和东京都有办事处,2019 年 11 月获得了 4.75 亿美元的 E 轮融。融资后,Cerebras Systems 估值约为 24 亿美元。
安德鲁・费尔德曼(Andrew Feldman)是 Cerebras 的联合创始人兼首席执行官,他具有斯坦福大学学士学位和工商管理硕士学位,曾经创办了专注于超高密度计算机服务器业务的 Seammicro 公司。Seammicro 在 2012 年被 AMD 以 3.57 亿美元价格收购。
▲Cerebras 联合创始人兼首席执行官 Andrew Feldman
2019 年,Cerebras 曾发布第一代 WSE 芯片,这款芯片具有 40 万个内核和 1.2 万亿个晶体管,使用台积电 16nm 工艺制程。
WSE-2 仍由台积电代工,但采用更加先进的 7nm 工艺。与第一代芯片相比,WSE-2 的晶体管数、内核数、内存、内存带宽和结构带宽等性能特征增加了一倍以上。由于 WSE-2 采用了 7nm 工艺制程,电路之间的宽度仅有七十亿分之一米。
如此庞大的芯片尺寸带来了 WSE-2 的大幅性能提升,该芯片的各类性能参数超出竞品几个数量级,能够极大地缩减 AI 训练时间。
相比竞品 GPU,WSE-2 芯片的内核数量是其 123 倍,芯片内存是竞品的 1000 倍以上,内存带宽是 12000 倍,结构带宽也增加了 45000 倍。
▲WSE、WSE-2 和英伟达 A100GPU 性能参数对比
Feldman 指出,通过将芯片放大互连,就可以在芯片上保留大量数据。WSE-2 相对普通 GPU 集群,延迟和能耗都会比较低。普通 GPU 集群在提供相同的算力时,将会需要数十个机架,花费数个月进行配置和编程,功率将高达数百瓦。
WSE-2 相对 GPU 还有很多核心冗余,如果有内核发生故障,单独的故障内核并不影响芯片使用。而在台积电这样的晶圆代工厂中,很少出现连续的内核缺陷,因此 WSE-2 的良率较高。
国际调研机构 Moor Insights&Strategy 的分析师 Patrick Moorhead 认为,WSE-2 内核数量带来的性能确实对英伟达的 GPU 产生了一定挑战。但是英伟达的解决方案更加灵活,几乎可以安装在任何服务器机箱中。
Tirias Research 首席分析师 Jim McGregor 在一封电子邮件中写道,虽然对于数以百万的 AI 算法来说,Cerebras 不像英伟达一样全面,但是 Cerebras 的解决方案显然已经吸引到了许多客户。
从 2019 年交付 WSE 芯片起,在过去的一年里,已经有很多重量级用户使用了 Cerebras 的产品。
比如美国阿贡国家实验室、劳伦斯利弗莫尔国家实验室、匹兹堡超级计算中心、爱丁堡大学的超级计算中心、葛兰素史克、东京电子器件等。
全球制药巨头葛兰素史克的高级副总裁 Kim Branson 称赞到,Cerebras 增加了编码器模型的复杂性,将训练时间减少到之前的 1/80。
在美国最大的科学与工程研究室阿贡国家实验室,CS-1 芯片被用于癌症研究,将癌症模型的实验周转时间减少到 1/300 还少。
Feldman 说,Cerebras 将在明年公布产品在重型制造、制药、生物技术和军事等领域取得的成就。WSE-2 将被集成到 CS-2 超算系统中,在今年第三季度上市。