Notebookcheck Logo

d-Matrix 推出的 Corsair C8 显卡在生成式人工智能工作负载中比 Nvidia 的 H100 GPU 快 9 倍

专为 ML 和推理设计(图片来源:d-Matrix)
专为 ML 和推理设计(图片来源:d-Matrix)
Corsair C8 AI加速器利用了d-Matrix专有的数字内存计算机(DIMC)技术。借助 256 GB LPDDR5 RAM 和额外的 2 GB SRAM 辅助的 2,048 个这样的 DIMC,单个加速器的速度可达 9600 TFLOPS。
AI

台积电警告说尽管台积电警告说,由于晶圆上芯片(CoWoS)封装能力不足,英伟达(Nvidia)的 H100 AI GPU 在未来 18 个月内仍将供不应求,但其他公司也看到了机会,纷纷介入并满足对生成式 AI 硬件的巨大需求。一家名为 d-Matrix 的新创公司就是其中之一。 微软它展示了其 Corsair C8 计算卡无与伦比的速度,据说其吞吐量是 Nvidia H100在生成式人工智能工作负载中的吞吐量是 Nvidia H100 GPU 的 9 倍。

这一惊人的速度是通过 d-Matrix 的数字内存计算机(DIMC)技术实现的。与 Nvidia 的 A100和 H100 GPU 专为更广泛的高性能计算任务而设计,而 d-Matrix 的 Corsair C8 显卡则专为生成式人工智能和推理工作负载而设计。单块 Corsair C8 卡集成了 2,048 个 DIMC 内核,分为 8 个芯片组,共有 1,300 亿个晶体管,还配备了 256 GB LPDDR5 内存,可轻松将整个人工智能模型装入内存。所有芯片通过 PCIe 5.0d-Matrix 还包括 2 GB SRAM,带宽为 150 TB/s。根据人工智能工作负载的不同,海盗船 C8 可提供 2400 到 9600 TFLOPS。

得益于优化的扩展能力和开源软件栈的无摩擦特性,d-Matrix 声称,与 Nvidia 的类似解决方案相比,Corsair C8 显卡集群的能效可提高 20 倍,延迟可降低 20 倍,成本可降低 30 倍。

 

在亚马逊购买由人工智能驱动的 Lumina 4K 网络摄像头

Please share our article, every link counts!
> Notebookcheck中文版(NBC中国) > 新闻 > 新闻档案 > 新闻档案 2023 09 > d-Matrix 推出的 Corsair C8 显卡在生成式人工智能工作负载中比 Nvidia 的 H100 GPU 快 9 倍
Bogdan Solca, 2023-09- 8 (Update: 2023-09- 8)