1 月 22 日消息,AMD 近日开始量产其最新一代人工智能和高性能计算(HPC)加速器 Instinct MI300X,并率先交付合作伙伴 LaminiAI 使用。LaminiAI 将采用 MI300X 加速器运行大型语言模型(LLM),以满足企业用户的需求。
LaminiAI 与 AMD 已有多年合作,因此优先获得 MI300X 的供货并不意外。该公司 CEO Sharon Zhou 在社交媒体上宣布了这一消息,LaminiAI 已经收到了多台配备 8 个 Instinct MI300X 加速器的机器,Sharon Zhou 表示:“首批 AMD MI300X 已经投入生产,LaminiAI 的下一批 LLM 集群即将上线。”
据了解,MI300X 是 AMD Instinct MI300 系列的高性能版本,主打 AI 和 HPC 计算,其放弃了 x86 CPU 内核,而是搭载更多的 CDNA 3 计算单元,总数达到 304 个,远高于 MI300A 的 228 个。此外,MI300X 还配备了 192GB HBM3 高速内存,峰值带宽高达 5.3 TB / s。
根据 AMD 官方性能测试,MI300X 的表现优于市面上已有的 Nvidia H100 80GB,甚至有可能对即将上市的 H200 141GB 构成威胁。目前,Meta 和微软等巨头客户已采购了大量 AMD Instinct MI300 系列产品,LaminiAI 则是首家公开使用 MI300X 的公司。
最新评论