感谢IT之家网友 OC_Formula 的线索投递! IT之家 5 月 14 日消息,据 tom"sHardware 报道,在 I / O 会议上,谷歌发布了 Google Cloud 最新机器学习集群的预览版,该集群不仅旨在实现 9 exaflops 的峰值性能,而且使用 90% 的无碳能源来实现。它将成为世界上最大的公开机器学习中心。 新集群的核心是 TPU V4 Pod。这些张量处理单元是去年在 Google I / O 上宣布的,来自 Meta、LG 和 Salesforce 等公司的 AI 团队已经可以使用这些 pod。V4 TPU 允许研究人员使用他们选择的框架,无论是 Tensorflow、JAX 还是 PyTorch,并且已经使 Google Research 在语言理解、计算机视觉和语音识别等领域取得了突破。 基于谷歌俄克拉荷马州的数据中心,集群的潜在工作负载预计将相似,通过自然语言处理、计算机视觉算法和推荐系统领域的数据进行咀嚼。 对集群的访问以切片的形式提供,从四个芯片(一个 TPU VM)一直到数千个。 具有至少 64 个芯片的切片利用三维环形链路,为集体通信操作提供更高的带宽。V4 芯片还能够访问两倍于上一代的内存 —— 从 16 增加到 32GiB—— 并且在训练大型模型时将加速速度提高一倍。 谷歌研究和人工智能。高级副总裁 Jeff Dean 表示:"为了让先进的 AI 硬件更易于使用,几年前我们启动了 TPU 研究云 (TRC) 计划,该计划为全球数千名 ML 爱好者免费提供了 TPU 访问权限,他们发表了数百篇论文和开源 github 库,主题从《用人工智能写波斯诗歌》到《使用计算机视觉和行为遗传学区分睡眠和运动引起的疲劳》。Cloud TPU v4 的发布对于 Google Research 和我们的 TRC 计划来说都是一个重要的里程碑,我们很高兴能与世界各地的机器学习开发人员长期合作,共同使用 AI。" 谷歌的可持续发展承诺意味着该公司自 2017 年以来一直在将其数据中心的能源使用与古老的能源采购相匹配,并计划到 2030 年将其整个业务都用于可再生能源。V4 TPU 也比前几代更节能,每瓦产生的 FLOPS 是 V3 芯片的三倍。 对 Cloud TPU v4 Pod 的访问包括评估(按需)、抢占式和承诺使用折扣 (CUD) 选项,并提供给所有 Google AI Cloud 用户。