英伟达(Nvidia)周二宣布了其先进人工智能芯片的新配置,旨在加快生成式人工智能应用的速度。
英伟达负责超大规模和高性能计算的副总裁伊恩·巴克(Ian Buck)表示,新版本的Grace Hopper超级芯片提高了高带宽内存的容量,这将使该设计能够支持更大的人工智能模型。该配置经过优化,可执行人工智能推理功能,有效地为ChatGPT等生成式人工智能应用程序提供动力。
英伟达的Grace Hopper超级芯片设计将该公司的H100图形处理单元(GPU)与英伟达设计的中央处理器结合在一起。
巴克在与记者的电话会议上表示:“拥有更大的内存,可以让模型保持在单个GPU上,而不必需要多个系统或多个GPU才能运行。”
为能够生成类人文本和图像的生成式人工智能应用程序提供动力的底层人工智能模型的规模继续增长。随着模型尺寸的增加,它们需要更大的内存,以便在不连接单独的芯片和系统的情况下运行,这会降低性能。
巴克说:“额外的内存只会提高GPU的性能。”
Buck说,这种名为GH200的新配置将于明年第二季度上市。
英伟达计划销售两种版本:一种是包含两个芯片的版本,客户可以将其集成到系统中,另一种是结合了格蕾丝·霍珀(Grace Hopper)两种设计的完整服务器系统。