AWS攜手NVIDIA 以超級晶片驅動雲端人工智慧、強化Amazon EC2執行個體
在此次re:Invent 2023大会上,AWS宣布与NVIDIA扩大合作,透过导入下一代GPU、CPU与人工智慧软体,推动生成式人工智慧创新成长。
其中,AWS将成为第一家具备全新多节点NVLink技术的NVIDIA GH200 Grace Hopper Superchip的云端服务供应商,并且强化Amazon EC2执行个体运算效能,并且让客户能扩展数以千计的GH200 Grace Hopper Superchip。
而在AWS云端服务托管的NVIDIA DGX Cloud,将能借由GH200 Grace Hopper Superchip与单一执行个体最大共享记忆体容量,推动自动生成式人工智慧应用,以及参数超过1兆个的大型语言模型训练。
另外,NVIDIA更与AWS合作进行Ceiba计划,预计打造世界上最快的人工智慧超级电脑,其中配备16384个NVIDIA GH200 Grace Hopper Superchip,能处理高达65exaflops的人工智慧运算效能,借此推动下一波自动生成式人工智慧创新。
AWS将推出三个全新Amazon EC2执行个体,分别包含由NVIDIA H200 Tensor Core GPU驱动、适用于大规模和尖端的生成式人工智慧和高效能运算工作负载的P5e执行个体,以及分别由NVIDIA L4 GPU和NVIDIA L40S GPU驱动的G6与G6e执行个体,适用于人工智慧微调、推论、图形和影片的工作负载等广泛应用,而后者更适合使用NVIDIA Omniverse开发3D工作流程、数位孪生与其他应用程式。
其他部分,AWS更透过NVIDIA NeMo框架训练下一代Amazon Titan大型自然语言模型,而亚马逊旗下机器人公司Amazon Robotics更透过NVIDIA Omniverse Isaac建置数位孪生环境,以便在实际部署于真实世界之前,先在虚拟环境中以自动化、最佳化和规划自主运作形式,借此确认整体运作没有问题。
《原文刊登于合作媒体mashdigi,联合新闻网获授权转载。》