NVIDIA将为使用 RTX 40和RTX 30 GPU的Windows 11 PC带来高达5倍的AI加速

NVIDIA正在为数百万台由其最新RTX GPU提供支持的Windows 11 PC带来人工智能工作负载的巨大加速。
NVIDIA-TensorRT-LLM-For-Windows-PC-RTX-GPUs.png
继先前的公告之后,NVIDIA现在透露TensorRT-LLM正在添加到Windows 11中,并将在11月21日在最新驱动程序中发布时为超过1亿RTX用户启用。 这项消息是在Microsoft的Ignite大会上宣布的,这是一个讨论人工智能的未来以及随着我们的发展它将如何改变Windows生态系统的重要活动。
2023-11-15_2-11-09-1456x819.png

2023-11-15_2-11-15-1456x819.png
今天NVIDIA确认TensorRT-LLM AI加速将适用于所有有超过8GB VRAM的RTX台式机和笔记本电脑。 除了TensorRT-LLM之外,NVIDIA和Microsoft还带来了DirectML增强功能,以推动稳定扩散和Llama 2等流行的AI模型。
2023-11-15_2-11-17-1456x819.png

2023-11-15_2-11-19-1456x819.png
拥有支持TensorRT-LLM的NVIDIA RTX GPU意味着您可以在本地使用所有数据和项目,而不是将它们保存在云端。 这将节省时间并提供更精确的结果。 RAG或检索增强生成是通过使用本地化库来更快地获得AI结果的技术之一,该本地库可以填充您希望LLM经历的数据集,然后利用该LLM的语言理解功能为您提供准确的结果。
2023-11-15_2-11-38.png
NVIDIA表示TensorRT-LLM v0.6.0的效能提升了5倍,该版本将于本月稍后推出。 此外它还将支持其他LLM,例如Mistral 7B和Nemotron 3 8B。
2023-11-15_2-11-35.png
对于想要尝试最新版本的TensorRT-LLM的人,可以通过此处的官方Github链接进行安装,并且您还可以从NVIDIA的NGC资源取得最新的优化模型。

另一个关键更新是OpenAI,这是一种非常流行的基于人工智能的聊天API,具有广泛的应用程序,例如帮助处理文件、电子邮件、总结Web内容、数据分析等等。 再次强调,数据需要由用户手动上传或输入,因此对本地数据的存取相当有限,尤其是在数据集很大的情况下。
2023-11-15_2-12-10.png
为了解决这个问题,NVIDIA和微软将通过一个新的包装器为OpenAI的ChatAPI提供API,该包装器不仅可以在Windows PC上添加TensorRT-LLM加速,还可以让用户访问与在有RTX的PC上本地运行类似的工作流程或在云端。 因此您不必将任何数据集上传到ChatAPI,因为整个数据集都可供ChatAPI使用,就像在本地可用一样。
2023-11-15_2-12-20-1456x819.png

2023-11-15_2-12-14-1456x819.png

2023-11-15_2-12-15-1456x819.png

2023-11-15_2-12-16-1456x819.png
自定义包装器几乎可以与任何已针对TensorRT-LLM优化的LLM配合使用。 优化的LLM的一些例子包括Llama 2、Mistral、NV LLM,很快就会添加更多。 它也将在NVIDIA GitHub页面上提供。

这些公告表明NVIDIA希望不仅为企业,也为主流受众加速人工智能的发展。 对于AI,软件比运行它的硬件更重要,而TensorRT-LLM等开发将其带给数百万RTX用户绝对是一件大事。 未来几年随着越来越多的竞争对手试图用其独特的AI方法来吸引受众,通往AI霸主地位的道路将变得更加激烈,但目前NVIDIA拥有硬件和软件专业知识,可以顺利地为他们铺平道路。

(0)
打赏 微信扫一扫 微信扫一扫

相关推荐

发表回复

登录后才能评论