取消
搜索历史
热搜词
原创
活动
产业创新
转型理念
ENI专访
当前位置:首页 >文章发布 > 正文
NVIDIA推出Chat With RTX 本地部署版本ChatGPT
来源:ZAKER  作者: 佚名 2024-02-18 09:25:41
NVIDIA 近日推出了 Chat With RTX,这个应用相当于本地部署的 ChatGPT,由 GPU 提供算力支持。要求的话,需要至少 8GB 显存的 RTX 30 或 40 系列显卡。

NVIDIA 近日推出了 Chat With RTX,这个应用相当于本地部署的 ChatGPT,由 GPU 提供算力支持。要求的话,需要至少 8GB 显存的 RTX 30 或 40 系列显卡。

尽管 Chat With RTX 并非英伟达自己研发的大语言模型(LLM),但它背后所依靠的 Mistral 和 Llama 2 两款开源 LLM 却颇具实力。用户可以根据喜好自行选择使用哪款 LLM。此外,Chat With RTX 还支持多种文件类型,包括 txt、.pdf、.doc/.docx 和 .xml,方便用户上传本地文件进行聊天。

值得一提的是,Chat With RTX 还具有根据在线视频做回答的功能。用户只需将视频链接提供给 Chat With RTX,它便能迅速根据视频内容生成答案,为用户带来全新的聊天体验。

免责声明:本文系网络转载,版权归原作者所有。本文所用图片、文字如涉及作品版权问题,请联系删除!本文内容为原作者观点,并不代表本网站观点。
编辑:乔帅臣
关键词:   ChatGPT  NVIDIA  显卡 
活动 直播间  | CIO智行社

分享到微信 ×

打开微信,点击底部的“发现”,
使用“扫一扫”即可将网页分享至朋友圈。