Chat with RTX是一个在个人电脑受骗地运行的AI谈天机器人。
它利用内置在NVIDIA游戏显卡中的Tensor-RT核心(RTX 30或40系列的显卡),利用大措辞模型(LLM),对你供应的个人数据进行剖析,然后供应答案。

Chat with RTX —— NVIDIA 小我专属本地AI聊天机械人(免费下载)_本身的_数据 计算机

与ChatGPT和Copilot不同,Chat with RTX完备在你的个人电脑上运行,不会将任何数据发送到云做事器。
根据你供应干系的数据集,它剖析个中包含的信息并供应答案。
它还可以根据YouTube链接,阐明***中的内容并回答问题——这是通过提取来自字幕文件的数据来完成的。

Chat with RTX可以通过以下地址免费***,安装程序为35GB。

https://www.nvidia.com/en-us/ai-on-rtx/chat-with-rtx-generative-ai/

运行Chat with RTX的电脑需知足以下哀求:

一张至少有8GB VRAM的RTX 30或40系列显卡。
一台至少有16GB内存的打算机。
只管NVIDIA推举利用Windows 11,但我在Windows 10上利用该实用程序时没有任何问题。

提示:目前Chat with RTX仅适用于Windows,尚未提及何时将在Linux上推出。

安装两个措辞模型(Mistral 7B和LLaMA 2)须要大约一个小时的韶光,它们占用差不多70GB的空间。
安装完成后,会启动一个命令提示符窗口,个中有一个活动会话,你可以通过基于浏览器的界面提问。

NVIDIA供应了一个默认数据集来测试Chat with RTX,但我考试测验指向了我的***文件夹,里面有几百个***稿、评论和以文本(.***)格式保存的文章。
Chat with RTX能够解析PDF、Word文档和纯文本,正如前面提到的,你可以链接YouTube***并提问。

Chat with RTX在总结细节方面做得很好,并且在针对性问题上表现也不错。
目前还没有供应追问问题的功能,但这可能会在往后的版本中改变。

但也存在一些问题。
比如我问谈天机器人Corsair的MP600 mini是否利用TLC存储,它只能在第二次回答时供应精确的答案(是的,该驱动器利用TLC存储)。

Chat with RTX仍处于测试阶段,但显然具有很大的潜力。
在本地运行一个自己的AI谈天机器人很故意思,它能够很好地从你供应的数据中获取信息。

根据我自己的初步利用情形,它可以帮我总结文稿并突出有用细节,我打算连续试用,看还有什么惊喜。

小伙伴们也可以轻松地在自己的打算机上安装Chat with RTX并考试测验一下,它可能没有ChatGPT那么强大,但他是你个人专属的谈天机器人。