Chat with RTX —— NVIDIA 小我专属本地AI聊天机械人(免费***)_本身的_数据
Chat with RTX是一个在个人电脑受骗地运行的AI谈天机器人。它利用内置在NVIDIA游戏显卡中的Tensor-RT核心(RTX 30或40系列的显卡),利用大措辞模型(LLM),对你供应的个人数据进行剖析,然后供应答案。
与ChatGPT和Copilot不同,Chat with RTX完备在你的个人电脑上运行,不会将任何数据发送到云做事器。根据你供应干系的数据集,它剖析个中包含的信息并供应答案。它还可以根据YouTube链接,阐明***中的内容并回答问题——这是通过提取来自字幕文件的数据来完成的。
Chat with RTX可以通过以下地址免费***,安装程序为35GB。
https://www.nvidia.com/en-us/ai-on-rtx/chat-with-rtx-generative-ai/
运行Chat with RTX的电脑需知足以下哀求:
一张至少有8GB VRAM的RTX 30或40系列显卡。一台至少有16GB内存的打算机。只管NVIDIA推举利用Windows 11,但我在Windows 10上利用该实用程序时没有任何问题。提示:目前Chat with RTX仅适用于Windows,尚未提及何时将在Linux上推出。
安装两个措辞模型(Mistral 7B和LLaMA 2)须要大约一个小时的韶光,它们占用差不多70GB的空间。安装完成后,会启动一个命令提示符窗口,个中有一个活动会话,你可以通过基于浏览器的界面提问。
NVIDIA供应了一个默认数据集来测试Chat with RTX,但我考试测验指向了我的***文件夹,里面有几百个***稿、评论和以文本(.***)格式保存的文章。Chat with RTX能够解析PDF、Word文档和纯文本,正如前面提到的,你可以链接YouTube***并提问。
Chat with RTX在总结细节方面做得很好,并且在针对性问题上表现也不错。目前还没有供应追问问题的功能,但这可能会在往后的版本中改变。
但也存在一些问题。 比如我问谈天机器人Corsair的MP600 mini是否利用TLC存储,它只能在第二次回答时供应精确的答案(是的,该驱动器利用TLC存储)。
Chat with RTX仍处于测试阶段,但显然具有很大的潜力。在本地运行一个自己的AI谈天机器人很故意思,它能够很好地从你供应的数据中获取信息。
根据我自己的初步利用情形,它可以帮我总结文稿并突出有用细节,我打算连续试用,看还有什么惊喜。
小伙伴们也可以轻松地在自己的打算机上安装Chat with RTX并考试测验一下,它可能没有ChatGPT那么强大,但他是你个人专属的谈天机器人。
本文系作者个人观点,不代表本站立场,转载请注明出处!