目 录CONTENT

文章目录

Nexa.ai的Hyperlink本地AI代理现已在NVIDIA RTX PC上可用,实现超快链接搜索

Administrator
2025-11-13 / 0 评论 / 0 点赞 / 0 阅读 / 0 字

📢 转载信息

原文链接:https://blogs.nvidia.com/blog/rtx-ai-garage-nexa-hyperlink-local-agent/

原文作者:Gerardo Delgado


基于大型语言模型(LLM)的AI助手是强大的生产力工具,但如果没有正确的上下文和信息,它们在提供细致入微、相关的答案时可能会遇到困难。虽然大多数基于LLM的聊天应用允许用户提供少量文件作为上下文,但它们通常无法访问用户PC中幻灯片、笔记、PDF和图像中深藏的所有信息。

Nexa.aiHyperlink是一款本地AI代理,旨在解决这一挑战。它可以快速索引数千个文件,理解用户提问的意图,并提供有上下文的、定制化的见解。

今天发布的新版本应用包含了对NVIDIA RTX AI PC的加速优化,使检索增强生成(RAG)的索引速度提高了三倍。例如,以前需要将近15分钟才能索引完的1GB密集文件夹,现在只需四到五分钟即可准备好进行搜索。此外,LLM推理速度也提高了2倍,使用户查询的响应更快。

Hyperlink在NVIDIA RTX AI PC上可实现高达3倍的索引速度和2倍的LLM推理速度提升。基准测试在RTX 5090上使用测试数据集进行;索引速度衡量为总索引时间,推理速度衡量为每秒token数。

将本地数据转化为即时智能

Hyperlink使用生成式AI来搜索数千个文件以获取正确信息,它理解用户查询的意图和上下文,而不仅仅是匹配关键词。

为此,它为用户指定的所有本地文件创建一个可搜索的索引——无论是很小的文件夹还是计算机上的每一个文件。用户可以用自然语言描述他们要查找的内容,并从文档、幻灯片、PDF和图像中找到相关内容。

例如,如果用户请求“帮助撰写一篇比较两本小说主题的科幻读书报告”,Hyperlink可以找到相关信息——即使它保存在一个名为“Lit_Homework_Final.docx”的文件中。

Hyperlink将搜索与RTX加速LLM的推理能力相结合,根据用户文件中的见解来回答问题。它跨来源连接想法,识别文档之间的关系,并生成带有清晰引用的、论证充分的答案。

所有用户数据都保留在设备上并保持私密。这意味着个人文件永远不会离开计算机,因此用户不必担心敏感信息被发送到云端。他们可以在不牺牲控制权或安心感的情况下,享受到强大AI的好处。

专业人士、学生和创作者已经在采用Hyperlink来:

  • 准备会议:总结笔记和文字记录中的关键讨论点。
  • 分析报告:获取经过充分研究的答案,引用行业报告中的关键数据点。
  • 创作内容:从多年保存的笔记和草稿中整理写作或视频创意。
  • 更智能地学习:在准备考试时,同时搜索讲义、幻灯片和教程来复习关键概念——所有这些操作都在一处完成。
  • 整理收据:整理扫描的文件并自动完成费用报告。
  • 更快地调试:搜索代码中的文档和注释,以解决错误或版本冲突。

下载Hyperlink应用,开始在RTX PC上体验AI搜索。

FacebookInstagramTikTokX上了解NVIDIA AI PC的最新动态——并通过订阅RTX AI PC新闻通讯保持了解。在LinkedInX上关注NVIDIA Workstation。

请参阅有关软件产品信息的声明




🚀 想要体验更好更全面的AI调用?

欢迎使用青云聚合API,约为官网价格的十分之一,支持300+全球最新模型,以及全球各种生图生视频模型,无需翻墙高速稳定,文档丰富,小白也可以简单操作。

0

评论区