📢 转载信息
原文作者:Microsoft Research
Microsoft Foundry Labs 很高兴地宣布推出 Promptions,这是一个用于创建精确人工智能提示的系统,它集成了动态 UI 控件。
关于 Promptions
Promptions 是一种新的框架,它允许语言模型(LLM)在生成文本时动态地控制用户界面。它通过使用户能够使用 LLM 在应用程序中显示和操作结构化数据,而不是仅仅输出文本,从而使提示更加精确。
Promptions 的核心思想是,当用户编写提示时,LLM 不仅返回文本,还返回结构化指令,这些指令可以用来控制界面元素,比如输入字段、滑块、下拉列表等。这些控件可以实时更新,以便用户可以更精确地引导 LLM 的输出。
为什么需要更精确的提示?
传统的提示方法(如 GPT-3 或 GPT-4)依赖于用户提供精确的文本提示。然而,这种方法有两个主要限制:
- 不确定性:用户很难用自然语言精确地表达复杂的约束或参数,导致 LLM 产生不符合预期的输出。
- 信息缺失:在生成过程中,LLM 无法直接向用户请求澄清或更多信息,只能等待用户提供新的文本输入。
Promptions 旨在通过引入动态 UI 控件来克服这些限制。例如,如果用户要求 LLM 撰写一篇关于某个主题的文章,Promptions 允许 LLM 动态地生成一个“目标受众”下拉菜单和一个“语气”滑块,用户可以直接在界面上调整这些参数,而不是在文本提示中重新描述。
Promptions 的工作原理
Promptions 的工作流程如下:
- 初始提示:用户提供一个初始提示。
- LLM 响应与 UI 结构:LLM 不仅生成文本响应,还生成一个 JSON 结构,其中包含渲染 UI 控件的指令(例如,定义一个输入框或一个按钮)。
- 动态 UI 更新:Promptions 引擎解析该 JSON 结构,并在应用程序中渲染相应的 UI 控件。
- 用户交互与迭代:用户与这些新控件进行交互(例如,选择一个选项或输入一个值)。
- 更新提示上下文:用户的交互结果被无缝地整合回 LLM 的提示上下文,LLM 接收到更新后的信息,并生成下一轮响应。
这种方法允许 LLM 在生成过程中与用户进行“对话”式的迭代细化,而无需用户重新输入完整的文本提示。
应用示例
Promptions 在多种场景中展现出巨大潜力:
- 内容创作:动态调整文章的风格、长度或关键点。
- 数据查询:LLM 可以根据查询动态生成过滤条件或聚合选项的 UI 控件,用户点击即可精炼结果。
- 代码生成:要求 LLM 生成特定功能代码时,可以动态提供库选项或依赖项的控件。
Microsoft Foundry Labs 邀请开发者和研究人员探索 Promptions,以构建更具交互性和精确性的 AI 应用程序。
🚀 想要体验更好更全面的AI调用?
欢迎使用青云聚合API,约为官网价格的十分之一,支持300+全球最新模型,以及全球各种生图生视频模型,无需翻墙高速稳定,文档丰富,小白也可以简单操作。
评论区