📢 转载信息
原文作者:Monica Jain, Damien Forthomme, Mihir Gadgil, Muhammad Umar Javed, Norman Braddock, and Sujit Narapareddy
在您的组织内部构建统一的客户智能,首先需要减少销售代表在Salesforce、支持工单和Amazon Redshift之间切换时所面临的摩擦。一位准备客户会议的销售代表可能会花费数小时浏览多个不同的仪表板——产品推荐、参与度指标、收入分析等——才能对客户情况形成完整的了解。在AWS,随着我们业务的全球扩展,我们的销售部门亲身体验到了这一点。我们需要一种方法来统一跨指标数据库、文档存储库和外部行业来源的孤立客户数据——而无需构建复杂的定制协调基础设施。
我们构建了客户智能与知识引擎(CAKE),这是一个以客户为中心的聊天智能体,它使用了Amazon Bedrock AgentCore来解决这一挑战。CAKE协调了专门的检索工具——查询Amazon Neptune中的知识图谱、Amazon DynamoDB中的指标、Amazon OpenSearch Service中的文档,以及使用Web搜索API获取的外部市场数据,并使用行级安全工具(RLS)执行安全策略。根据智能体负载测试的观察,CAKE通过自然语言查询在10秒内交付客户洞察。
在本文中,我们将通过CAKE的真实世界实现,演示如何使用Amazon Bedrock AgentCore构建统一智能系统。您可以构建解锁以下功能和优势的定制智能体:
- 通过动态意图分析和并行执行协调专业工具
- 集成专用的数据存储(Neptune、DynamoDB、OpenSearch Service)并实现并行编排
- 在工作流程中实现行级安全和治理
- 用于可靠性的生产工程实践,包括基于模板的报告以遵守业务语义和风格
- 通过模型灵活性进行性能优化
这些架构模式可以帮助您加速开发各种用例,包括客户智能系统、企业AI助手或跨不同数据源进行协调的多智能体系统。
为什么客户智能系统需要统一
随着销售组织在全球范围内扩展,它们通常面临三个关键挑战:跨专业工具(产品推荐、参与度仪表板、收入分析等)的数据分散,需要数小时才能收集完整的客户视图;传统数据库丢失了业务语义,无法捕捉解释指标重要性的语义关系;以及无法随数据量增长而扩展的手动整合流程。您需要一个可以聚合客户数据、理解语义关系并在业务背景下推理客户需求的统一系统,这使得CAKE成为各地企业的关键纽带。
解决方案概述
CAKE是一个以客户为中心的聊天智能体,它将碎片化的数据转化为统一的、可操作的智能。通过将内部和外部数据源/表整合到一个对话端点中,CAKE能够在10秒内提供由上下文丰富的知识图谱驱动的个性化客户洞察。与仅报告数字的传统工具不同,CAKE的语义基础捕获了业务指标、客户行为、行业动态和战略背景之间的含义和关系。这使得CAKE不仅能解释客户的“发生了什么”,还能解释“为什么发生”以及“如何行动”。
Amazon Bedrock AgentCore作为一个托管服务,提供了多智能体AI系统所需的运行时基础设施,包括智能体间通信、并行执行、对话状态跟踪和工具路由。这有助于团队专注于定义智能体行为和业务逻辑,而不是实现分布式系统基础设施。
对于CAKE,我们在Amazon Bedrock AgentCore上构建了一个定制智能体,协调五个专业工具,每个工具都针对不同的数据访问模式进行了优化:
- 用于图关系查询的Neptune检索工具
- 用于即时指标查找的DynamoDB智能体
- 用于语义文档搜索的OpenSearch检索工具
- 用于外部行业情报的Web搜索工具
- 用于安全执行的行级安全(RLS)工具
下图展示了Amazon Bedrock AgentCore如何支持这些组件的编排。

在响应一个问题(例如,“该客户的顶级扩张机会是什么?”)时,解决方案会经历几个关键阶段:
- 分析意图并路由查询 – 运行在Amazon Bedrock AgentCore上的主管智能体分析自然语言查询以确定其意图。该问题需要客户理解、关系数据、使用指标和战略洞察。智能体的工具调用逻辑使用Amazon Bedrock AgentCore Runtime识别应激活哪些专业工具。
- 并行分派工具 – 编排层不是按顺序执行工具调用,而是使用Amazon Bedrock AgentCore Runtime的可扩展执行环境,并行分派多个检索工具。智能体管理执行生命周期,自动处理超时、重试和错误情况。
- 综合多个结果 – 当专业工具返回结果时,Amazon Bedrock AgentCore将这些部分响应流式传输给主管智能体,后者将它们综合成一个连贯的答案。智能体推理不同数据源之间的关系,识别模式,并生成跨越多个知识领域的洞察。
- 执行安全边界 – 在数据检索开始之前,智能体调用RLS工具来确定性地强制执行用户权限。然后,定制智能体验证后续的工具调用是否遵守这些安全边界,自动过滤结果并帮助防止未经授权的数据访问。此安全层在基础设施级别运行,减少了实施错误的风险。
此架构在两条并行轨道上运行:Amazon Bedrock AgentCore为实时服务层提供运行时环境,以最小延迟响应用户查询;而离线数据管道则定期从分析数据仓库刷新底层数据存储。
智能体框架设计
我们的多智能体系统利用AWS Strands Agents框架提供结构化推理能力,同时保持了监管合规性和可预测性能所需的企业级控制。该多智能体系统建立在AWS Strands Agents框架之上,该框架提供了构建来自多个不同模型的智能体的模型驱动基础。主管智能体分析传入的问题,以智能地选择应调用哪些专业智能体和工具,以及如何分解用户查询。该框架向外暴露智能体状态和输出,以便在智能体和主管级别实现去中心化评估。基于模型驱动的方法,我们通过GraphRAG推理链实现智能体推理,该推理链通过遍历知识关系来构建确定性的推理路径。我们的智能体在其专业领域内执行自主推理,围绕预定义的本体进行基础,同时保持企业应用所需的可预测、可审计的行为模式。
主管智能体采用多阶段选择协议:
- 问题分析 – 解析和理解用户意图
- 来源选择 – 智能路由确定需要哪种工具组合
- 查询分解 – 将原始问题分解为针对每个所选工具优化的专业子问题
- 并行执行 – 通过无服务器AWS Lambda操作组,所选工具并发执行
工具通过分层组合模式(考虑数据模态——结构化与非结构化)暴露,其中高级智能体和工具协调多个专业子工具:
- 图推理工具 – 管理实体遍历、关系分析和知识提取
- 客户洞察智能体 – 并行协调多个微调模型,以从表中生成客户摘要
- 语义搜索工具 – 编排非结构化文本分析(如现场记录)
- 网络研究工具 – 协调网络/新闻检索
我们使用企业级功能扩展了核心AWS Strands Agents框架,包括客户访问验证、令牌优化、用于模型限流恢复的多跳LLM选择,以及结构化的GraphRAG推理链。这些扩展提供了现代智能体系统的自主决策能力,同时促进了可预测的性能和监管合规性的一致性。
构建知识图谱基础
CAKE在Neptune中的知识图谱以结构化格式表示客户关系、产品使用模式和行业动态,使AI智能体能够执行高效推理。与孤立存储信息的传统数据库不同,CAKE的知识图谱捕获了业务实体及其关系的语义含义。
图构建和实体建模
我们的知识图谱围绕AWS销售本体进行设计——即销售团队日常讨论的核心实体和关系:
- 客户实体 – 具有从数据源提取的属性,包括行业分类、收入指标、云采用阶段和参与度得分
- 产品实体 – 代表AWS服务,与用例、行业应用和客户采用模式相关联
- 解决方案实体 – 将产品与业务成果和战略举措联系起来
- 机会实体 – 跟踪销售管道、交易阶段和相关利益相关者
- 联系人实体 – 映射客户组织内部的关系网络
Amazon Neptune擅长回答需要理解连接性的问题——查找两个实体如何相关,识别账户之间的路径,或发现跨越多个跳数的间接关系。离线数据构建过程会针对Redshift集群运行计划查询,以准备要加载到图中的数据。
捕获关系上下文
CAKE的知识图谱捕获了关系如何连接实体。当图谱通过增加使用关系将客户与产品连接起来时,它还会存储上下文属性:增加的速率、业务驱动因素(来自客户计划)和相关产品采用模式。这种上下文丰富性有助于LLM理解业务背景,并提供基于实际关系而不是仅仅统计相关性的解释。
专用的数据存储
CAKE没有将数据存储在单个数据库中,而是使用了专用的数据存储,每个存储都是根据其查询方式设计的。我们运行在Amazon Bedrock AgentCore上的定制智能体管理跨这些存储的协调——将查询发送到正确的数据库,同时运行它们,并合并结果——使用户和开发人员处理起来感觉就像一个单一的数据源:
- Neptune用于图关系 – Neptune存储客户、账户、利益相关者和组织实体之间的连接网络。Neptune擅长需要昂贵联接的多跳遍历查询——查找不相关账户之间的关系路径,或发现已采用特定AWS服务的同一行业中的客户。当Amazon Bedrock AgentCore识别出需要关系推理的查询时,它会自动路由到Neptune检索工具。
- DynamoDB用于即时指标 – DynamoDB充当预计算聚合的键值存储。离线管道不是按需计算客户健康评分或参与度指标,而是预先计算这些值并将它们按客户ID索引存储。然后,DynamoDB提供低于10毫秒的查找,从而实现即时报告生成。Amazon Bedrock AgentCore中的工具链允许它从DynamoDB检索指标,将它们传递给magnifAI智能体(我们的定制表到文本智能体)进行格式化,并返回抛光报告——所有这些都无需定制集成代码。
- OpenSearch Service用于语义文档搜索 – OpenSearch Service存储非结构化内容,如客户计划和现场记录。使用嵌入模型,OpenSearch Service将文本转换为支持语义匹配的向量表示。当Amazon Bedrock AgentCore收到关于“数字化转型”的查询时,它会识别出对语义搜索的需求,并自动路由到OpenSearch Service检索工具,该工具即使在文档使用不同术语时也能找到相关段落。
- S3用于文档存储 – Amazon Simple Storage Service (Amazon S3) 为OpenSearch Service提供基础。由于源仓库(Amazon Redshift)对大型文档存在截断限制,客户计划在索引化之前作为Parquet文件存储在Amazon S3中。这个多步骤过程——Amazon S3存储、嵌入生成、OpenSearch Service索引——在保持实时查询所需的低延迟的同时,保留了完整内容。
基于Amazon Bedrock AgentCore构建,使这些多数据库查询感觉像是一个单一的、统一的数据源。当查询需要来自Neptune的客户关系、来自DynamoDB的指标和来自OpenSearch Service的文档上下文时,我们的智能体会自动并行地向所有三个发送请求,管理它们的执行,并将它们的结果综合成一个单一的连贯响应。
数据管道和持续刷新
CAKE的离线数据管道作为一个批处理过程运行,并按计划的节奏运行,以使服务层与最新的业务数据保持同步。管道架构将数据构建与数据服务分离,以便实时查询层可以保持低延迟,而批处理管道则处理计算密集型的聚合和图构建。
数据处理编排层协调跨多个目标数据库的转换。对于每个数据库,管道执行以下步骤:
- 使用优化查询从Amazon Redshift中提取相关数据
- 应用特定于每个数据存储要求的业务逻辑转换
- 将处理后的数据加载到目标数据库中,并带有适当的索引和分区
对于Neptune,这涉及提取实体数据,使用属性构建图节点和边,并使用语义关系类型加载图结构。对于DynamoDB,管道计算聚合和指标,将数据结构化为针对客户ID查找优化的键值对,并应用原子更新以保持一致性。对于OpenSearch Service,管道遵循专门的路径:大型文档首先从Amazon Redshift导出到Amazon S3作为Parquet文件,然后通过嵌入模型处理以生成向量表示,最后将这些向量与适当的元数据一起加载到OpenSearch Service索引中,以进行过滤和检索。
生产工程:可靠性和准确性
当我们将CAKE从原型过渡到生产阶段时,我们实施了几项关键的工程实践,以促进对AI生成见解的可靠性、准确性和信任。
模型灵活性
Amazon Bedrock AgentCore的架构将编排层与底层LLM解耦,允许灵活的模型选择。我们实施了模型跳跃(model hopping),在发生限流时自动回退到替代模型。这种弹性在AgentCore的运行时中透明发生——检测限流情况,将请求路由到可用模型,并在用户无感知的情况下保持响应质量。
行级安全(RLS)和数据治理
在数据检索发生之前,RLS工具会根据用户身份和组织层级强制执行行级安全。此安全层对用户透明,同时保持严格的数据治理:
- 销售代表只能访问分配给其区域的客户
- 区域经理查看其区域的汇总数据
- 高管的可见性与其职责保持一致
RLS工具将查询路由到适当的数据分区并在数据库查询级别应用过滤器,因此安全性是在数据层而不是依赖应用程序级别的过滤来执行的。
结果和影响
CAKE改变了AWS销售团队访问和利用客户智能的方式。通过通过自然语言查询即时访问统一的洞察,CAKE将信息搜索时间从数小时缩短到数秒(根据用户调查/反馈),帮助销售代表专注于战略客户参与而不是数据收集。
多智能体架构为大多数查询提供秒级响应,并行执行模型支持同时从多个来源检索数据。知识图谱实现了超越简单数据聚合的复杂推理——CAKE解释了趋势发生的原因,识别了看似无关数据点之间的模式,并生成了基于业务关系的建议。或许最重要的是,CAKE将客户智能的访问民主化了整个组织。销售代表、客户经理、解决方案架构师和高管都与同一个统一的系统进行交互,在保持适当安全性和访问控制的同时,提供了一致的客户洞察。
结论
在本文中,我们展示了Amazon Bedrock AgentCore如何支持CAKE的多智能体架构。构建多智能体AI系统传统上需要大量的基础设施投资,包括实施定制的智能体协调协议、管理并行执行框架、跟踪对话状态、处理故障模式以及构建安全执行层。Amazon Bedrock AgentCore通过在Amazon Bedrock中提供这些功能作为托管服务,减少了这种“不必要的繁重工作”(undifferentiated heavy lifting)。
Amazon Bedrock AgentCore提供了编排的运行时基础设施,专用数据存储在它们擅长的特定访问模式上表现出色。Neptune处理关系遍历,DynamoDB提供即时指标查找,OpenSearch Service支持语义文档搜索,但我们构建在Amazon Bedrock AgentCore上的定制智能体协调了这些组件,自动将查询路由到正确的工具,并行执行它们,综合它们的
结果,并在整个工作流程中维护安全边界。CAKE的经验证明了Amazon Bedrock AgentCore如何帮助团队构建多智能体AI系统,将基础设施开发的数月时间缩短到业务逻辑实施的数周时间。通过将编排基础设施作为托管服务提供,Amazon Bedrock AgentCore帮助团队专注于领域专业知识和客户价值,而不是从头开始构建分布式系统基础设施。
要了解有关Amazon Bedrock AgentCore和构建多智能体AI系统的更多信息,请参阅Amazon Bedrock用户指南、Amazon Bedrock Workshop和Amazon Bedrock智能体。有关AWS的最新消息,请参阅AWS最新动态。
致谢
我们向我们的执行发起人和导师表示诚挚的谢意,他们的远见和指导使这项举措成为可能:AWS全球销售总监Aizaz Manzar、初创企业部门负责人Ali Imam,以及数据工程主管Akhand Singh。
我们还要感谢为使该产品成为现实提供技术专长和贡献的团队成员:软件开发经理Aswin Palliyali Venugopalan、高级软件开发工程师Alok Singh、首席数据工程师Muruga Manoj Gnanakrishnan、机器学习工程师Sai Meka、数据工程师Bill Tran,以及应用科学家Rui Li。
作者简介
Monica Jain 是AWS全球销售的高级技术产品经理,也是一位推动规模化AI驱动的销售智能的分析专家。她领导生成式AI和ML驱动的数据产品开发——包括知识图谱、AI增强分析、自然语言查询系统和推荐引擎——以提高销售人员的生产力和决策能力。她的工作使全球AWS高管和销售人员能够获取实时洞察,加速数据驱动的客户参与和收入增长。
M. Umar Javed是AWS的高级应用科学家,在学术界和工业界拥有超过8年的经验,并拥有ML理论博士学位。在AWS,他构建了生产级的生成式AI和机器学习解决方案,工作范围涵盖多智能体LLM架构、小型语言模型研究、知识图谱、推荐系统、强化学习和多模态深度学习。在加入AWS之前,Umar曾在NREL、CISCO、牛津大学和UCSD从事ML研究。他是ECEE卓越奖(2021年)的获得者,并对两项Donald P. Eckman奖(2021年、2023年)做出了贡献。
Damien Forthomme是AWS的高级应用科学家,领导AWS销售、营销和全球服务(SMGS)的数据科学团队。他拥有超过10年的经验和物理学博士学位,专注于使用和构建先进的机器学习和生成式AI工具,以便在正确的时间将正确的数据提供给正确的人。他的工作涵盖了预测、推荐系统、核心基础数据集创建以及增强组织销售生产力的生成式AI产品等项目。
Mihir Gadgil是AWS销售、营销和全球服务(SMGS)的高级数据工程师,专注于企业级数据解决方案和生成式AI应用。他拥有超过9年的经验和信息技术与管理硕士学位,专注于构建强大的数据管道、复杂的数据建模和ETL/ELT流程。他的专业知识通过创新的数据工程解决方案和先进的分析能力推动业务转型。
Sujit Narapareddy,AWS全球销售数据与分析主管,是一位推动全球企业转型的技术领导者。他领导数据产品和平台团队,通过AI增强分析和智能自动化为AWS的Go-to-Market提供支持。凭借在企业解决方案方面的可靠记录,他改变了销售生产力、数据治理和运营卓越性。此前在摩根大通商业银行任职期间,他通过数据创新塑造了下一代金融科技能力。
Norman Braddock,AWS AI产品管理高级经理,是一位通过智能体AI推动商业智能转型的产品领导者。他领导销售、营销和全球服务(SMGS)部门的分析与洞察产品管理团队,交付将AI模型性能与可衡量的业务影响相结合的产品。凭借采购、制造和销售运营方面的背景,他将深厚的运营专业知识与产品创新相结合,塑造了自主业务管理的未来。
🚀 想要体验更好更全面的AI调用?
欢迎使用青云聚合API,约为官网价格的十分之一,支持300+全球最新模型,以及全球各种生图生视频模型,无需翻墙高速稳定,文档丰富,小白也可以简单操作。
评论区