目 录CONTENT

文章目录

生成式AI炒作大盘点:它真的能彻底改变SDLC吗?

Administrator
2025-10-30 / 0 评论 / 0 点赞 / 0 阅读 / 0 字

📢 转载信息

原文链接:https://www.kdnuggets.com/2025/10/damcosolutions/generative-ai-hype-check-can-it-really-transform-sdlc

原文作者:KDnuggets


生成式AI正在重塑软件开发生命周期(SDLC)。实现更快的编码、测试和文档编写。但根本性的转变发生在其与人类专业知识结合之时。

Generative AI Hype Check


您的团队是否正在使用生成式AI来提高代码质量、加速交付并减少每个冲刺(sprint)花费的时间?或者您仍然处于实验和探索阶段?无论您处于这个旅程的哪个阶段,都无法否认一个事实:Gen AI 如今正日益改变着我们的现实。它在编写代码和执行相关任务(如测试和质量保证)方面变得异常有效。像GitHub Copilot、ChatGPT和Tabnine这样的工具通过自动化繁琐任务和精简工作流程来帮助程序员。

这看起来并非昙花一现的炒作。根据Market Research Future的一份报告,生成式AI在软件开发生命周期(SDLC)市场的规模预计将从2025年的2.5亿美元增长到2035年的753亿美元。

在生成式AI出现之前,工程师必须手动地从冗长的技术文档和会议中提取需求。从零开始准备UI/UX模型。手动编写和调试代码。被动地进行故障排除和日志分析。

Gen AI的出现颠覆了这一模式。生产力飙升。重复性的、手动的劳动减少了。但在这些表面之下,真正的问题仍然存在:AI是如何彻底改变SDLC的?在本文中,我们将探讨这一点以及更多内容。

Gen AI 能够发挥作用的领域

Damco solutions

Gen AI在软件开发中的应用的可能性既令人向往又令人不知所措。它可以帮助提高生产力并加快时间表。

事物的另一面

虽然优势显而易见,但这引出了两个问题。

首先,我们的信息安全如何保障?我们能否使用机密客户信息来更快地获取输出?这难道不具有风险吗?这些ChatGPT聊天记录保持私密的可能性有多大?最近的调查显示,Meta AI的应用程序将私密聊天标记为公开,引发了隐私担忧。这必须进行分析。

其次,也是最重要的一点,在自动化时代,开发人员的未来角色是什么?AI的出现影响了多个服务行业的职位。从写作到设计,从数字营销到数据录入,不一而足。一些报告确实勾勒出了与我们五年前想象的未来不同的图景。美国能源部橡树岭国家实验室的研究人员提到,到2040年,机器将编写他们的大部分代码,而不是人类。

然而,这是否会成为现实超出了我们今天的讨论范围。就目前而言,与其他职位一样,程序员仍然是必需的。但他们工作性质和所需技能将有所改变。为此,我们带您了解一下生成式AI的炒作大盘点。

炒作与现实相遇之处

  • 生成的输出合理,但尚未实现革命性突破(至少目前如此):借助Gen AI,开发人员在编写样板代码或标准模式时报告迭代速度更快。对于定义明确的问题或上下文清晰的情况,它可能有效。然而,对于创新性、特定领域的逻辑和性能关键型代码,人类的监督仍然是不可或缺的。您不能依赖生成式AI/LLM工具来完成此类项目。例如,让我们考虑遗留系统现代化。像IBM AS400和COBOL这样的系统为企业提供了多年的支持。但随着时间的推移,由于它们与当今数字化赋能的用户群不一致,其有效性已降低。要维护或改进它们的功能,您将需要不仅了解如何操作这些系统的软件开发人员,而且还要了解新技术的人员。

    组织不能冒险丢失这些数据。期望依赖Gen AI工具来构建与这些传统系统无缝集成的先进应用程序将是强人所难。这就是程序员专业知识至关重要的地方。阅读如何使用AI智能体在不中断服务的情况下实现遗留系统现代化。这只是一个关键用例。还有许多其他方面。所以,是的,LLM可以加速SDLC,但不能取代关键的齿轮,即人类

  • 测试自动化正在悄然获胜,但并非没有人工监督:LLM擅长生成各种测试用例、发现差距和修复错误。但这并不意味着我们可以把人类程序员排除在外。Gen AI无法决定测试什么或解释失败的原因。因为人是不可预测的,例如,一个电子商务订单可能因多种原因而延迟。一位顾客如果在前往珠穆朗玛峰大本营徒步旅行之前订购了必需品,可能会期望订单在他们离开前到达。但如果聊天机器人没有接受过关于紧迫性、交付依赖性或用户意图异常等情境因素的训练,它可能无法提供富有同情心或准确的回复。Gen AI测试工具可能无法测试此类变化。正是在这一点上,人类的推理能力、多年的专业知识和直觉站稳了脚跟。
  • 文档从未如此简单;然而,有一个陷阱:Gen AI可以通过一个提示自动生成文档、总结会议记录等。它可以减少在手动、重复性任务上花费的时间,并在大型项目中提供一致性。然而,它不能为您做决定。它缺乏情境判断和情感成熟度。例如,理解为什么编写了特定的逻辑或某些选择如何影响未来的可伸缩性。这就是如何解释复杂行为仍然来自程序员。他们为此工作多年,建立了机器难以复制的意识和直觉。
  • AI在处理真实世界的复杂性方面仍然存在困难:存在情境限制。对信任、过度依赖和一致性的担忧。集成摩擦依然存在。这就是为什么首席技术官(CTO)、首席信息官(CIO)甚至程序员都对在没有护栏的情况下对专有代码使用AI持怀疑态度。人类对于提供背景、验证输出和控制AI至关关重要。因为AI从历史模式和数据中学习。有时这些数据可能反映了世界的缺陷。最后,AI解决方案需要在使用上是合乎道德、负责任和安全的

最后的思考

一项对超过4000名开发人员的最新调查发现,76%的受访者承认在使用前需要重构至少一半的AI生成代码。这表明,尽管技术提高了便利性和舒适度,但我们不能完全依赖它。像其他技术一样,Gen AI也有其局限性。然而,将其斥为纯粹的炒作也不完全准确。因为我们已经了解了它作为设备的惊人实用性。它可以精简需求收集和规划,更快地编写代码,在几秒钟内测试多个案例,并主动实时识别异常。因此,关键在于战略性地采用LLM。利用它来减少繁重工作,同时不增加风险。最重要的是,将其视为一个助手,一个“战略副驾驶”。而不是人类专业知识的替代品。

因为归根结底,企业是由人类为人类而创建的。Gen AI可以以前所未有的方式帮助您提高效率,但仅仅依赖它们来获得出色的输出可能在长期内无法带来积极的结果。您有什么想法?




🚀 想要体验更好更全面的AI调用?

欢迎使用青云聚合API,约为官网价格的十分之一,支持300+全球最新模型,以及全球各种生图生视频模型,无需翻墙高速稳定,文档丰富,小白也可以简单操作。

0

评论区