阿里云2025年AI应用(AI Agent)开发新范式报告

阿里云2025年AI应用(AI Agent)开发新范式报告重点总结

报告原文:https://report.mklist.com/book/36029

该报告聚焦阿里云在AI应用(AI Agent)开发领域的新范式,围绕核心架构、关键技术支撑、实践路径及企业价值展开,系统阐述了从技术组件到落地实践的完整解决方案,核心重点如下:

图片[1]-阿里云2025年AI应用(AI Agent)开发新范式报告-四海清单

一、AI应用核心架构:AI Agent + LLM双引擎模式

AI应用的核心是实现从“被动工具”到“智能伙伴”的进化,核心架构依赖AI Agent与LLM(大语言模型)的协同闭环,二者分工明确且深度联动:

  1. LLM:认知核心(“大脑”)
    负责所有“思考”类任务,包括精准理解用户自然语言意图(如解析“分析销售数据”的模糊需求)、将目标拆解为清晰有序的执行步骤,是AI应用的决策中心。
  2. AI Agent:执行核心(“手脚”)
    赋予LLM行动能力,将“思考”转化为落地动作:通过工具调用对接数据库、API、互联网等外部资源,编排任务执行流程,同时将结果反馈给LLM,形成“思考-行动-观察-再思考”的闭环。
  3. MCP服务:企业AI能力基石
    作为连接企业IT资产与AI Agent的“桥梁”,MCP(模型上下文协议)服务通过标准化用户、AI Agent、LLM、后端服务的协同关系,将企业零散的财务、CRM、HR等系统转化为AI可调用的标准化能力,且无需改造原有系统或AI Agent,解决技能系统构建痛点。

二、AI Agent的核心定义与构建路径

1. AI Agent的本质与核心要素

AI Agent是具备“自主循环能力”的系统,需满足三大核心条件:基于LLM推理、通过工具执行行动、遵循“思考(Think)→执行(Action)→自省(Observe)→纠错”循环,区别于Chatbot的关键是能解决“复合、复杂、多步骤”问题(如跨领域业务协同)。其核心组件包括:

  • 大脑(LLM):需根据业务场景选择适配模型(如通义千问、Gemini),负责意图识别与决策。
  • 记忆(存储服务):基于NoSQL或向量数据库实现,分长期记忆(目标、偏好)与短期记忆(交互记录),支撑多步骤执行。
  • 手(工具/MCP Server):提供外部业务能力(如数据库查询、文件读写),执行LLM决策。
  • 指令(System Prompt):定义AI Agent的目标与行为边界。

2. 企业构建AI应用的两大路径

路径类型核心逻辑优势典型场景
全新开发从零设计原生AI应用,无历史技术债务采用先进架构,最大化AI Agent能力,实现颠覆式创新金融AI研究分析师、企业“超级知识入口”
存量改造在现有ERP、CRM等核心系统中嵌入AI Agent直接作用于核心业务流程,价值释放路径短、明确传统CRM智能化升级、OA办公流程AI优化

三、关键技术支撑:函数计算(FC)与云原生API网关

1. 函数计算(FC):AI Agent的运行时与沙箱底座

FC是事件驱动的全托管计算服务,为AI Agent提供“运行时(Runtime)”与“沙箱(Sandbox)”两大核心支撑,是AI应用落地的关键基础设施:

  • 核心特性:支持0.05C16C CPU、1GB48GB GPU实例,百毫秒级弹缩,免运维且集成20+云产品触发器(OSS、SLS等),适配多语言运行环境。
  • 两大核心场景:
    • AI Agent运行时:部署自研AI Agent(基于LangChain、Spring AI Alibaba等框架)或托管组件(如OpenManus、ComfyUI),通过触发器灵活调度,按请求扩缩降本。
    • AI Agent沙箱:提供安全隔离环境,解决代码执行、网络隔离、资源管控问题,核心沙箱类型包括Code Sandbox(执行LLM/用户代码)、Browser Use Sandbox(数据采集/联网搜索)、RL Sandbox(强化学习训练)、Sim Sandbox(具身智能仿真)。

2. 云原生API网关:AI应用的统一管控中枢

网关融合流量网关、API网关、AI网关、MCP网关能力,解决AI应用的流量管控、安全防护、模型/MCP管理问题:

  • AI网关核心价值:针对LLM使用痛点提供解决方案,如通过多API Key轮询突破QPS限制、集成联网搜索降低模型幻觉、LLM服务Fallback保障高可用、内容安全检查满足合规要求。
  • MCP网关核心价值:实现传统服务0代码转MCP Server(基于MSE Nacos),将SSE协议转为Streamable HTTP(解决长连接弊端),降低企业接入MCP的成本。

四、MCP协议:AI与企业资源的“通用接口”

MCP(模型上下文协议)是Anthropic开源的通用协议,类比“AI领域的USB-C接口”,标准化LLM与外部工具/数据源的交互,解决定制化集成问题:

  1. 核心优势:标准化交互方式、模块化组件设计、可扩展性强、内置安全验证,区别于Function Calling(厂商专有能力,集成成本高),MCP支持跨厂商协作与成果复用。
  2. 企业级落地:MSE Nacos作为MCP Registry
    MSE Nacos(微服务注册配置中心)作为MCP Registry超集,提供MCP Server注册/发现、安全管控(Prompt加密、敏感过滤)、0代码转换(传统服务转MCP)、多版本管理等能力,弥补官方MCP Registry的私有化、安全管控短板。

五、AI应用可观测体系:保障稳定与效果

针对AI应用的基础资源(GPU掉卡、网络延迟)、模型推理(性能慢、结果不合规)、成本(Token消耗不透明)三大挑战,报告提出全链路可观测方案:

  1. 核心能力:基于Prometheus构建全栈监控大盘(GPU资源、Token成本、模型性能)、OpenTelemetry实现全链路追踪(记录Prompt、Token消耗、推理步骤)、日志二次评估(合规性、意图提取)。
  2. 关键实践:Python无侵入探针(适配LLM框架,性能优于开源方案)、流式场景分段采集(平衡客户端性能与数据分析易用性)、vLLM/SGLang推理性能监控(定位排队请求、TPOT异常等问题)。

六、企业价值与新范式影响

  1. 架构变革:推动企业采用Serverless架构,实现业务功能最小粒度拆分与弹性扩缩(如高德业务投放平台实践,降低资源成本30%+)。
  2. 开发模式升级:基于“MCP Server First”理念,企业通过丰富MCP服务库,结合低代码平台(如阿里云AIStudio)实现“拖拖拽拽构建AI流程”,降低开发门槛。
  3. 效率提升:业务流程以自然语言描述需求,AI Agent自动调用MCP服务完成协同,减少跨团队沟通成本,加速创新落地。

© 版权声明
THE END
如本文“对您有用”,欢迎随意打赏作者!
点赞10打赏作者 分享
评论 抢沙发
头像
欢迎您留下宝贵的见解!
提交
头像

昵称

取消
昵称表情代码图片快捷回复

    暂无评论内容