腾讯微保构建大模型智能体开发平台,持续优化用户体验

来源: 中国银行保险报网 作者:点击蓝字

  2025年,《中国银行保险报》连续第七年面向行业开展中国保险业数字化转型案例征集活动。

  该案例通过标准化、模块化设计,有效整合并封装大模型关键能力,支撑售前咨询、客诉分析、内容运营等多类业务场景,在降低技术门槛、提升开发效率的同时,保障了服务的准确性与合规安全,为行业提供了可复制、规模化的大模型工业化落地范式。

  

  案例概述

  保险业作为经济减震器和社会稳定器,其高质量发展离不开科技创新。当前,保险机构在加速业务数字化、智能化转型的过程中,普遍面临大模型等前沿技术应用门槛高、开发效率低、知识管理难、安全风险大等核心挑战,制约了科技对业务的支撑与驱动能力。

  腾讯微保为推动大模型技术在保险场景中高效落地、规模化应用,自2024年起,构建并运营了覆盖“开发—部署—调度—知识—交互”全链路的大模型基础设施平台。通过整合、封装、优化大模型开发的关键基础能力,实现了大模型应用开发流程的标准化、模块化和高效化,广泛支撑了包括售前咨询、内容运营、知识生产、客诉分析、辅助质检等多类场景,为行业探索AI工业化落地提供了可复用的技术范式和宝贵经验。

  

  案例背景及意义

  2025年,人工智能技术进入爆发式发展阶段,大模型作为数字经济时代的核心生产力工具,正深刻重塑各行各业的发展范式。保险业作为与民生保障紧密相关的行业,既需要借助前沿技术破解传统运营中的效率瓶颈,也面临如何将大模型等先进技术安全、高效地融入业务场景的挑战。

  从行业实践来看,保险业务场景具有知识密集、规则复杂、合规要求高的特点,大模型应用普遍存在三大痛点:一是开发门槛高,不同业务线重复建设、资源浪费严重,非技术人员难以参与AI应用构建;二是知识管理难,保险产品条款、理赔规则等专业知识更新快,大模型易出现“幻觉”或信息滞后问题,影响服务的准确性;三是安全风险突出,用户信息保护、内容合规审核等要求严苛,缺乏统一管控机制可能引发合规风险。这些问题导致大模型在保险领域的应用多停留在单点试验阶段,难以实现规模化、工业化落地。

  在此背景下,腾讯微保依托自身优势,构建起大模型智能体开发平台。对内,通过构建标准化、模块化的大模型基础设施,让业务端更高效地运用AI能力;对外,以安全可控的技术底座支撑用户服务升级,让保险服务更智能、更具温度。对行业而言,该项目探索出一套适配保险场景的大模型应用范式,为行业解决技术落地难题提供了可复制的经验,为行业的高质量发展添砖加瓦。

  

  案例重点解决的问题及主要创新点

  (一)突破大模型应用开发效率瓶颈,构建全角色覆盖的开发范式

  针对保险行业大模型应用开发门槛高、流程烦琐、技术与业务脱节等问题,平台创新推出“三模协同”的Agent开发范式,通过“Chatflow可视化引擎+AI Proxy开发套件+原生Agent开发模式”的多元协同,实现了从业务新手到资深工程师的全角色、全场景覆盖。其中,零代码的Chatflow引擎通过图形化节点编排与“动态状态跟踪+上下文控制”机制降低了业务人员参与AI应用构建的门槛,同时解决复杂场景中意图漂移的问题;AI Proxy开发套件为技术人员提供代码级开发能力,支持底层能力深度集成,满足复杂系统的定制化需求;原生Agent开发模式则基于“Prompt+LLM+RAG+Tools”的轻量架构,让熟悉业务逻辑的员工可通过prompt工程快速配置基础智能体,实现简单场景的即时落地。三种模式形成“业务快速试错+技术深度优化+轻量即时配置”的互补体系,使核心大模型应用开发周期从“月级”压缩至“小时级”,显著提升业务需求的响应效率。

  (二)打造保险领域专属知识中枢,攻克大模型应用准确性难题

  保险业务的知识密集型特性(如产品条款、理赔规则、监管政策等)导致大模型应用易出现“幻觉生成、信息滞后、长文本理解偏差”等问题。平台针对性地构建了RAG知识中枢,通过复核解析(语义/长度/字符切分)与混合索引架构(“向量+全文”),结合动态检索策略配置与多级排序优化,实现了保险专业知识的精准匹配与高效调用。该中枢与知识中台对接后,已成为公司全量保险产品的统一知识问答底座,有效降低了大模型“幻觉”发生率,提升了智能服务的专业度与可靠性,解决了传统AI应用中“知识不一致、场景难适配”的痛点。

  (三)创新AI工具生产模式,推动技术能力规模化复用与落地

  为解决“AI能力与业务场景衔接不畅、复用率低”的问题,基于智能体平台workflow编排引擎,推出“场景方主导的AI工具生产模式”。业务人员可通过可视化界面一站式完成AI能力设计、工具生成与部署,无须依赖技术团队即可实现高频场景的AI应用落地。这一模式缩短了“技术研发-业务应用”的链路,形成了可复用的工具模板库,在营销内容生成、客服问题分析、合规质检等高频场景中快速复制,目前已支撑数十个提效场景,覆盖惠民保、理赔、客服、法务等多部门,实现了技术价值的规模化释放。

  (四)构建全链路安全管控体系,保障大模型应用合规可控

  大模型应用的开放特性带来了数据隐私泄露、内容合规风险、资源滥用等安全挑战。平台通过统一大模型网关层实现全链路安全管控,包括100%流量审计、细粒度访问控制、敏感信息过滤与脱敏、输入输出内容安全审核、调用行为溯源等功能,形成“事前防控—事中拦截—事后审计”的闭环管理。该体系既满足了金融行业对数据安全与合规的严苛要求(如个人信息保护、营销内容合规),又实现了资源损耗的可控性,为上层应用提供了安全可靠的调用支撑,解决了大模型应用中“安全边界模糊、风险不可控”的行业共性问题。

  (五)技术集成与规模效应:从单点应用到平台化支撑

  项目并非单一技术的独立应用,而是通过“开发引擎—知识中枢—工具生产—安全网关”的协同创新,构建了覆盖“开发—部署—调度—知识—交互”全链路的大模型基础设施,形成可复用的技术范式。目前已支撑主要的用户端售前场景以及多个内部提效场景的规模化落地。在营销端内容生成审核、服务端问题分析等人效提升10-20倍,体现了技术集成的规模效应,为保险行业大模型从“单点试验”向“工业化应用”转型提供了实例。

  

  案例主要建设内容

  (一)“三模协同”Agent开发体系的技术实现

  开发Chatflow可视化引擎,提供图形化节点(整合大模型、知识、系统工具等要素)与逻辑编排功能,内置“动态状态跟踪+上下文控制”机制,确保业务逻辑边界精准约束,满足业务人员零代码开发需求。配套AI Proxy开发套件,支持代码级调用底层能力与工具,实现与业务系统的深度集成,适配技术人员的复杂开发场景。同时,构建原生Agent开发框架,提供“Prompt配置界面+LLM接口+知识库关联通道+工具调用模板”的轻量技术架构,支持熟悉业务的员工通过参数配置快速生成基础智能体。三种模式技术上相互兼容、能力互补,共同形成覆盖全角色的开发链路。

  (二)RAG知识中枢的技术架构

  构建专业化RAG知识中枢,具备语义/长度/字符多粒度解析能力,采用“向量+全文”混合索引架构。开发动态检索策略配置模块(支持语义/全文/混合检索)及多级排序优化算法,与知识中台对接,形成全量保险产品知识问答底座,技术上有效抑制大模型幻觉与长记忆失效问题。

  (三)场景化AI工具生产体系的构建

  基于智能体平台workflow编排引擎,开发一站式工具生产界面。实现非工程师角色通过可视化操作完成AI能力设计、参数配置、工具生成及部署的全流程,打造可复用工具模板库,针对高频场景形成端到端解决方案,技术上缩短应用落地链路。

  (四)大模型网关与安全管控的技术部署

  搭建统一网关层,具备集中路由、流量调度、负载均衡功能。集成细粒度访问控制模块(基于角色权限管理)、敏感信息过滤脱敏引擎(实时处理隐私数据)、内容安全审核系统(毫秒级违规拦截)、全量调用审计溯源数据库,技术上保障服务稳定与数据合规。

  

  案例效果

  (一)用户服务端:用户体验与服务质量持续优化

  在面向C端用户的售前服务中,微保正式上线智能助手“微小保”,并应用于小程序搜索界面、产品详情页等核心场景。该助手结合微保知识库,支持用户通过自由提问或模糊需求输入,实现需求解析、产品匹配与条款解读的智能闭环,并通过多轮对话优化体验。在服务可靠性方面,网关100%流量审计与敏感信息拦截保障数据安全。

  (二)内容提效端:业务效率与生产力显著提升

  项目通过大模型基础能力的标准化与工具化,实现全业务线效率跃升,并已贯穿腾讯微保内部客服质检、内容生产、智能理赔、用户声音分析等各个工作环节。在实际业务中,面客端内容生成及审核人效提升约10倍。在微保开展惠民保业务等场景中,年降运营成本“40%+”;服务端问题分析、知识生产、用户诉求分析等人效提升约20倍。

  (三)安全合规与风险防控能力增强

  全链路安全管控体系提供坚实保障。统一网关实现100%调用审计溯源,敏感信息拦截精度“99%+”,防范数据泄露;内容审核机制实时监控信息,500毫秒内拦截违规内容,满足监管要求。在平台巡检机制中引入产品知识比对,排查失效及错误信息,降低风险。

  策划

关注同花顺财经(ths518),获取更多机会

0

+1
  • 北信源
  • 兆易创新
  • 科森科技
  • 卓翼科技
  • 天融信
  • 吉视传媒
  • 御银股份
  • 中油资本
  • 代码|股票名称 最新 涨跌幅