博文

目前显示的是 四月, 2026的博文

为CPQ引入AI前,为何需要叙述性数据

图片
大语言模型(LLM)知道什么是卡车,但它不懂*你家*的卡车。很多团队在现有CPQ系统上叠加AI时,都会遇到这个瓶颈。因为传统CPQ的数据只有SKU、属性和规则表,AI生成的答案看似流利,但缺乏深度推理。当销售问系统为什么会推荐某款驾驶室时,系统也说不出个所以然。 我在很多项目研讨会上都见过这种情况。一旦你为模型提供了清晰的上下文,解释了每个选项存在的场景和原因,对话的质量立刻就不一样了。系统不再是猜测,而是真正地提供建议。这背后不是什么AI魔法,而是给数据赋予了“叙事”能力。 你的数据里,缺了什么? 数据表告诉系统哪些组合是“有效的”,但没告诉它为什么某个选择是“明智的”,适用于何时,或在什么情况下是个糟糕的主意。这个信息鸿沟导致销售人员不得不依赖邮件、私人Excel表格和老师傅的经验来做判断,最后我们却把问题归结为“系统推广不力”。 AI推理层需要的不是更多的数据列,而是围绕每个选项、可被机器读取的**“意图”**: 用通俗语言解释选项的用途,而不仅仅是罗列技术规格。 明确列出优缺点,帮助使用者权衡取舍。 提供正反两方面的应用场景,让选项的价值落地。 说明该选项对成本、交期、服务或风险的潜在影响。 这是一个核心转变:产品营销内容不再仅仅是网站文案,它本身就是产品配置模型的一部分。当内容被结构化之后,AI才能用它来推理;否则,AI看似自信的回答,实则是在“幻觉”引导下凭空猜测。 从PIM到知识库 大多数产品信息管理(PIM)系统和价格手册在管理标识符、层级和定价方面做得不错。这能保证配置的“正确性”,但无法提供“指导性”。为了支持AI辅助销售,你的PIM系统需要升级成一个可供AI推理引擎查询的**知识库**。 分析师们越来越多地将“检索增强生成”(RAG)视为企业AI落地的一种基础模式。在CPQ领域,这意味着两件事: 将硬性约束条件保留在明确的逻辑层,确保系统永远不会生成无效的产品组合。 为每个选项补充简短、一致的叙事性字段,让AI能够回答问题、权衡利弊,并生成可解释的推荐。 做好了这两点,聊天机器人或引导式表单就不再是玩具。它会变成一个可被持续训练的销售助手,真正反映你的产品在真实业务场景中的运作方式。 如何构建用于AI推理的叙事性数据 原则是:简单、简短、一致。我们的目标不是写小说,而是为AI提供**可靠的信号**,让它能在不同对话中复用。 模块级字段 模块用...

什么是销售配置器?(它为何不仅仅是报价工具)

图片
每家销售复杂设备的公司,都有一个技术顶梁柱。他对产品了如指掌,能迅速将一团乱麻的客户需求,梳理成清晰、可行的技术方案。他是英雄,也是高速公路上的单车道。 我曾见过一个全球项目,所有大额报价都排队等着一位专家审核。交易停滞,审批积压。产品部门求销售别再卖那些边缘方案。问题不在工具,而在流程。 当增长依赖于某个人的大脑时,你拥有的不是销售流程,而是一个有名有姓的瓶颈。 我们需要的不是更强的计算器,而是翻译官 很多团队的本能反应是上一个大型CPQ项目,把所有规则都写进去。这听起来稳妥,但实际执行中,项目往往变得缓慢、昂贵、僵化。你花几个月建模,却发现市场已经创造出了新的例外情况。 真正的问题,不是报价中的计算,而是把客户需求“翻译”成一个技术上可行的配置方案。那位专家不是在“算”,他是在听,在定义问题,问出那两三个关键问题,并尽早排除错误路径。他把客户意图翻译成产品结构。 我们一直在造更好的计算器,但我们真正需要的,是更智能的翻译官。 CPQ的核心不是自动化,而是“正确性” 正确性,意味着你卖出去的东西,每一次都能被顺利制造、定价和交付。自动化混乱是摧毁信誉最快的方式。而让复杂的事情变得简单易懂,是建立信誉最快的方式。 现代销售配置器的真正作用 一个现代的销售配置器,本质上是一个引导式销售系统。它能将围绕客户问题的对话,转化为一个可制造、可定价、可交付的解决方案。它向非专家隐藏了技术复杂性,让他们也能轻松地浏览产品目录。它像GPS,而不是地图册。你告诉它客户想去哪,它会沿着有效路径引导你,并避开所有死胡同。 这就是转变所在:从“录入规则”到“理解意图”;从“填写表单”到“展开对话”;从依赖个别专家,到一个能帮助整个团队像专家一样思考的系统。 一个无法解释自己的系统,永远不会被信任。 销售人员需要的不仅仅是答案,更是信心。一个好的配置器应该能解释为什么某个选项可行,存在哪些约束,以及有哪些替代方案。这种“可解释性”不是一个附加功能,而是赢得用户采纳的基础。 真正有效的设计原则 1. 对话先行。 从客户如何描述他们的问题开始。系统应该像专家一样提出澄清问题。不要用有80个字段的表单。问得更少,但问得更准。 2. 保证方案永远有效。 系统输出的配置方案必须永远是技术上可行的。不是有时可行,也不是“等工程师审核后”才可行,而是永远。如果做不到这一点,它只是个演示,不是系统。...

混合型CPQ:重建信任,销售不减速

图片
两个月前,一个客户问我,为什么他们的聊天机器人一夜之间变得束手束脚了。明明一周前还能自信地推荐动力总成,模型升级后,每一步操作都要反复确认。同样的产品,同样的规则,行为却变了。一句话,你的销售逻辑,不能随着大模型的迭代而随意漂移。 销售复杂产品时,正确性是底线,不是可有可无的选项。销售团队要快,但运营和交付团队要的是确定性,二者不可偏废。在纯规则和纯大语言模型(LLM)之间做选择,从一开始就走错了路。 为什么现在是关键时刻 LLM在对话、解释和模式发现方面表现卓越,它们能理解客户的语言,解释复杂的场景。但它们是概率性的,同样的输入,明天可能产生不同的输出。在上下文信息不足时,它们会毫不犹豫地进行猜测。 而基于约束的CPQ则完全相反。它确定、可测试、版本稳定,但交互死板,维护成本高昂,特别是当你试图用规则来承载所有推荐和解释时。 答案不是二选一,而是让双方各司其职。 Gartner的研究指出,许多CPQ项目的失败根源在于产品数据和治理,而非工具本身。这说明,瓶颈不在于功能,而在于我们如何表达知识、控制变更,以及向一线销售和交付人员解释决策。 “顾问”与“法官” 我们把这个模式称为混合式CPQ推理。想象一下,每次报价都有两个角色按顺序协同工作: “法官” 是你的符号引擎。它定义了什么是必须的、什么是禁止的,强制执行兼容性,验证产品结构,进行确定性定价,并最终生成物料清单(BOM)。它从不猜测。 “顾问” 是你的LLM交互界面。它负责模糊的前端交互,提出场景化问题,推荐默认选项,解释不同选择的利弊,并说明为什么某个方案对当前客户是合理的。 顾问引导,法官决策。 我们在卡车、电梯和项目型业务中测试了这一模式。“顾问”收集客户需求,将其转化为结构化的选项,并提出一份包含理由和5年总拥有成本(TCO)分析的配置建议。随后,“法官”验证、补全配置,并否决任何无效组合。“顾问”再用通俗的语言解释被否决的原因。整个过程既快,又权责分明。 混合式CPQ的推理架构 1. 显式的产品逻辑层 从确定性最高的地方开始。用模块化和互斥选项的方式对产品建模,每个模块和选项都有明确的ID、SKU、属性和价格。除非绝对必要,否则保持数据结构扁平化。为常见组合创建场景化模块。引入一个“无(none)”选项,这能让约束规则的表达更清晰。通过等式关系引用其他模块,避免规则泛滥。围绕50个最主要的报价路径和...