心智模型与 A/B 测试:预期与实际的冲突如何塑造假设
在 A/B 测试中,先关注用户心智模型与新功能的冲突,才能更精准地构造假设与解释结果。
说到 A/B 测试,很多人第一反应是:跑实验、收数据、做结论。可你有没有想过,为什么同一个实验在不同时期、不同用户群里会得到截然相反的结果?其实根本原因往往不在代码,而在用户携带的心智模型。
心智模型可以理解为人们对世界的内在图景。它决定了我们如何解释信息、做出选择。心理学大师 Daniel Kahneman 说过,人类的思考分为快速的直觉系统1和慢速的分析系统2。A/B 实验通常只关注系统2的输出——转化率、留存率,却忽视了系统1先前已形成的预期。
当产品上线新功能时,旧有模型与新模型可能出现冲突。举个例子:在电商平台添加“猜你喜欢”模块,老用户的“挑商品→比价→下单”模型被打断,结果出现转化率下降。因为他们的模型里没有“猜你喜欢”这一环节,导致行为被拉扯。
传统的实验设计往往先设定要检验的指标,然后随机分组。我们建议的做法是:先做“模型诊断”。先用访谈、热图、流程图等手段,绘制目标用户的典型旅程,标出可能的模型冲突点。
案例回顾:Airbnb 在 2022 年上线了新型搜索过滤器,目标是提升匹配效率。上线后,首周转化率竟下滑 10%。内部数据分析显示,用户在搜索时看到的“价格+评分”标签与他们原有的“入住天数+地理位置”模型冲突,导致他们快速放弃搜索。若此时先做模型诊断,或许就能提前发现并微调标签布局。
解决方案:在实验前,先在用户旅程图上标注“认知失调”点——即用户的预期与界面信息不符的地方。然后针对这些点,构建具体假设,例如「若用户看到的价格排序与他们的预算模型冲突,转化率会下降」。再通过 A/B 测试验证。
在生成假设时,记得把心智模型放在前面:先问「这假设会触碰到哪些用户已有模型?」再问「这些冲突会导致什么行为偏差?」这样设计出来的实验更有针对性,也更容易解释结果。
统计分析也可以更“心理学化”。传统的 p 值往往忽略了“预期效应”的大小。尝试用贝叶斯框架,给模型冲突的程度一个先验分布,再通过实验数据更新后验,得到“冲突程度→转化差异”的完整概率模型。
经验法则:每一次实验前,先完成三步:1)用户旅程图+模型冲突点;2)形成假设并写成「若 A,则 B」;3)先做小规模可视化验证,再进入正式 A/B。这样既能节省实验成本,又能提高结论的可解释性。
结语:让心智模型成为实验的后台,而不是被忽略的变量。你在最近一次 A/B 实验中,有没有留意到用户模型与新功能的冲突?如果没有,下次实验前别忘了先问自己一个简单的问题:我的假设和用户的思维轨迹冲突了吗?