A/B测试 | 从原理,到搭建,到落地

挖数网精选
挖数网精选
挖数网精选
352
文章
0
评论
2020-10-2613:10:00 评论 52 6705字
摘要

本文带你从原理到搭建到落地深入了解AB测试。

一.A/B测试背后的统计学原理

1.基础统计学概念

某度对于统计学的定义是:统计学是通过搜索、整理、分析、描述数据等手段,以达到推断所测对象的本质,甚至预测对象未来的一门综合性科学

联系到A/B测试,其实它就是通过先对部分用户设置不同的方案,并进一步对不同方案的数据进行分析,从而去推测哪个方案在全量发布后效果是更优的。

在这个过程中有必要介绍下几个基础的统计学概念。

下面以一个 case 为例来说明,假设现在希望看下改变按钮颜色能否提高落地页中的按钮点击率,在这个试验中涉及:

(1)总体

落地页的全部访客,不仅包括试验时访问的那些,也包括后续访问网页的,绿色按钮、红色按钮分别对应 2 个总体;

(2)样本

在访问时随机分配了不同颜色按钮的访客,对应颜色的按钮分别对应着一个样本,这些样本是总体经过抽样产生的。

通常在统计中只有样本量足够大,才能更好地确保实验结论的有效性,所以 A/B测试系统会提供样本量计算器,告诉用户试验应该达多少样本量或运行多行时间才能得出相对有效的结论;

(3)抽样

有多种抽样方法,包括简单随机抽样(有放回抽样、无放回抽样)、分群抽样、分层抽样,核心是要在随机原则下从总体取出样本,并且具有代表性(样本能够代表总体);

(4)总体参数

描述总体特征的参数,在示例中是按钮点击率

(5)统计量

样本统计计算后得到的统计数值,在示例中是样本的点击率;

(6)参数评估

指用样本统计量来估计总体参数,这里我们通过对比试验的2 个样本间的数据,从而评估方案调整后针对全部用户的效果。

常有包括点估计和区间估计2 种方式,一般我们使用的是后者。

当我们统计出样本的点击率是 20%,如果这时候说确定采用点击率更高的按钮颜色后,点击率大概是20%,这便是点估计。

但显然它的误差是非常大的,所以我们在估计是会给出总体参数的一个概率范围,即有多大的可能落在某个范围,比如说有 90%的可能提升 10%~20%,显然这样的估计就会更加准确科学,通常我们称之为"置信区间",这个区间的计算有一定的方法,大部分 A/B测试系统都会给用户提供这个参数以供参考。

2.假设检验试验

结合上文提到的落地页按钮点击率试验,假如现在通过一周的试验,我们发现绿色按钮比红色按钮的点击率更高,但事实真的是这样吗?

不,其实我们提出的只是一个基于试验样本的"假设",但我们其实更想知道的是"总体参数",当所有按钮都改为绿色后,最终针对所有用户所统计到的结果也不一定就是我们在试验中得出的结论。

所以,为了提升结论的可靠性,我们会基于对这个"假设"进行"检验",看看这个"假设"在应用到"总体"时是否靠谱。

怎样检验呢?

统计学提出了它的解决方案:小概率反证法,即统计学中认为小概率的事件很难发生,我们只需证明某个假设发生的概率小于某个值(通常取 0.05),这个值在统计学中称为显著性水平,如果概率小于这个显著性水平,我们可判断为这个试验在统计上是显著的,就可以有一定的把握认为这个假设不会发生,大部分 A/B测试系统都会给用户提供这个参数以供参考。

通常情况下,在进行试验时我们往往并不知道新提出的方案对于原方案而言是好是坏,所以我们常常假设"原方案(对照组)"和"新方案(控制组)"是没有差异的,当我们证明这个假设小于显著性水平时,就可以有一定把握可以说原方案与新方案是有差异的,结合样本数据结果我们就可以获得一个相对可行的试验结论。

PS:上面介绍到的原理部分,为降低理解成本,没有对统计学背后的一些更底层的数学原理进行说明,也没有对假设检验中的基础概念做解释,比如原假设与备择假设、弃真与取伪错误、单侧与双侧检验等,有兴趣的读者可自行了解

小结:

AB测试系统只是站在上述理论的基础上进行了产品化,有了理论基础,我们才能够在系统中通过各个功能去确保试验的有效性,简单的对应关系:

  • 抽样:系统需提供科学的分流算法来确保试验有效性
  • 统计量:系统需要建设好基础的数据埋点和数据统计能力,才能完成统计量的计算
  • 假设:系统需提供试验方案的编辑管理能力,让用户能够创建不同的试验方案,从而形成试验假设
  • 置信区间、统计显著:系统在提供试验样本统计量数据外,还需基于试验统计量类型,基于不同的检验计算方法去计算出统计指标,通常为置信区间以及试验是否统计显著

二.系统核心业务流程

AB测试系统核心的业务流程当然是围绕试验的设计和分析进行的,同时笔者调研了业界多个AB测试产品,各家产品在使用流程上也相差无几。

但不同的产品也提供了一定的方法来提升流程的效率,在设计时需要多考虑系统应该通过提供什么样的能力来支撑这个业务流程,以及怎样才能够帮助提升流程效率,帮助运营者更快更准确地得出结果。

A/B测试 | 从原理,到搭建,到落地

结合一个具体 case来说上述业务流程,还是采用上文的例子,现在是希望提升落地页的按钮点击率

  • 确定改进点:按钮样式
  • 设计不同方案:设计了绿色和红色 两套方案
  • 确定衡量指标:按钮点击率
  • 配置试验:配置按钮颜色为绿色、红色共两套落地页
  • 分析试验数据:对比哪个方案的按钮点击率更高,是否统计上是显著的

如果发现红色按钮比原来绿色按钮的点击率还差,则可决定中止试验不继续优化,或更改为其他颜色继续试验;

如果发现红色按钮和设想一样比原来绿色按钮的点击率更好,则可考虑将按钮颜色彻底改为红色。

三.系统目标

在设计系统时,我们通常会先定义系统目标并拆分阶段重点,读过 google 相关论文的读者也会发现 google也结合自己的情况给出了系统的目标:

  • 更多:google数据驱动的文化使其对试验运行数量的要求比较高,要求系统能够支持同时运行更多的实验
  • 更快:简单便捷地创建试验
  • 更好:能够去规避无效实验的运行、发现有效但不好的试验、能够提供标准的衡量维度确保对比是有效的

笔者在设计自家系统时则定义如下:

1.要能确保试验有效性

  • 确保试验有效运行:确保分流规则、统计指标计算规则是科学的
  • 让用户确保试验有效:引导用户确保样本量符合要求或提供样本量计算工具、提供置信区间和统计显著性指标辅助用户进行判断

2.能支撑到更多有需要的试验场景

  • 让试验进行得更快速
  • 帮助用户更快地得出结论(意味着不用耗费更多流量):部分系统提供 MAB算法自动分配各个版本的流量,帮助用户简化分析的过程,并在得出优胜版本能够自动全量应用

3.更便捷快速地完成配置

指使用者能够有较低的使用和学习成本,A/B测试本身需要比较专业的背景知识,在互联网企业内部往往是增长团队和产品经理等角色负责,但笔者所设计的系统面向传统企业以及一些有IT部门的企业。

企业内是否有配置专业的人员来实施,是否有对A/B测试比较了解的人都是问题,所以产品设计上一方面需要考虑易用性,另一方面也需要考虑让交付同事能更好地理解以便引导客户使用

四.系统架构

结合笔者调研的结果,目前会涉及到AB测试系统的公司主要有以下几类:

(1)AB测试服务saas软件供应商

以saas化形式提供AB测试能力,客户基于简单对接后即可基于平台能力进行 AB测试,能够有效降低企业自己的开发投入,企业体量没达到一定规模时或相应的团队建设没到位的情况下往往可采取这种方案。

这些供应商可能同时也会提供其他数据分析平台等其他数据服务,针对的目前客户以有互联网相关业务、有 IT研发能力的企业为主

(2)提供AB测试能力的其他saas平台

比如营销saas产品主要针对的营销场景下的ab测试能力提供、用户运营 saas产品主要针对消息推送场景下的 ab 测试能力提供

(3)需自建AB测试系统的企业

这类企业的公司体量基本都到了一定的规模,并且有专业的增长团队。

在产品形态上,目前在不同类型产品上看到的总共有3种形态:

  • AB测试saas产品一般均以试验管理的形式,在试验报表中查看AB测试相关数据
  • 营销saas产品则会与营销流程编辑器结合,以流程组件的形式提供AB测试能力,在流程数据中查看AB测试相关数据
  • 垂直场景的用户运营工具则是在以高级配置的方式提供AB测试能力。

比如:可在业务功能配置中通过额外的AB测试配置项完成配置,并在业务数据中可查看AB测试的相关数据

但抛开具体的产品形态,由于系统背后的原理、业务流程和目标都相同的,所以经过抽象后的系统架构其实是差不多的,仅在一些细节方案上有差异。

A/B测试 | 从原理,到搭建,到落地

1.业务层

这一层是AB测试的核心功能模块,用于支持用户创建 A/B 测试试验

(1)样本设置

用于设置进入试验的客户,主要涉及2点:

  • 样本筛选:可筛选特定类型的客户参与试验,可与CRM、用户画像系统相结合,可针对某一特定人群进行试验
  • 样本量设置:可设置客户进入试验的占比或数量,样本量对于试验有效性有着重要影响,大部分系统都会提供一个样本量计算公式,结合用户设置的预期提升效果,告知用户较合适的样本量是多少、试验应该进行多久,让用户确保试验有足够的流量(也看到一些产品会提供一些经验值给到用户,比如让用户确保样本数量应该大于 1000)

(2)流量分配

主要作用是决定客户命中哪个试验、命中的是试验的哪个版本,这块跟试验的管理结构有关系,分流模块需要满足以下要求:

1)随机均匀分流

分流规则是系统中比较核心的模块,有几个核心的点:

  • 必须确保样本一致性:确保分配到不同试验方案的用户样本特征是一致的,在统计上控制单一变量原则,即所谓"随机均匀"
  • 确保分流一致性:在分配到不同版本时应确保随机均匀分布,并且确保分流一致性(即同一客户多次进入同一个试验,访问的试验版本相同);

2)分层分流

当需要同时进行多个试验,且避免试验间会互相干扰时,需要通过分域的形式把一些会互相干扰的试验区隔开,用户只能命中其中某个试验,通过分层的形式把不会互相干扰的试验区隔开,用户可以同时命中不同层的试验。

通用的 A/B 测试工具都会支持用户自定义层级规则和试验所处层级,但也并非必需,需要结合自身系统场景看是否有并发多个试验的场景,可查看下方分流模型示意:

A/B测试 | 从原理,到搭建,到落地

  • 分流指定版本:在试验结束后,用户可直接指定进入试验的客户进入哪个试验版本,为了提升流程效率,大部分产品提供了自动帮助客户选择最优版本的能力,但大部分只能从单个指标维度进行评判;
  • 自动分流:基于MBA算法,可自动结合不同版本方案的试验指标,自动调整流量分配规则,帮助快速选择出可信赖的优化版本,可有效提升试验的效率,目前有提供该能力的主要是一些比较专业的 ab 测试工具

(3)试验配置

1)版本设置

可添加不同的试验版本,与对照组版本进行对比,不同类型试验版本设置会有所不同,同时设置方式也与具体的 A/B测试场景有关,比如:

  • 大部分系统针对 UI层面的优化会提供可视化编辑模式,可让运营人员直接在可视化界面完成不同方案的配置
  • 针对广告着陆页场景,则会提供的是链接合并跳转的模式,针对不同版本的广告着陆页提供不同的URL,用户访问时会随机跳转到某个版本的链接中
  • 针对算法优化等后端优化场景,则提供接口给后端服务调用

这一块也是需要具体考虑,需结合业务场景和自身平台的情况考虑用户配置版本的方式。

2)流量设置

即设置分配给各个版本的流量,总和需为100%,需要支持在试验中进行调整,方便使用者结合试验情况灵活调整流量分配(一般会先给试验版小流量试跑,然后再进一步加大流量)

3)指标设置

设置指标后可在数据统计中看到不同版本对应的指标数据,用于评估不同版本的效果:

  • 主要目标与附加目标:评估方案好坏有时候显然不可能只从一个维度去评估,并且即使新版本方案在核心指标上表现更好,也不排除在其他比较重要的指标维度上表现更弱,所以主要目标是指本次试验重点要关注优化的指标,附加指标则是其他关联的效果指标,可帮助我们进一步全面地评估方案;
  • 复合指标与自定义指标:可支持更多的业务场景
  • 自定义指标:指用户可以自定设定指标,可指定更多事件指标以及复合型指标,本期暂不考虑;

(4)分层分域

本质上是为了解决流量在多个试验的分配问题,考虑的是如何尽可能地分配流量确保每个试验都有足够的样本,以及如何避免试验之间互相干扰,这些层和域需要结合自身情况去做划分,常见的可划分为启动层、UI层、算法层等。

比如:对于页面中同一个区域进行试验,如果现在在进行 2 个试验,分别对文字颜色、文字背景做测试,假设不把这 2 个试验分配在不同域,那可能出现文字颜色和文字背景都是同一颜色,会导致在前端完全不可见,进而影响试验

2.数据统计层

这一层会展示试验数据,包括试验设定的各个指标数据以及统计数据,使命是帮助用户更准确和快速地进行决策,选择最优的方案,其中统计类指标主要提供 2 个指标:

  • 置信区间:通常采用的是置信度为 95%的区间,用于帮助用户科学评估方案效果;
  • 统计显著性指标:用于告诉用户当前统计得到的结论在统计学上是否是显著有效的,提升决策科学性。

当然,有时候会需要去细分到不同人群去看效果,可以进一步评估方案在不同人群中的效果是如何的,在产品上只需增加一个客户筛选即可。

3.数据接入层

这一层主要解决试验指标统计的问题,与 AB测试系统的应用场景相关,要拓展系统使用场景,肯定是得垂直地从数据埋点、试验设置都进行拓展,通过同步外部数据,可以大大拓宽使用场景。

比如:笔者设计的是营销 saas 系统,如果能对接交易数据,场景可以进一步拓展为"验证通过更低的优惠券折扣是否可促进交易转化率"。

4.服务接入层

当企业内部有多个客户端、多个系统、多个场景需要对接 AB测试能力时,通过标准接口可快速完能力的部署,有助于可以提升系统的扩展开放性。

五.业务场景

当我们对系统要做的事情以及系统的整体逻辑有所理解后,就需要因地制宜结合自己负责系统的业务场景、客户特点等因素设计产品的能力分布和形态。

当然,场景肯定是没法遍历完的,但可以记下一句话:"当你无法衡量它时,你就无法优化它",结合上文对系统架构的介绍,我们知道A/B测试系统底层需依赖数据埋点这一基础设施,当我们能埋的点,能统计到的数据越多,能调控的变量更多,系统能支撑的场景也就越丰富。

但笔者还是对常见的AB测试场景做个简单总结,方便大家参考:

  • 产品优化
  • UI层面优化:比如调整页面布局,调整文案等
  • 功能体验优化
  • 算法层面:比如推荐规则优化、列表展示规制,提高内容点击率
  • 营销优化
  • 广告落地页:营销文案优化,提升按钮点击率
  • 营销活动流程、策略优化等等

其中 AB测试saas 产品无可置疑肯定基本都可满足上述场景,营销saas产品中则会围绕活动内容、消息触达、权益策略、活动流程等营销相关的场景做优化,垂直类场景仅支持自身产品场景的优化。

比如:"某策"能进行触达与否是否影响最终转化的 ab 测试。

六.落地细节注意

1.分流模块

分流算法的实现方法网络上大把,推荐大家可以参考一下 google 的论文,具体实现上就是通过一致性哈希算法计算用户 id 、层 id 后进行取模即可,这样即可实现上文我们提到对于分流需要注意的关键点。

注意:要结合我们设计出的产品形态,与上文的产品架构进行对应,考虑需要加什么因子加入哈希算法因子中。

当然,一些平台为了确保样本的一致性也提出了一种验证性的方法,

比如微博广告系统提到的一个解决方案:在广告系统中,用户是通过多维的画像向量(a,b,c,…,n)来进行刻画的,如果流量划分是均匀的,意味着用户的每一个画像向量分量在该流量划分条件下是均匀,更进一步,多个画像向量分量的组合在该流量划分条件下也是均匀的。通过进行用户画像向量单个分量和若干个画像向量分量的组合的均匀性验证,即可来反映该流量的划分的均匀性

2.试验指标模块

这块目前也比较成熟,在代码上有一些已经封装好的计算方法可直接供开发去调用,目前 adobe Target产品使用的是 t 检验的方式来计算置信区间和 P 值(p 值小于 0.05即证明本次试验是统计显著的),具体不成问题,问题主要在于公司内部目前是否一套比较完善的数据采集处理机制

七.总结

结合全文,相信读者对于 AB测试系统已经有了比较完整的认识,大的原理和逻辑基本不变,变的是大家需要结合自身业务场景、自身内部系统情况去因地制宜,尤其是要做好业务场景的梳理,即可从目前已经拥有的数据进行反推,也可从业务需求进行正推。

但是,需要提醒的是,至此我们也只是设计出了一个能用的系统而已。

AB测试的落地还需要依赖使用的组织和人,公司组织层面上是否有数据驱动的意识、执行人员层面是否具备做AB测试的专业知识、支持做AB测试的场景是否有足够的价值吸引力、是否具备足够的数据量来做 AB 测试,这些因素都会影响到最终系统的落地效果。

如果碰巧你做的是saas系统,面向的客户可能是传统企业或传统银行这类有研发能力但数据驱动意识不强的企业,更是由于考虑清楚上面提到的几点,好好评估客户是否有落地A/B测试的能力。

END.

作者:洪森

来源:产品有温度

本文已和作者授权,如需转载请与作者联系

  • 我的微信公众号
  • 微信扫一扫
  • weinxin
  • 我的微信公众号
  • 微信扫一扫
  • weinxin
匿名

发表评论

匿名网友 填写信息

:?: :razz: :sad: :evil: :!: :smile: :oops: :grin: :eek: :shock: :???: :cool: :lol: :mad: :twisted: :roll: :wink: :idea: :arrow: :neutral: :cry: :mrgreen: