嗨玩手游网

在线影评有用性影响因素模型的因素:数据处理与实证分析

阅读此文前,诚邀您点击一下“关注”,方便您随时查阅一系列优质文章,同时便于进行讨论与分享,感谢您的支持~

由于运用 Python 爬虫工具采集得到的原始影评数据存在大量缺失问题,没有办法直接运用到模型中,因此,需要对原始数据集进行以下处理。

数据预处理

数据清洗。为了保证数据的可靠性,将外文影评、星级评论为空、影评字数小于 5、有用数小于 1、已经注销账号的影评者发表的评论、想看用户发表的评论进行删除。同时,将星级效价中的文本类型分别对应转换成数字类型,方便后续代入变量计算。

数据变换。好友数和粉丝数为空的数据用数字0来填充,豆瓣网站上的用户发布影评总数是不包括本次评论的,因此对发布影评总数进行加1操作。

数据归约。一部电影在国内和国外可能不会同步上映,选择保留最早的上映日期,同时将评论时间早于电影最早上映时间的影评删除,目的是既能保证评论的可信性,又不会错过最早的那批评论者发表的影评。

由于春节档、暑假档和国庆档都属于票房集中“井喷”的黄金档期,评论数量自然大幅度增加。通过对最少数量月份(6月份)的样本进行人工检查,又过滤掉十条无意义评论。

为了保证数据分布均衡和不同电影类型间的相对匀称,最终选择从每个月份中抽出 740 条,共计 8880 条评论数据,用于实证分析在线影评有用性影响因素模型。

变量设计与分析方法

要开始测量各个因素的具体影响,就必须要结合豆瓣电影评论的实际界面选择设计变量的测度指标。通过爬虫得到的原始数据可分为两部分:一部分数据可以直观统计,如有用投票数、电影评分、发布电影评论时间、影评者加入豆瓣时间、好友数、粉丝数等。

另一部分则主要分布模型变量指标中,因变量在线影评有用性以每一条影评得到的有用投票数来衡量,属于连续计量变量,利用(均值-中位数)除以标准差的计算公式得出因变量的偏度系数明显大于 0,说明其样本分布具有显著的正偏态。

为了防止变量的不同测量单位和离群值造成的影响,对回归模型里的个别变量进行对数转化,以此增加模型的显著性。同时也能够削弱回归模型中可能存在的异方差性和偏斜性,故采用多元线性回归分析方法。

相关性分析

当回归模型中各因素变量之间高度相关时,容易导致多重共线性问题的产生,从而导致模型评估不精确甚至严重失真。

其中,相关性分析主要涉及相关系数和对相关系数进行显著性检验两部分,相关系数能够反映出两个变量间的密切程度,一般用r表示,r 的取值范围是[-1,1],当=1时,说明完全线性相关;当0.8<<1时,说明高度相关。

而当0.5<≤0.8时,说明显著相关;当0.3<≤0.5时,说明低度相关;当0<≤0.3时,说明略微相关,基本可视为不相关;当 r-0 时,说明不存在线性相关。相关系数的显著性检验通常事先假设整体的r等于 0,当显著性检验结果的p值越小,代表变量间的相关性越大。

统计学一般认为,为 0 表示显著相关,p 值小于 0.05 表示相关性大,为 1 表示基本不相关。为了更好地评估在线影评有用性模型,避免存在多重共线性问题,因此进行了检验各变量间的相关性。

55 个相关系数中,大多数变量之间的相关系数的绝对值在 0.29 以下,只有 7 个高于 0.3,最大值为 0.476,为了进一步排除多重共线性的干扰,再计算方差膨胀因子(VIF),得到 VIF 的均值为1.29,最大值为 1.59,最小值为 1.04,远远小于 10,故可以判定自变量之间不存在多重共线性问题。

豆瓣电影上每一部电影的评分都是将这部电影中所有评论用户打出的星级(1-5 星)转换成 10 分制,然后将这些人的分数加在一起,最后除以参加打分的总人数计算来。而且实行一用户一票制,所以在很大程度上确保了电影评分的客观性。

但这也不能排除明星粉丝和黑粉甚至职业水军的影响作用。简言之,电影评分是针对一部电影的全部评论用户而言,属于大样本大数据,且可能会受到很多不可控因素的影响。

而本研究中的影评效价是以现有文献结论作为基础,是经过层层筛选的小样本数据,两者之间有着本质的区别。

另外,本研究中的电影评分和影评总数之间的相关系数只有-0.089,说明他们之间不具有相关关系,影评效价和影评总数之间的相关系数只有-0.082,同样可认为两者之间不存在相关关系,因此结合方差膨胀因子的结果,电影评分和影评效价之间不可能存在多重共线性问题。

针对发表影评时长和影评有用数的相关系数为-0.414,两者之间呈现低度负相关可解释为:电影毕竟是商业商品,都会有专门团队进行营销和推广。

同时,加上社交网络口碑传播和流量明星效应等造成电影上映初期都自带一定的热度,这些都很极有可能勾起观影者的消费欲望,愿意去电影院观看电影,从而导致评论数量和投票数量增多。

随着时间流逝,电影热度慢慢消退甚至到最后电影撤档,评论数量也不大会增加,阅读评论采纳有用信息的用户就变得更少。

同理,这也可说明发表影评时长和影评总数之间呈现低度负相关的原因。另外,由于电影评分是在评论数量趋于稳定的基础上计算出来的,所以这也不难解释为何发表影评时长和电影评分的相关系数为0.476,两者之间呈现低度正相关的问题。

针对加入豆瓣年限和发布影评总数的相关系数为 0.419,两者之间呈现低度正相关的原因可归为:豆瓣网站创立之初的定位就是以影会友,为电影爱好者提供一个专门的分享交流平台。

这样一来,注册豆瓣越早的用户越有可能是一个热衷电影的人,喜欢分享交流电影,越有可能留下较多的评论内容,碰到自己喜欢的电影类型小组也更加愿意关注,同理也可以解释 加入豆瓣年限和好友数之间相关系数为0.387,呈现低度正相关的问题。

至于影评总数与影评有用数相关系数为0.394,有低度相关的问题主要是因为有用评论是从所有在线评论中投票筛选出来的。评论总数量越多,得票率高的评论在评论页面越有可能排序靠前,被更多的人看到。

模型回归分析

本研究中各变量的数量级和量纲差异较大,如果利用原始数据构建回归模型,很容易出现模型不稳定的现象。

首先,通过对上述部分变量取以 10 为底的对数进行对数变换,实现降低数据中的非线性因素的目的,然后计算了各个变量间的 r,并通过了皮尔逊双侧检验,再利用统计回归方法得出模型结果。

从一元回归和多元回归的模型结果中可知,在线影评是否能获得有用投票数并非单独依赖于某一个变量因素产生的结果,消费者感知电影评论是否有用时,经常会受到各个因素的综合作用。

然而,如果回归模型把某单个变量的结果当做影评发挥有用性的原因来分析,显然具有倒果为因的嫌疑,另外还很容易夸大单一因素的效果。

比如以影评总数变量为例,一元线性回归的结果表明,影评总数每新增 1条,在线影评有用性将提高 0.65,显然夸大了影评总数对影评有用性的解释度。

这主要是因为在电影上映的前期,在线影评容易出现井喷式增长,基于从众心理消费者在感知有用影评时会受到一定的影响,随着电影上映时间的拉长,热度消退后评论内容逐渐多元化,观众能够更加理性感知有用评论。

除了影评总数以外,其他自变量与因变量的独立回归,与多元回归模型结果相差不大。控制变量电影评分对在线影评有用性的影响具有显著的正向作用,电影评分越高越有用。

参考文献

「测试」AB测试:原理流程、实际案例及面试指南分享!

本文有理论公式,也有实践案例,深入浅出,大神小白皆宜。涉及到一些统计学的理论和公式,是为了辅助大家理解AB测试的原理,知其然知其所以然,有基础的同学可以好好研究!

小白说我看不懂理论公式,没关系!有理论公式的地方就有实际例子,有例子不怕你理解不了!更任性的同学,我看到公式脑壳就疼,更不想手算,好吧,工具已经备好,直接拿去用!面试的同学,想要了解AB测试的常见问题,文末已经安排!欢迎阅读~

写在前面

AB测试我们在工作当中,尤其是在很多的互联网大厂里面,经常是用来验证一个功能最终是否会被上线的重要手段,也是在数据分析面试当中经常会出现的一个考点,所以AB测试的重要性就不言而喻了。但是很多同学一提到AB测试就会头皮发麻,感觉自己知道什么是AB测试,但是具体的统计学原理、样本量&试验周期计算、实施步骤和效果验证却是一头雾水,也不知道在面试当中会怎么考。今天通过理论和实际案例的形式详细、系统地和大家啃一啃AB测试这块硬骨头。

一、AB测试原理简介

1.1 什么是AB测试?

AB测试其实来源于假设检验,我们现在有两个随机均匀的样本组A、B,对其中一个组A做出某种改动,实验结束后分析两组用户行为数据,通过显著性检验,判断这个改动对于我们所关注的核心指标是否有显著的影响。

在这个实验中,我们的假设检验如下:

原假设H0:这项改动不会对核心指标有显著的影响

备选假设H1:这项改动会对核心指标有显著影响

如果我们在做完实验之后,通过显著性检验发现P值足够小,我们则推翻原假设,证明这项改动会对我们所关注的核心指标产生显著影响,否则接受原假设,认为该改动未产生显著影响。如果用一句话来概括的话,AB测试其实就是随机均匀样本组的对照实验。这个就是AB测试的原理。

1.2 AB测试的一般流程

AB测试会涉及到产品、开发、数据部门,流程较长,环节较复杂,对于很多还没有真正工作,或者说没有切实接触过AB测试的同学来说,实施起来可能有一定的难度,但是一般来说主要有以下几个步骤:

1、一般在开始实验之前,我们首先需要和相关的产品或者项目经理确定这个实验所要验证的改动点是什么。

2、在确认改动点之后,数据分析师需要设计实验中所需要去观测的一些核心指标,比如点击率、转化率等。

3、确定完核心指标之后,下一步就是计算实验所需的最少样本流量,实验样本越大,我们的结果越可信,但是对我们用户的不良影响就越大。所以我们需要计算能够显著地证明我们的策略有效的最少样本量。

4、然后还要结合目前的日均活跃的用户量,计算实验持续的时间周期。

5、在计算完所需样本量之后,就要设计流量分割策略,根据实验需要对样本流量进行分流分层,保证样本的随机和均匀分布,避免出现辛普森悖论。

6、以上准备工作就绪,就需要和PM以及开发同学确认可以开始实验。一般在上线正式实验之前,会通过小流量去看一段时间的灰度实验。这个灰度实验的目的就是为了验证我们这个改动并不会造成什么特别极端的影响。

7、在灰度之后就会正式发版,等到实验周期结束,我们对实验的结果进行显著性检验。

以上就是AB测试中所采用的一套常规流程。

二、明确改动点和观测指标

2.1 明确改动点

实验开始之前,首先要和产品或者项目经理明确实验的变量是什么?我们要保证AB测试的“单一因素原则”,即每一个实验的评估的因素都是单一因素,一次实验不能糅合多个影响因素,否则会导致实验效果难以区分是哪个因素的影响。

2.2 明确观测指标

观测指标可以分为两种类型:

1、绝对值类指标。我们平常直接计算就能得到的单个指标,不需要多个指标计算得到。一般都是统计该指标在一段时间内的均值或者汇总值,比如DAU,平均停留时长等。这类指标一般较少作为AB测试的观测指标。

2、比率类指标。与绝对值类指标相对应,我们不能直接计算得到,而是通过多个指标计算得到。比如某页面的点击率,我们需要先计算页面的点击数和展现数,两者相除才能得到该指标。类似的,还有一些转化率、复购率等等。AB测试观测的大部分指标都是比率类指标。

为什么这里要区分不同类型的观测指标,因为在接下来的样本量计算中,这两类指标的样本量计算有所差别。

三、样本量、实验周期计算

3.1 AB测试样本量计算

A/B 测试样本量的选取基于大数定律和中心极限定理。在计算样本量之前,我们先大致了解一下大数定律和中心极限定理:

1. 大数定律:当试验条件不变时,随机试验重复多次以后,随机事件的频率近似等于随机事件的概率。

2. 中心极限定理:对独立同分布且有相同期望和方差的n个随机变量,当样本量很大时,样本的均值近似服从标准正态分布N(0,1)。

说人话就是:只要样本量足够大,样本就能够代表整体的表现。这个足够大到底是多大呢?

每一个实验组所需的样本量计算公式如下:

在这个公式当中,

σ代表的是样本数据的标准差,衡量的是整体样本数据的波动性,可以计算样本的标准差计算得到。

而δ代表的是预期实验组和对照组两组数据的差值,比如说期望点击率从20%提升到25%,那么δ就是5%。

而α和β,也就是我们在统计学当中所经常提到的,犯第一类错误的概率和第二类错误的概率。

其中:

1、α为犯第一类错误的概率,把没有犯第一类错误的概率1-α称为置信水平。一般情况下,α取值为0.05。

2、β为犯第二类错误的概率,把统计功效定义为1-β,一般情况下,β取值0.2,则统计功效的取值为0.8。

当观测的指标为绝对值类型/比率型指标时,样本的标准差的计算公式有所差异,

当观测指标为绝对值类指标时:

当观测指标为比率类指标时:

其中PA、PB分别为对照组和实验组的观测数据,举个栗子,我们希望点击率从20%提升到25%,那么PA=20%,PB=25%,δ=5%。

如果上面的公式觉得不好理解,那我们就举个栗子计算一下!

栗子1-对于绝对值指标:

某商品详情页平均停留时长的标准差是20秒,优化了商品详情页后,预估至少有5秒的绝对提升,AB测试每个组需要的最少样本量:

σ=20,δ=5

每个组所需的最少样本量 = 8*20*20*2/5*5=256

栗子2-对于比率类指标:

某商品详情页点击率20%,优化了该功能后,预期点击率提升到25%,AB测试每个组需要的最少样本量:

对照组PA:20%,实验组PB:25%

每个组所需的最少样本量 = 8 * (20%*(1-20%)+25%*(1-25%))/ (25%- 20%)^2=1030

计算出单个实验组所需的样本量,若有多个实验组,乘以实验组的个数就可以得到最终的样本量。

公式虽然明白怎么算了,但是我还是不想手算怎么办?我们有现成的工具可以直接使用!

安利一个比较常见且好用的在线计算工具:Evans awesome AB Tools:https://www.evanmiller/ab-testing/sample-size.html,它的界面是这样的

其实工具都已经帮我们设计好了,关键就是我们需要理解在这个工具当中,他所提到的一些关键的指标对应的是我们刚才所说的哪个指标?

第一个需要我们确定的是baseline conversion rate,这个baseline conversion rate指的是我们在开始实验之前,对照组本身真实的表现情况,如果说我们在这个实验当中想要去观测的是点击率变化,那么baseline conversion rate就是原来的点击率是多少,对应的就是前面提到的PA。

第二个需要我们确定的是minimum detectable effect,这个指的就是你的改动预期带来的提升,举之前的例子,我们希望通过优化,点击率从20%提升到25%,那么这个绝对(absolute)提升是5%(25%-20%),如果选择相对(relative)提升,就是30%(26%-20%)/20%=30%,这个对应的就是前面提到的δ。

除了这两个参数之外,还有就是significance level,也就是我们所说的显著性水平,这个就对应前面的第一类错误的概率,也就是α,一般为5%。还有statistical power,也就是我们前面所说的统计功效,statistical power一般用1-β来表示,这里的话也就是80%,和之前保持一致。

Evans AB Tools这个工具不仅可以计算AB测试的样本量,AB测试结果的显著性分析验证也可以使用,卡方检验、T检验、方差分析等,应有尽有,从样本量计算到结果验证,一个工具就搞定了!我们后面的结果验证就是用这个工具进行的,这里就不再展开了。

四、AB测试流量分割

4.1 辛普森悖论

为什么要进行合理的流量分割?

再举个栗子!

我们对APP上一个按钮进行了颜色调整,需要比较一下颜色调整前后用户点击率是否提高?经过一段时间的试验,我们得到了两组试验的数据,计算出了两组试验的点击率,如下:

数据中我们发现,单独看这一试验,无论是女性人群和男性人群,数据表现都是A组中较好,但是,总计却是B组效果较好,细分的结果和总计的结果相悖,这就是我们常说的辛普森悖论。

那么,问题出在哪里呢?我们发现这个AB测试的两个组的性别选取有问题,性别特征并没有均衡的分布在两个组中。很明显,A组里女性用户只有男性用户的1/3,而B组里女性用户是男性用户的3倍。

所以,这一组不成功的AB测试,主要是因为流量分割忽略了一个重要的“隐藏因素”,也就是性别比例。性别上的差异在A、B组中也成为了影响结果的一个变量,从而导致最终的结果相悖。正确的试验实施方案里,除被测试的变量外,其他可能影响结果的变量的比例都应该保持一致,这就需要对流量进行均匀合理的分割。

4.2 分流分层原理

流量的分割常用的有分流和分层。

1)分流

用户分流是指按照地域、性别、年龄等把用户均匀地分为几个组,1个用户只能出现在1个组中。但是实际情况中,往往会同时上线多个实验,拿广告来说,有针对样式形态的实验,有针对广告位置策略的实验,有针对预估模型的实验。如果只是按照这种分流模式来,在每组实验放量10%的情况下,整体的流量只能同时开展10个实验。这个实验的效率是非常低的。为了解决这个问题,提出了用户分层、流量复用的方法。

2)分层

同一份流量可以分布在多个实验层,也就是说同一批用户可以出现在不同的实验层,前提是各个实验层之间无业务关联,保证这一批用户都均匀地分布到所有的实验层里,达到用户“正交”的效果就可以。所谓的正交分层,其实可以理解为互不影响的流量分层,从而实验流量复用的效果。

3)分流分层模型

对以上模型进行解释:

分流:组1、组2通过分流的方式分为2组流量,此时组1和组2是互斥的,即组1+组2=100%试验流量。分层:流量流过组2中的B1层、B2层、B3层时,B1层、B2层、B3层的流量都是与组2的流量相等,相当于对组2的流量进行了复用,即B1层=B2层=B3层=组2扩展:流量流过组2中的B1层时,又把B1层分为了B1-1,B1-2,B1-3,此时B1-1,B1-2,B1-3之间又是互斥的,即B1-1层+B1-2层+B1-3层=B1层。

根据以上规则我们可以不断地在此模型中增加组、层,并且可以互相嵌套。这要与实际的业务相匹配,拆分过多的结构可能会把简单的业务复杂化,拆分过少的结构又可能不满足实际业务。

4)使用场景

对于上图所示的流量分流分层模型,如果用于某些对所有功能都有影响的运营活动,比如春节的红包运营,由于活动是整体的,UI,策略,内容等模块都会配合修改,因此要评估春节红包活动的时候就会使用组1来评估。而剩余的组2的流量,则会划分为多个层,比如UI层,推荐策略层,内容模块层等,这几层基本上是没有任何的业务关联度的,即使共用相同的流量(流量正交)也不会对实际的业务造成结果。

五、AB测试效果验证

5.1 测试效果显著性检验

AB测试后,我们需要对AB测试的结果进行显著性检验,从而判断改动是否对我们的核心指标产生了显著差异。

举个栗子,仍以点击率为例,我们运行AB测试一周,分别对1000个样本进行了测试。对照组A的点击率为7.5%,B的点击率为9%,如下表:

我们能否给出结论说B比A好,改动是有效果的呢?有多大的可能是因为一些随机的因素导致这样的差异呢?

假设检验可以有效地帮助我们回答这个问题。首先假设改动没有效果,即B的效果不会比A好,然后试图通过样本测试的结果来验证这个假设,如果样本足以推翻假设,那么我们就可以认为改动有效果,否则我们需要继续实验或者干脆就接受这个假设,把B方案扔掉了事。

由于我们实验的样本一般都较大(大于30),所以我们使用Z检验来检验差异显著性(样本量较小时,我们一般用T检验,对此有疑问感兴趣的同学可以查阅相关资料)。

5.2 Z检验

1)样本统计量Z值

Z检验是一种适用于大样本(样本容量大于30)的两组平均数之间差异显著性检验的方法。它是通过计算两组平均数之间差的Z值与理论Z值相比较,看是否大于规定的理论Z值,从而判定两组平均数的差异是否显著。

其一般步骤如下:

第一步:建立原假设 H0:μ1 = μ2 ,即先假定两组平均数之间没有显著差异,

第二步:计算统计量Z值,对于不同类型的问题选用不同的统计量计算方法,通过检验两组样本平均数的差异性,判断它们各自代表的总体的差异是否显著。

与计算样本量相似,当观测的指标为绝对值类型/比率型指标时,Z值的计算公式有所差异。

当观测指标为绝对值类指标时:

当观测指标为比率类指标时:

计算公式类似,只是对于绝对值/比率型指标,方差的计算方式有些差异而已。

2)理论Z值

样本的统计量Z值可以通过以上的公式进行计算,理论Z值可以通过查询Z值表获得,更方便的一种方法,我们可以通过Excel的NORM.S.INV函数直接计算,如下是我们常用置信水平90%、95%、99%下的理论Z值。

3)样本统计量Z值vs理论Z值比较

假设通过以上公式计算的统计量Z值 = 1.22,小于我们设定95%置信水平对应理论Z值1.96,也就是说我们暂无法判断这种差异性是显著的,所以上述样本不足以得出B比A好的结论。

4)继续实验

正如之前所说,由于无法得出B比A好的结论,这种情况下,我们需要做更多实验。

于是,我们又做了一周,A和B分别得到了3000个样本,对照组和实验组转化率不变。这个时候我们有信心认为B比A好了吗?

仍然是套用上述公式求统计量Z值= 2.66。超出了我们设定的95%置信水平对应理论Z值1.96,这个时候我们有了足够的信心来相信B比A好。到此为止,实验结束。

5)用工具直接验证

当然,如果觉得上述的显著性检验还是太麻烦,还记得我们之前安利的Evans AB Tools,我们可以用这个工具方便地进行检验!

使用方法也很简单,分别输入对照组和实验组的比率类指标对应的分子、分母和置信水平Confidence level(一般95%)。

在第一周的实验中,对照组A对应的分子、分母为75/1000(转化率为7.5%),实验组B的对应的分子、分母为90/1000(转化率为9%),设置置信水平Confidence level为95%,得出的结果如下:两组无显著性差异!

又进行了一周实验,对照组A对应的分子、分母为225/3000(转化率为7.5%),实验组B的对应的分子、分母为270/3000(转化率为9%),置信水平Confidence level仍为95%,得出结论:两组有显著差异,且实验组B效果更好!

不用任何公式,也能方便地进行AB测试结果的显著性验证,赶紧收藏吧!

六、AB测试常见面试题

还有一部分同学在准备数据分析的面试,不知道数据分析面试中AB测试会考哪些?希望能给一些建议,今天,它来了!

6.1 第一类错误vs第二类错误

面试官问:你怎么理解AB测试中的第一、二类错误?

第一类错误和第二类错误,AB测试中最常提到的两个概念,前面也提到过,也是统计学中比较容易搞混的两个概念。不好理解的话,还是举个栗子,在互联网产品案例中,第一类错误代表的是一个功能的改动,本来不能给我们带来任何收益,但是我们却误认为它能够给我们带来收益。同样,第二类错误代表的是本来是一个好的产品,它本来可以给我们带来收益,但是由于我们统计的误差,导致我们误认为它并不能给我们带来收益。

往往在实际的工作中,第一类错误是我们更加不能接受的。换句更直白的话说,就是我们宁愿砍掉几个好的产品,也绝对不能让一个坏的产品上线。因为通常是一个坏的产品上线会给用户的体验带来极大的不好的影响,而这个不好的影响会非常大程度的影响到我们的日活以及留存。你要知道在现实生活中,我们把留存或者把日活提升一个百分点都已经是一个非常了不起的优化了,但是通常要实现1%的留存率。人都需要花费很长时间,也很大精力,但是你如果想要留存下降一个百分点的话,可能就是一瞬间的事情。所以第一类错误通常是我们在实际工作当中所更加不能接受的。

6.2 统计显著=实际显著?

面试官问:如果你发现AB测试的结果在统计上来说是显著,但是在实际中却不显著,这是为什么?

这个可能的原因是我们在AB测试当中所选取的样本量过大,导致和总体数据量差异很小,这样的话即使我们发现一个细微的差别,它在统计上来说是显著的,在实际的案例当中可能会变得不显著了。举个栗子,对应到我们的互联网产品实践当中,我们做了一个改动,APP的启动时间的优化了0.001秒,这个数字可能在统计学上对应的P值很小,也就是说统计学上是显著的,但是在实际中用户0.01秒的差异是感知不出来的。那么这样一个显著的统计差别,其实对我们来说是没有太大的实际意义的。所以统计学上的显著并不意味着实际效果的显著。

6.3 AB测试效果统计上不显著?

面试官问:如果你发现你在AB测试当中所选取的指标在统计上来说都是不显著的,你该怎么去判断这个实验的收益?

对于这种情况,我们所选取的一种通用的方式是将这个指标去拆分成每一天去观察。如果指标的变化曲线每一天实验组都高于对照组,即使他在统计上来说是不显著的,我们也认为在这样一个观测周期内,实验组的关键指标表现是优于对照组的,那么结合这样一个观测,我们最终也可以得出这个优化可以上线的结论。

6.4 实验组优于对照组就能上线?

面试官问:如果你在AB测试中发现实验组核心指标明显优于对照组,那这个优化就一定能够上线吗?

不一定。举个例子,比如说有的时候我们想要提升产品的视觉展现效果。但是这种优化可能是以用户等待内容展现的时间作为代价来进行提升的。所以一个方面的优化可能会导致另一个方面的劣化。在做这个优化的时候,可能会对其他部门产生一些负向的影响,进而导致公司收入的下降。所以我们在进行AB测试的时候,必须要综合评估所有方面的一些指标变动,同时对于收益和损失来做一个评估,才能确认这个优化可以最终上线。

6.5 AB测试是必须的么?

面试官问:AB测试成本很高,每个调整都需要AB测试么?

但是比如说面试官问到每一个关于我们现在想要上线一个小改动,或者说要上线一个小调整,你会如何去验证这个调整的收益?你都用AB测试去进行回答的话,他可能会反问,AB测试是需要成本的,你不觉得每一次我们如果都需要通过一个AB测试去验证的话,成本过高吗?对于这种情况,你可以说如果只是验证一个小按钮或者一个小改动,我们可以在界面上去设置一个开关,用户可以通过开关的形式自行决定我采用哪一种方式。那么我们最后就可以通过这个开关的相关指标去判断用户对于哪一种形式又有更大的倾向性。或者有的时候我们可以去做一些用户调研,比如说通过访谈或者说是设计问卷的形式,去收集一些用户的反馈。或者他们关于这些小变动的体验,所以并不是绝对的。

6.6 AB测试的其他变式考法

最后在面试当中可能会存在一些AB测试的变式考法,所谓的变式考法,就是说面试官并不会直截了当的来告诉你说下面我要考一下你AB测试的掌握怎么样?一般情况下,当你的简历当中出现的比较多量化结果的时候,面试官可能会问你,你会如何去验证这个数字的显著性?再比如说,当你在简历当中明确提到你所参与的某个项目,你的分析结果带来了一些显著的收益,那么面试官可能会问你,你会是如何验证这些收益?当出现以上信号的时候,我们就要知道面试官可能想考察你关于AB测试的知识了。有的时候你可能感觉面试官在故意刁难你,问你的明明是两个比较矛盾的问题,但是在这种情况下,其实面试官想考察的是你的一个思维的广度,在不同情况下,是不是知道能够学习更多的方式或者指标去分析这个问题。

文章来源:/d/file/gt/2023-09/3bblqxxlzvq

更多资讯
游戏推荐
更多+