万字长文破解运营新人数据分析难题
1
小A的数据分析之旅
我们从一个故事开始。
小A是入职了1年多的在线教育公司的运营新人。年底了,运营新人小A很不幸,公司资金周转不灵而被迫离职。在同事都心急火燎地找新工作的时候,小A硬是没有动静,在出租屋里每天朝九晚九地忙活了一个礼拜。
最后入职最快,待遇最好的人竟然还是小A。究其原因,是因为小A离职的时候,与所有人都不同的是,她第一时间选择带走了这个东西!
那么小A第一时间带走的一样东西是什么?大家可以在心里猜一下答案。我5秒后公布答案。
小A带走了所有的数据报表!
互联网百晓生曹政提到过,很多职场人坐守金山而不自知。说的其实就是不知道数据的价值。
坐守金山不自知
小A把自己一年来做的成功的项目案例深刻复盘,每个技术细节和数据指标都列出来,描述了一些关键的核心指标和你的贡献,然后当面试官深究细节的时候,小A可以把每个细节都有条不紊的给出逻辑,数据支撑的判断。这样的表现超越了很多其它的求职者,最后被顺利录用。
对于在线教育行业的运营人来说,做裂变、做拼团、做投放、做抽奖,这些运营动作都会产生大量的数据,生成大量的数据报表。
运营和数据分析性有着紧密的关联,拉新、促活、留存、转化每个阶段都会产生大量数据,但是大家对这些数据的使用程度往往不够深。
比如做到了复盘的时候,很多小伙伴会跟领导汇报,说的是平台生成的数据,裂变活动拉新1万人、拼团销售额破十万+、抽奖参与人数超百万+。但是细究下来,自己没有进行过更细的数据分析,裂变活动的K值是多少?在时间节点上是否有出现活动数据较平常异常高或异常低的点?是哪几个因素导致?
运营产生的数据如果不加以分析就是一个黑盒子,我们不能从中汲取经验,确保下次不出现错误,或者下次同达到想要的目标效果。
运营产生数据,数据驱动运营,我甚至可以说运营的核心就是数据分析。很多小伙伴对数据分析的刻板印象是:高大上、数学、专业、人工智能、大数据、增长黑客。那么第一部分,我给大家分享脉络是先重新理解数据分析,然后通过数据分析,重新认识业务并作出一份业务提升方案。
2
通过数据分析重新认识业务
01
重新理解数据分析
- 运营人的数据分析是什么?
首先来看一下,对于在线教育行业的运营人,所需要的数据分析能力是什么。
下图一张业务数据专家的能力组成图,从里面大家可以看到数据分析仅占整个业务能力的一小环。
数据分析能力往下是平台的熟悉,应用的逻辑和流程,公司内跨部门协作关系。往上是板块渠道质量评估,驱动活动的质量和效果、特定运营指标拉升。
- 我们为什么要用数据分析?
一方面小公司数据量很少用不上专业的数据分析,而大公司有专门的数据分析团队。
另一方面有的小伙伴会觉得,我数学不好,数据分析很难,学不会BI、SQL、Python,我还没准备好去报数据分析的课。
其实呢,数据分析可以让你拿到的原始数据或者分析结果时更能满足业务需求,可以让你和数据团队更好地沟通。一句话,因为数据分析可以让你证实、证伪,或者发现、解答自己的疑惑,因此我们要用数据分析。
- 怎么样学习和应用数据分析?
简单来说数据分析有硬技能和软技能两部分。
硬技能
硬技能就是工具的熟练使用,数据分析有很多的工具,各类培训课程也在变着法儿教工具如何使用。但脱离业务的一切数据分析都是耍流氓,可以这么说,80%以上的在线教育运营人仅通过熟练运用办公三件套(Word、Excel、PPT)的20%的功能就能很好地完成数据分析需求。
学硬技能分两步走,一是工具。二是资源。工具上,家里的床头柜上,马桶旁,公司的工位上准备一本数据分析领域的词典类型书籍翻两翻。如果不够,那么可以再加上一张运营人的数据分析技能地图,地图可以让你知道哪些要学,哪些目前阶段不要学。
资源上我们的原则是不做数据工具人,要就结合业务场景,需要什么就突击去学什么。学习资源,网上有无数的资源,B站就是很好的一个。搜关键词,点开排名第一的,不要纠结,1支笔,1个笔记本,1.5倍速就可以开始学。
软技能
软技能就是数据分析思维。思维是很玄乎的东西,相比于工具类课程,数据分析思维课更容易割韭菜。这里没有高大上,没有深刻的洞察,跑步之前,我们先走几步,讲点基本、实用的东西。
还是两步走,一是背数字。二是多交流。背数字是要记住业务中的关键指标、重要数据、经常推导,培养大脑对数据的敏锐性和记忆力,做到老板突然一问就能对答如流。
Tips:
1.形成习惯,每天上班第一时间查看数据:实时&日周月报。
2. 准备一个小本子,背下各个指标数,反复推算,做到对关键数据指标的脱口而出。简单记住大数,万以下只需要记到万位,有些数字只需要记住百分比。
3.经常做指标推算。这可以帮助你对各个指标的数量级关系和逻辑脉络梳理清楚,出现波动时便能更加敏感。记录关键数据是将工作生活遇到的比较有趣的榜单或数据报告保存在一个统一的地方,方便查阅和分析。
4. 记住公司掌握数据的同事名字、特征,这个更有助于沟通,非常重要。
多交流是加一些数据分析交流微信群,看看他们平时在聊什么;多参加一些活动,俯身入局,甚至报名做一次分享。
OK,关于数据分析的是什么,为什么,怎么样的一套流程走完,上面带着大家重新理解了一次数据分析。
接下来我们说说如何透过数据分析的视角,去重新认识我们的业务,并作出数据提升方案给领导,早日获得升职加薪。
02
重新认识运营业务
接着小A的故事:小A入职现在的公司,她很快就获得了升职加薪。她是怎么做到的?
答案:小A先是通过真实数据熟悉产品和业务,然后做出业务提升方案,一次通过。在大家的努力下,业务数据获得爆发式增长,小A立即取得了升职加薪。
原则:
通过真实的、一手的产品数据正面熟悉产品
通过接触大量的内部的,竞品的业务数据侧面了解业务
真实的、一手的产品数据
我们收集第一手数据做决策,尽量选择行业相关的,一手的数据。流量本身是一个竞技场,如果只拿二手数据是做不出好决策的,相比同行没有优势。
真实是我们分析使用的数据一定要真实、具体。大家都知道,运营行业的数据造假是很容易的。如果大家不幸存在这种情况,给出的解决的办法是做两本账,一本是曲线救国,暂时应对业务使用,但一定要回到另一本账上,另一本是真正反映现实运营情况的账。自己绝对不能欺骗自己。
内部的、竞品的业务数据
第二是通过大量的业务数据、竞品数据尽快熟悉业务,同时拓展对所属行业的理解。
拿到的数据报表里,每一个跳动的数字都是我们在运营中获取数据的汇总,一张一张表,一个一个单元格,源源不断地有数据反哺到你对这个行业,这个细分领域的理解中。接触的数据量越大的时候,我们则对行业的理解越深刻。
要舍得花时间熟悉业务,了解业务,熟悉生态,找出问题,再对症下药。
做出业务数据增长方案
业务增长方案的本质是一份数据分析报告,是要直接指出建议。在通过数据分析重新认识业务之后,我们可以做一份业务提升方案给领导,为升职加薪铺路。
数据分析报告分为六步:明确目的和思路、数据准备、数据处理、数据分析、报告呈现、结论与建议。这里重点说明数据分析以外的三步。
- 明确目的和思路
首先是在沟通上,确定业务方想要分析什么,提出更合理专业的衡量和分析方式,同时做好节点同步,切忌一条路走到黑。在分析业务需求上,跟很多产品需求分析方法论是类似的,需要明确所要数据背后的含义。
- 报告呈现
在阐述分析结果上,要记得结论先行,逐层讲解,再提供论据。因为业务方或管理层时间都是有限的,需要在邮件最前面用 1-3 句话先把结论给出来,即使需求方不看后续内容都可以了解你报告 80% 的内容。
例如:图 > 表 > 文字。在文字报告里面,要尽量把可以量化的变成数字,把汉语数字变成阿拉伯数字
- 结论与建议
结论上要提供信息量。什么叫信息量:提供了对方不知道的信息。比如说你的产品是针对金融从业人员的证书培训,但用户画像里竟然有不少高中生就是一个信息。开头即可给给出不一样的观点。在分析的过程中,要从专业的角度从已知边界向未知边界进军力求角度新颖论证扎实,并根据分析内容给出可落地建议。
整个数据提升方案提交以后,很多数据分析过程缺乏的一环是寻求反馈,数据分析给出来后要持续跟进,验证自己的方案是否正确,可调整的部分是哪些。及时提供反馈。(连续性)
3
巧用数据分析处理增长异常
相信大家在业务中都遇到过这样的问题——数据异常波动。这会造成拉新活动收效甚微,转化率跌到达谷底……紧接着领导就要求我们给出详细的数据分析报告。
当我们碰到一些时隐时现的异常点,突然之间出现了,不知什么原因又突然消失了。初看起来,这种时隐时现的异常点完全是偶然存在的,无法分析和解决。
业务数据的增长异常点可以用3个步骤解决。分别是定义异常点,处理异常点,监控异常点。
定义异常点
首先是要更准确地定义这个异常点是什么。但其实很多时候我们定义不清,是因为很多问题都是混合问题。
下面是一些业务数据中对异常点定义的常见定义谬误错误。
01
常见的定义谬误
控制变量谬误:在做 A/B 测试时没有控制好变量,导致测试结果不能反映实验结果。或者在进行数据对比时,两个指标没有可比性。
样本谬误:在做抽样分析时,选取的样本不够随机或不够有代表性。举例来讲,互联网圈的人会发现身边的人几乎不用「今日头条」,为什么这 APP 还能有这么大浏览量?有个类似的概念,叫幸存者偏差。
定义谬误:在看某些报告或者公开数据时,经常会有人鱼目混珠。「网站访问量过亿」,是指的访问用户数还是访问页面数?
比率谬误:比率型或比例型的指标出现的谬误以至于可以单独拎出来将。一个是每次谈论此类型指标时,都需要明确分子和分母是什么。另一方面,在讨论变化的百分比时,需要注意到基数是多少。有些人即使工资只涨 10% ,那也可能是 150万…
因果相关谬误:会误把相关当因果,忽略中介变量。比如,有人发现雪糕的销量和河道溺死的儿童数量呈明显相关,就下令削减雪糕销量。其实可能只是因为这两者都是发生在天气炎热的夏天。天气炎热,购买雪糕的人就越多,而去河里游泳的人也显著增多。
辛普森悖论:简单来说,就是在两个相差较多的分组数据相加时,在分组比较中都占优势的一方,会在总评中反而是失势的一方。
02
数据分析异常问题拆解
导致数据出现异常点的原因往往是复杂的,混合的。我们需要拆解复杂问题为简单问题,逐层验证,找到最根本原因。
比如说转化率下降。下降是周期性地下降,还是突发性、亦或是还是持续性地下降。
从用户层面来说,是低质量的用户涌进来是不是你这次可能转化率下降的最大原因。
从活动层面来说,促活活动到底和低质量的用户是不是有直接的关系,然后促活的和转化率是不是有直接的关系。当下的用户习惯或者节庆是不是有关系,然后主动还是被动关系。
很多时候,造成数据异常波动的问题不是数据分析就能解决的,需要数据分析能力加上专业的运营能力来对问题进行层层拆解,找到根本原因。
处理异常点
首先我们拿到数据以后需要对数据进行清洗,下面以Excel为例,分享如何处理明显的异常点。
01
数据清洗
拿到数据以后要做原始数据的备份,打开备份我们才能开始分析。首先是针对原始数据的备份数据做整合标注。目的是添加准确定义、详细来源、时间、单位。
1.把多个数据源导入同一张Excel表格。原始数据的来源不一、形式不一,可能是excel,txt,word,csv文件等。
2.给sheet表进行编号、命名、标明日期等信息。原则是同事或者自己打开就可以看懂和使用。
3.接着,在第一列添加行号。如果后面要排序、修改,也容易重新排回原顺序。
4.统一单位和格式,拒绝乱码。
5.检查外链和公式。有个快捷键,「Ctrl」键+「~」键,摁住可以暴露单元格的隐藏信息。
这样就清洗出完整、清楚的Excel原始数据文件。原始数据神圣不可侵犯。我们要养成操作备份文件的习惯。接下来分享如何进行显著的异常分析。
02
显著异常分析
- 通过运营常识对数据进行大的维度分析
在Excel底部右侧,可以看到选中那列数据的基本信息,例如计数、平均、最大、最小等。
如下图,这列数据,共计163行,总额4008675.8元,组均133622.5元。
判断一下,是否符合常识,有没有问题。那我怎么知道对不对呢?
你不需要知道精确数值,只需要想想这个数量级是否正确——
假设平时组均都是上百万的,那么,是数据定义错了、指标单位错了、数值本身错了,还是发生了什么状况?
开头就能检测出错误来的,等你做完才发现数据错漏,岂不是很胸闷。
- 检查「0」、[空白]或者[无]的数据
选中整张表格数据,在菜单栏上选择「数据」,「筛选」,然后可用每栏的筛选下拉菜单,看看这栏包含哪些数值。
我特别注意「0」或者「空白」的数据。它有可能是正常的,例如某天真是没有人登录或者注册,也可能数据发生缺失错漏。
如果有大量的「0」或者「空白」,需要思考对我们分析的影响。例如你想统计男生、女生各自的行为,假设1,000个样本点里,有800个没有识别男女,那么这个结果还有代表性吗?
另外,Excel软件对「0」与「空白」的处理不同。例如,有10个数值,2个=0,2个缺失,6个=8。让Excel数一数该列有几个值,会返回「8个」。0值计入,缺失项不计入。
若计算这一列的平均值,Excel会算成,(2*0+6*8)/(2+6),返回6,因为求8个数的平均值。既不是全部10个,也不是非零的那6个。
因此,当我们见到「0」或者「空白」时,需要追问,空白真的是空白吗?零真的是零吗?系统导出数据时,很可能把未统计指标单位为零,或者反之。App当日登录人数未统计,或者确实无人登录,意义当然不同。
- 数值、单位和命名归一化
# 问HR要个员工花名册,发现部门那一栏五花八门,「营销部」也会写成「营销中心」、「营销」、「市场营销」
# 问客服要个用户问题列表,分类有「手机号」、「电话号」、「联系方式」……
# 小数点末尾保留两位、三位、四位……
总而言之,我们要把这些数值、单位和命名进行归一化处理,统一用上一套双方认可的体系。
- 相关数据交叉检验
有时候,同样的数值会在几张sheet里面重复出现。
例如,一张sheet是当天在售每种商品的销售件数,另一张sheet是当天每个用户各自买了几件商品。
两张sheet分别加总的值,应该相同。误差也许难免,个把商品或者用户统计不精确时有发生;但若相差太大数据又出错了。
- 用「条件格式」看数据波动,发现异常
Excel的「条件格式」功能,可以根据数值大小,给单元格画上彩色柱状图。
例如:下图左边,可以发现一组数据在2019年11月5出现断崖式下降;右边B栏,则在2020年11月12日后回暖。
在这个真实案例中,前者是促销造成的变化;而后者是人员变动带来的真实波动。因此,当我们把它导成图表时,这个功能快速简便,可以发现错误,或者让我们留下总体印象,指导后续的分析。
03
细微异常分析
接下来我们看看,如何分析细微的数据异常波动造成的异常点。当我们完成以上5个步骤,就可以判断出明显的数据异常点。但是有些时候造成异常点的原因是混合问题,要找出其中多个因素逐一分析。所以接下来我们进入更细颗粒度的分析。
举例来说,以我所在的在线教育公司为例,每个业务条线都有其不同的考核指标,但最终都是导向销售额。转化率的计算公式是客户数/数据量*100%。
那么我们看一下分子和分母,分子是客户数,然后分母是数据量,有的时候我的转化率降低了,那么往往要先去分析这两样有哪个变成了变量,或者是否分子分母都变了,那就得看是分子变得多还是分母变得多
有的时候在我们的运营举措变化不大的情况下,它变的是分母。比如你这个月的用户数据突然激增了,结果你发现你的客户数就开始转化出来那么多,所以你的转化率是下降的。
那么就要去分析我们的客户数在转化的过程中出现了什么问题,到底是运营这块的数据质量有所下降,还是客服这一端,有很多数据涌进来了,然后获取到以后的实际转化效果并不好,还是到了销售这层的端口,数据的使用深度不够,或者数据使用率不达标准,所以没有转化出来,还是在有其他的方面的问题。
当发现了异常点的时候,我们去按照刚才的其实罗列的思路,从那张整理好的表里面追本溯源,找一个公式去按照他的思路去每一层分析它分子分母的变动、来源和原因,你可能更容易找到核心原因到底是什么。
现在很多时候大家当发现问题异常点的时候数据报警了,但是大家的开复盘会议后得到的分析结果是是可能是因为用户这段时间太忙,他们可能没时间参加我们的活动或者我的活动,或者是我感觉这次的奖品不是很吸引人,但这些无法对我们找出真正异常点有帮助,下次活动还会碰到这种情况。
所以通过异常点分析的方法,当我们分析出最根本原因的时候就可以对症下药,调整相应的举措来排除异常点。但是光是排除了还不够,为了预防下次再发生,我们需要将异常点列入监控体系,一旦监控体系报警了,我们就能及时处理,将损失降到最低。
接下来开始分享如何监控异常点。
监控异常点
01
异常日志
- 捕捉异常现象
首先是运营活动中,要留心收集各种“反常”现象的素材,反常现象导致数据异常波动。
我们要尽可能详细地记载下当时的活动条件、运营环境、异常过程等(6个月备注原则:6个月后自己的同事能快速看懂);
即使是偶然出现了一次也要记载下来,有时这一次异常是很有价值,一旦解决了,可以大大丰富我们对业务的认识,也可提高运营活动的稳定性和可靠性。
- 归纳关键异常
从平日搜集的素材中,归纳出要重点观测的“反常”现象,发动同事随时注意捕捉,一旦出现了就抓住不放,搞深搞透,把基础工作做扎实就能很好地预防数据异常点的出现。
- 模拟数据
进行各种模拟试验,促成异常点重现,以加快问题的解决过程。有时守候很长时间也捕捉不住一些时隐时现的异常,为了加快问题的解决过程,应创造各种条件,进行模拟试验做AA测试,促成异常点重现,从而搞清其出没的规律,找出相应的解决办法。
- 数据预警
环比:环比增长速度=(本期数-上期数)÷上期数×100%
同比:同比增长率=(本期数-同期数)÷同期数×100%
趋势:指标与预测值之间的差距
以上,我分享了当数据异常高点或者异常低点的时候该如何应对。最后,我们回归主题,结合自己的思考给大家分享一个大招:逆向分析。
4
野蛮生长大招分享——逆向分析
不少小伙伴在学习和使用数据分析的过程中,发现自己进步不大,究其原因有很多,比如说不够努力、陷入各种怪圈、急躁浮躁、基本功不扎实、得不到鼓励和指导……那么针对这些问题,接下来我给大家分享一个野蛮生长的大招——逆向分析,一次性解决全部问题。
逆向分析方法我分为3点来讲——理念、要求、阶段。
理念
运营人要主动抵抗学习和使用数据分析过程中常见的工具技巧、强化提高和苦恼急躁三类问题。
逆工具技巧:数据分析入门时最容易脱离业务,陷入单纯工具的学习中
逆强化提高:忽略基础的重要性,不断地报名参加各类课程、训练营,沉迷于各种分析技巧的细节里
逆苦恼急躁:渴望数据分析速成,遇到问题难以解决,又苦恼又急躁
要求
以最严格的要求,从最基础的地方做起
不可一数字无来历,不可一数字不讲究,力求“字字有数”
阶段
起步阶段,熟练使用数据分析找到显著异常点、细微异常点
巩固阶段,通过数据分析前置和案例拆解找到增长观测点
提高阶段,通过苦用和巧用逆向分析,找到增长引爆点
下面做对实操方法论的3个阶段做进一步的展开分享:
首先是使用逆向分析方法的主要工具是Word、Excel、PPT,起步阶段要具备扎实的三件套基础。
具体的学习方法上面已有提过,而扎实掌握的标准就是能够写出一份Word版本的数据分析需求报告,能够熟悉Excel的常用功能、函数和数据透视表,能够用PPT做出一份业务数据提升方案。
做好了铺垫,下面是起步阶段,这里主要是慢速分析的方法。
01
起步阶段:异常分析
实际的运营工作中,我们总是做完了活动,小组开个会做个复盘就结束了,紧接着又开始新的运营活动。
这样一来导致我们没有足够的时间去做更细致的数据分析,因为小组的复盘是带有更多业务性质的具有一定的片面性,我们需要沉下心来,挑选一次活动/案例做细致的分析,主要目的是找出异常点。
具体方法与上述的巧用数据分析处理增长异常点一致。这里主要是加上了两个要求。接下来到了巩固阶段。
02
巩固阶段:案例拆解和前置分析
经过一段时间的异常分析,相信大家已经对基本对如何找出异常点有了更深刻的认识。但是我们工作的目的是为企业赚钱,要能看到该赛道里的机会、风险。所以巩固阶段的任务是找到增长观测点。通过观测点我们能够往前一步,可以前瞻性地判断异常点,可以对运营活动进行预测,可以看到市场上的机会在哪里。
大家对数据分析有各自的理解:因果关系、驱动运营、确定数据的准确性、支撑决策、复盘必备、抽丝剥茧存乎一心……
在这里我想给大家分享的一点是数据分析很重要的功能——预测。
无论是关于优化的、关于调整的、关于借鉴的、关于参考的,其实大部分人说到的都是后置的内容,什么叫后置的内容?就是对你发现结果好或者不好的,然后你再去做数据分析。
但是数据分析有一个很重要的作用是什么?是预测。古代有句谚语说的是,上医治未病。很多时候我们做数据分析其实是后知后觉的,就是结果好了的时候,坏了的时候,我去分析一下,甚至好了大家都不会去分析,最后差的时候发现已经晚了。
举一个最简单的例子,假如我们去看我们的用户增长曲线,把我们每日的数据就是细化展现,按日,整个汇总出来了以后,我们去看整个用户的增长曲线,当我们发现它的趋势是一路向下的,或者说他已经有连续两个月,这个苗头已经往下走了,那也就意味着之后我们该抓紧调整运营的策略,因为这类数据分析呈现的结果已经证明我们最近的策略有问题。
如果我们都看到曲线是这样的,我们还没有去做相应的调整,其实未来他只能一路往下走,所以在观测点我们看到的是什么?看的是已经下滑的曲线吗?不是,也许你已经看到了这个苗头,从高点你发现下面已经开始下降了,所以你看到的是趋势,通过这个趋势去做了调整,然后避免出现不好的结果。
从另一个方面来说,我们熟知的属于——大数据分析,就是随着计算机算力提高、算法的迭代,在平台搜集了大量的数据以后,机器分析可以让我们打开天眼,获得从来没有过的视野。通过这点可以对未来做出预测,但是对比来说,我们人类进行的各种活动都难以搜集大数据,更多是断断续续的经验、不完整的数据,这类小数据难以让我们对未来做出预测。
我们可以换个视角——加入在运营中开展了连续性的活动,比如说16期训练营,然后有了16期学员的数据、他们行为的数据,通过熟练运用逆向分析方法的时候,我们可以把这些数据细化成非常小的维度观测,同时结合我们的智能对第17期的训练营来做出预测。
机器只有大数据,没有智能。人类只有少数据,但有智能。人类可以通过记录积累大量的数据,结合人类智能本身做到对未来的分析。
比如说国际色彩权威机构 Pantone(潘通)近期公布了2021年的年度流行色 ——极致灰和亮丽黄。它们就是通过大数据分析做出的预测。再比如说,我们常坐电梯,上海这边有一个广告是大房鸭,开始是用普通话,后面通过大数据分析预测到更多买房的是上海人,所以广告改成了更接地气的上海话。
01
案例拆解
使用逆向分析方法找出增长观测点需要结合数据分析前置和案例拆解。数据分析前置是在运营活动之前就开始搜集相关数据进行分析,对运营活动进行结果预测。案例拆解是知识星球上的野生运营里面的王牌活动。
案例拆解属于事后分析的一种模式,运营人拿他人优秀的案例去分析,在分析的时候拥有上帝视角,可以看清楚案例的每个角落,但同时我们也失去了运营的第一视角,难以理解当时运营人的遇到困惑,也无从以当时的条件作出更好的判断。
因此要把前置分析和案例拆解结合起来找到观测点。
02
前置分析
有的小伙伴就会说,数据分析是要有数据才能分析,哪里存在前置分析的概念。对的,我们总是事后分析,但这也造成了我们后知后觉地认为当时如果我们怎么怎么样会做得更好,如果我们在运营活动前就搜集与相关数据进行预测,结合案例拆解看领域内别人的打法,是否能更好地观测运营的结果呢?
首先是通过巧用数据分析异常点,我们可以在第一个维度找到观测点。
举例来说,当发现了异常点的时候,我们去按照前面的其实罗列的思路,追本溯源,找一个公式去按照他的思路去分析每一层分子分母的变动、来源和原因,我们就更容易找到核心原因到底是什么。
当我们对异常点进行数据分析过程中,找到1.竞品的情况,2.未来的趋势、3.针对异常点已经采取的举措,4.未采取的举措,5.最深层次的原因这5点。
其实当我们分析到第5点——深度的原因的时候,就已经知道了你的问题出在哪,因为我们既看了同行的情况,然后又预测了市场的趋势,完了以后,自己已经采取什么策略,哪些是有效,哪些是无效的,知道了。未采取的大部分要么就是没有去做的,我们就是同行已经做了,但是反正我们没做的。
然后再分析原因,其实这里面就能找到观测点,通过观测点我们可以寻找出更有针对性的举措去解决接下来的问题了。
下面来分享从第二个维度寻找找到观测点的方法论。
这里主要是通过细化我们不多的数据,往下映射为异常现象,异常时间节点表;网上分析则可以找到观测点。
前置分析,除参考间接经验外,找到观测点的主要途径是坚持及时总结排除异常点的经验教训,每排除一次异常点写一份《异常分析报告》
《异常分析报告》
内容包括:异常日志、分析判断、现场排除,经验教训4个部分。
- 异常日志部分
应详尽记载下首次出现数据异常点时的各项指标数据,异常现象时的发生条件等等;
- 分析判断部分
记述发生异常点后,我们如何分析判断异常点的,根据是什么,把握性怎么样;
- 异常排除部分
叙述用数据分析工具排除异常点的详细经过;
- 经验教训部分
叙述异常点的发现、分析判断、异常排除等各个方面的经验教训;如果分析判断对了,应该总结成功的原因是什么;如果分析判断错了,异常点未能及时排除,走了较大的弯路,就更应很好地总结教训,是什么原因使分析判断发生差错的,今后再发生类似的异常点应该如何判断等等。
《异常历时明细表》
- 从异常发生开始到异常排除为止的整个时间进程
- 异常现象的阻断时间
- 优化后可缩短的时间
- 具体工作造成的数据异常波动所耽误的时间
这就是逆向分析的巩固阶段,通过我们大量业务实战,可以更敏锐地察觉到业务赛道里的机会、风险。接下来我们进入提高阶段,组合运用逆向分析方法,找到引爆点,助力业务增长。
03
提高阶段:逆向分析
前面我们找到了业务数据增长异常点、观测点,一个是确保的业务不出错,一个是确保我们运营业务平稳前行,最后要分享的是找到引爆点,助力业务增长。
《引爆点》一书的作者格拉德威尔在书中提到了“流行现象”的三个法则,其中第三个法则是环境威力法则,意思就是发起流行的环境极端重要。注意:不是重要或者很重要,而是极端重要,甚至一个微小外部环境的变化,就能决定流行或者不流行。
在提高阶段,我们可以用数据分析找出这个微小的变化——找到引爆点。
举个例子来说,如果我们正常运营的系数是1,当我们保证业务每天稳定地增长时,在365天以后结果还是1。这是正常轨迹。
但是当业务中出现异常点的时候,基础工作系数就变成了0.99,一年以后结果是0.99的365次方,结果是0.03。
异常点的附近存在引爆点,我们做扎实基础工作,保证业务系数是正常1,那当我们从异常点分析中找到0.01这个引爆点的时候,就能达到1.01的365次方收益,结果变成了37.8。
那么如何找到数据分析的引爆点呢?
这就是有句谚语提到——最危险的地方同时也可能是最安全的地方。所以这里我们同样是从异常点开始挖掘。
有两个前提,一是我们日常的运营基础工作做扎实,这保证你的工作系数是1。二是等待业务数据中出现异常波动,然后组合使用前置分析方法和案例拆解方法挖掘出引爆点。
找到引爆点的过程是苦用数据分析基本功抽丝剥茧,层层深入,找到主要矛盾的主要方面的过程。
同时也要通过组合使用异常分析、案例拆解里面的各类技巧进行数据清洗,数据挖掘,将业务层层推进。总的来说这是一个苦用和巧用数据分析过程。
数据分析,听起来是非常炫酷的事,但是,和所有其他事一样,许多基本的工作,既不炫酷,也不轻松。有时熬夜加班到深夜,还分析不出深层次原因的时候,你会烦恼、焦虑、甚至怀疑自己。
这时严格遵循逆向分析的要求,组合使用异常分析、前置分析和案例拆解,以最严格的要求,从最基础的地方做起。不可一数字无来历,不可一数字不讲究,力求“字字有数”。数据杂糅、分析因素重合。经过反复推导,层层分析,引爆点就会灵光一现地来到你的脑海里。通过引爆点把运营活动做起来,取得了具体的进步,一个一个好的结果数字蹦出来。
用逆向分析方法做增长,增长中那些疑惑和异常的地方,不但不是使自己泄气的“障碍物”,反而会成为吸引自己继续学下去的强力“磁铁”在扫除一个“障碍物”以后,一定有扫除下一个“障碍物”的强烈愿望。如此不断前进,往往不知不觉就学到了深夜一两点,一点倦意也没有。
面对这样的“成绩单”,心中感受到的再也不是苦恼了,而是不断取得成绩的喜悦而付出的努力越多,喜悦之情就越高。
尤其是在通过反复推敲,解决了一个长时间困扰自己的问题时,真是“欣喜若狂”,越学劲头越大。在局外人看来需要很强的毅力才能进行下去的数据分析,在学习和使用数据分析的人看来,则是一个必然的良性循环过程,学习和应用数据分析成了一种兴趣,一种享受,不需要毅力去支撑。