量化设计价值(一) :如何分层获取产品数据?

此文是想梳理下,对于“数据”这个概念,到底意味着些什么,帮助大家从不同层次理解多面的数据。

先明确下获取数据的目的:度量。

“文中示例相关数据都为假的模拟数据,而非真正的商业数据,以此声明”

度量是什么

「度量 Measure」是一种测量评定对象的方式,它帮助我们结构化的获取对象的状态与变化,我们运用这些数据进行洞察,转化为有用的信息,帮助决策和优化,这个过程也是分析诊断的过程。

那日常会有怎样的一些信息获取呢?(这里面包含了数据也包含了一些正负性的反馈)

我们对一个功能上线进行一组完整的项目结果质量数据模拟:

净交易收入额比去年同期上升 2.0%,达到 2 千万

订单量为 222,比上周上升了 2.0%(对交易产生直接正向作用)

方案产出数共 222 件,比上周上升了 22.2% (对内容产出有直接的提升)

用户的满意度为 2.2,上升了 2% (之前是 2.0)

用户使用表现出沉静,轻松的情绪(比之前挫折,晦涩要好很多)

功能点击,周活跃 2200,点击率 22%,周留存 22.2%(0-1)

功能渲染和可交互时长为 0.2 秒加载完成。用户在使用时交互顺畅无卡顿(符合业界前端质量交付标准)

这段描述符合整个产品使用的过程,它似乎是一个多面体,帮助我们了解整个产品黑盒。这个描述越精细越多维,我们得到的信息就越清晰越客观。(包含多元数据内容,并对数据已进行比对和使用,得到一定的有效信息)反之,假如哪个环节出现问题。我们能清晰看到问题出现的环节,并且通过其表征的信息进行问题的深挖(再细化相关数据或者关联的层次)。

我们可以拆解到这几个层次的数据:业务结果、用户反馈(态度与情绪)、行为点击、系统性能

可理解为:良好的产品运行-》用户流畅使用-》良好的用户反馈-》预期的产品转化结果

从获取方式来说,大致可以从两个大角度(这里从广义的范畴去分)

  • 「qualitative research 定性研究」:快速从样本中判断问题的性质和方向

  • 「quantitative research 定量研究」:数据的验证性,全面性、追踪性

定量获取

系统承载业务内容的运作,可以记录各种各样的明细数据表,在海量数据中,进行科学的关联与细分。以大数据驱动为最终目标,其特点是:数据的全面性和自动追踪获取。

1. 业务结果

追踪问题:产品是否符合市场需求?产品是否良性发展?

业务型数据是围绕着整个商业建设和运作阶段而产生的数据。是最能体现产品、商业价值的部分。可以归纳为三类:内容建设->流量访问->商业交易。是商业链路中产生的具有直接商业结果的数据。

内容建设是指经过人为输入,系统流转产生的比如商品、文章、方案等等具有实质内容价值的数据。是具有生产过程的(一般是经过一系列的操作完成的)。

流量访问/分发则是针对商业内容的使用/运作,比如某个商品的浏览,某个内容的传播等等。这些和营销相关具备人群效应的数据也属于业务数据。最常见的就是曝光量点击量,而在中后台系统中则是以访问浏览为主。

商业交易则是最直接的商业结果型数据,最常见的就是网站的 GMV(成交金额:包括:付款金额和未付款。)

订单交易额、注册会员数等等。

以某平台中相关的业务数据为示例

业务结果的分析,是根据不同业务发展,确定核心业务指标,以及建立对核心指标的拆解逻辑。

它或许是个计算公式。或者是个一级指标到二级关联指标。例如以下,这里暂时不展开来讲。

对于业务数据的获取,我们大部分是直接通过后端的数据库沉淀下来的。但如果涉及到商业数据的细分(按照商业目标进行阶段性或者类别型的追踪监测)。比如想知道会员的 vip 的分层情况。或者知道某行业商品的生产细分情况等等。这些虽然可以通过后端拉数据,让数据分析师或者运营整理出来,但是每次都有加工成本,也没有办法看到实时数据,这时候就会要考虑去做细分埋点,下文会提及到埋点方式。

2. 行为点击

追踪问题:产品使用情况如何?用户浏览习惯如何?

用户行为数据,是围绕用户访问某产品过程的用户行为轨迹数据。其中大体包含了用户量、曝光量、点击量、浏览量、访问时长、停留时长等等观测用户使用情况的表征数据。

这里是一组典型的平台用户使用行为的描述,而这些行为的最终,是产出了上面的业务数据(订单与成交金额)

访问首页->点击并浏览商品详情->点击客户咨询进行咨询->点击购买提交订单->点击支付,支付完成

由此我们可以解释,行为数据与业务结果之间的关系,并且两者的关注点也是有差异的,在行为链路中,我们更注重每一层的转化关系以及用户为什么没有向下转化的障碍点。

2. 再以 B 端管理系统为例

B 端的管理系统具有典型性,可以用点线面来归纳,点指的是诸如事件曝光点击等。线指的是用户使用路径,面则是广义的综合性观察,比如流量分布,比如区域热图等。通过观察这些,可以观察到用户的使用率和使用路径。并且得知用户使用产品是否真的贴合需求,设计的是否合理高效。

行为数据要结合具体的场景或者维度去观察,才能产生更有用的信息。

运用行为数据,我们可以去做很多分析:漏斗分析、留存分析、流量分布分析、路径分析 、单页热力分析、点击分析、 人群分析等等,这些都是分析方式,在后续关联篇章中会去探讨。

行为数据的获取是依赖于埋点的,在业界有两大类埋点方式:全埋点、手动埋点。

行为数据的三大事件类型基本可以归类为:曝光事件、点击事件、停留事件

对于 C 端侧重于曝光、点击。对于 B 端侧重点击、停留 (从流量转化与访问效能两个角度来说)

以上介绍了业务结果和行为点击两种数据,而这两种内容,都会涉及到埋点采集这件事,这里我们介绍下关于埋点采集数据这件事情。

3. 埋点采集

追踪问题:如何根据人物、场景、动作制定精准的采集方案?

埋点,是对特定数据的采集,由前端埋点和上报、进行数据处理和数据分析。一般数据埋点分以下三种:

全埋点虽然是所有数据按需可查,但是因为它的数据量极大,且需要 2 次定义和清洗,所以只能对通用性质的数据进行采集。而针对性的内容,由数据采集定义后,由前端上报后,可能做到定点,定期精细具体的统计。

两者大致能产出什么数据分析呢?主要以平台/系统这个角度看:

  • 整体分析-通用全埋点

用户活跃、用户留存、用户跳出率、用户停留时长、用户流量分布…

  • 局部与特定分析-手动埋点

关键事件点击率、关键入口渠道流量总计与分布、关键链路漏斗、关键具体区域曝光与停留时长…

为了获取更精准的业务/行为数据,我们一般会采用手动埋点的方式,所以前期第一阶段会在场景中确定分析目标,然后梳理相应需要的指标,书写明确的埋点需求是很重要的一个环节,书写的足够明确,才能和业务、前端、数据分析师进行准确的沟通,分析目标一致,接着上线后建立相应的数据看板。

注意点:采集方式|统计口径|数据精准度校验

那怎么定义数据分析时的埋点需求呢?可以用以下方式去描述:

  • 什么用户=用户定义

  • 什么时间=时间戳

  • 什么环境=地理位置+网络环境+硬件环境+软件环境+哪个页面(来源页面)+什么位置

  • 什么行为=事件 ID+命名

  • 什么条件=可以以某个行为或者业务交易为条件

  • 结果如何=用户操作的结果

示例:

一个后台系统悬浮帮助功能使用的情况需求

一个搜索使用的情况需求

这 2 个是比较细致的数据采集的描述。规则了统计的对象、范畴、以及条件,结果观测等等的需求,大家可以在业务和行为数据相关采集中,试着撰写下这样明确的需求。这样的数据采集才具有精准的分析价值。

4. 人群标签

追踪问题:用户都是哪些人,谁使用了这些功能 ?

人群标签可以理解为数据型用户画像。为什么在这里提及,因为大量数据(特别是具体的采集数据)都会涉及到人群这个角度。人群也是定量数据中最具有独立观察价值的数据。

人群标签就是根据人群特点,进行描述分类,对人群打标签。我们根据不同的获取路径,可以大致分两类。

一类是利用基本数据进行定义,比较简单直接

从不同的端,可以获取用户的基本来源,如访问端的类型,或地理位置等,可以定义为“客户端用户”、“江浙沪用户”等。

通过唯一用户 ID 所匹配的一系列用户注册时的基本信息内容,如性别、职业、行业、兴趣等。可以定义为“女性用户”、“定制类用户”等。

还有一类就是复合型自定义,一般是根据用户的业务、行为数据或者类别属性来定义的,它非常的灵活聚焦。

使用某类条件公式来定义某一波用户

如我们将购买能力从高低来分层用户:月购买小于 5000 的为中购买力用户,大于 5000 的为高购买力用户,周活跃大于 2 但无购买记录为潜力用户。

另外一种构建用户范畴的方式:通过“时间、地点、事件”等一系列复杂描述来勾勒圈选用户

如我们定义“第一次访问站点时,在首页有关注过每日推荐“的用户。

这里的复合定义很多时候都会用到多指标多维度。是一种深度结合业务场景来圈选人群,定义用户的方式。

人群标签,不仅帮助我们细分数据,知道“到底是什么人做了什么事”,聚焦使用人群的各项指标健康情况。最终,还可以定位产品,定位人群,精细化运营产品:现在的用户大致都集中在哪些人群中?哪些功能是头部用户需要的?哪些功能最受基础版用户的欢迎等等。在探索商业需求的时候,更容易找到抓钩,去深挖商业价值。

常用画像的场景:

  • 定性用户画像:通过调研,熟悉角色日常生活或者工作场景环境,定义基本用户画像。如:用户访谈、用户旅程图

  • 定量用户画像:用定量的数据做某些值的规则,来圈定用户人群。如: 用户生命周期、问卷分发、运营活动

某产品生命周期使用示例:

5. 系统性能

追踪问题:产品使用起来流畅吗 ?

性能数据一般指由产品进行页面渲染及前后端交互时,监测到的时长数据。观测系统性能,是因为系统数据量很大时,在产品渲染交互环节中,容易产生卡顿,造成用户体验的下降,导致流失率。而系统性能,一般是由性能监控等产品产出质量报告。在一些浏览器中,也有嵌入的插件统计报告。

这里大致介绍下业界 google 最新的关于 7 大性能指标的定义

这其中,最重要的 3 大核心指标是:

  • LCP:页面的速度指标

  • FID:页面的交互体验指标

  • CLS:页面的稳定指标

可以通过官方出品,安装 web-vitals-extension 插件来获取三大核心指标,也可以通过安装 Lighthouse 插件来获取如下指标,现在已经内置在浏览器中

定性获取

定性数据,是由用户那里获取信息,直接判断问题的性质和方向,快速展开挖掘和收集。

它的获取方式主要是 面对面研究:

即选择典型用户角色,针对问题或者内容进行集中测试或者访谈:用户访谈、焦点问题调研、可用性测试等。

「ps:另外一种自动化研究:圈人群进行在线问卷调研投放,聚合大量样本进行交叉或者聚类等等分析,是一种样本量的统计方式。具备一定程度的样本数量,可归为定量统计分析。」

比较常用的是:系统可用性量表(SUS)、有效性、满意度和易用性的问卷(USE)

不管哪种方式,我们都是围绕“可用性”这个角度去进行评估和研究的。业内可用性这个词称为:“Usability”「ISO9241/11」中有明确的相关定义:一个产品可以被特定的用户在特定的境况中,有效、高效并且满意地达成特定目标的程度。可用性关注的是用户与对象在互动过程中的有效性(effectiveness)、效率(efficiency)和满意度(satisfaction)。

用户反馈中我们获取到什么样的信息,我们第一:明确用户对此内容的态度,观察用户行径中的顺畅度,感受用户认知反馈。第二:询问其严重程度和影响程度,正面负面情绪。这两层是由表及里的,互相关联。但侧重有所不一样。

1. 用户态度

追踪问题:用户使用后,满意度如何?通常用到以下几种度量

而这些内容中一般包含数据是

  • 观察与记录实验性数据(描述性状态情况)

  • 主观数据和偏好数据(出自于自身的想法)

  • 情感层面数据(使用系统后最终的感受或者过程中的心情)

  • 结果性数据(比对/选择内容,得出结论)

而从场景分我们如何使用这几种度量呢?

引用自:Tom Tullis Bill Albert {Measuring the user Experience} 用户体验度量

不难发现,我们最常用到的是「自我报告式的度量」

它比较宽泛的反应了产品综合情况。这里举一个自我报告度量涵盖的范畴

用户情绪

追踪问题:用户使用后,在情感上反应如何?

初步知晓用户反馈情况后,可以深入用户情绪感受,进行点状问题的挖掘。进而对问题进行定性分析追踪和程度评级。用户在一定严重情绪影响下,是对产品会产生排斥的,所以有时候对情绪的收集,能让我们对内容具备敏感度。且在设计过程中,充分建立共情和同理心。

情感描述模型是指对情感状态进行定义,并描述其表达性特征的方法,主要可分为离散描述模型和连续描述模型。

连续型描述模型往往认为人类的情感状态是分布在若干个维度组成的某一个空间中,不同情感状态之间不是独立的,而是连续的,可以转化的。

这里我们介绍一个连续描述模型: 唤醒度(Va-lence-Arousal)模型

「Va-lence-Arousal」:用两大象限归纳了人们的情绪:正面与负面情绪的变化。激动和平缓情绪的变化。构建了一个立体的情感空间。

当度量情绪变化阶梯时,可以试着使用连续情绪。比如:挫折——》生气、沮丧——》厌烦等。而有些程度词是和时间长度有直接关系的,比如说疲惫。我们需要关注场景特点,用户可能会长时间沉浸式体验时,它是否能接受打扰,是否会因为一些内容受挫。这些都会导致他最终直观感受的好与坏。

举例子来陈述:

  • 产品设计过程中,串联用户使用流程时,流程的长短和任务路径会产生直接用户感受-》是否足够轻松

  • 运营产品过程中,在哪些环节中穿插特定内容可以打造用户峰值体验。—》这个推荐不错,好贴心,惊喜当这些生动的情感词汇,被考虑进产品设计中时,很容易让我们得到一个具有温度感,具有更良好接受度的产品。在度量实施方式上,我们可以在用户旅程图中,在问卷或可用性测试部分,考量使用卡片分类法,或表情评分板对用户的情感进行收集。(基于情绪感知更为直接有共情性)。

情绪评分卡:

在各种用户态度反馈中,我们也可以直接去获取针对性的情绪化度量表进行 5 分表计量评分。

具体方式:

  • 第一步:卡片分类法,预设 10-20 组情绪关键词,让用户选 2-3 个关键词,确定影响面。

  • 第二步:确定程度:1-5 评分机制确定程度。

以下为目标设定的取词示例:

严重评级

追踪问题:什么问题是至关紧要的,需要马上解决的?

定性内容的收集完成后,一个比较重要的事情就是针对问题去做 2 次整理和评级。

严重性评估有助于集中精力解决关键的问题,清晰说明每个一个严重等级的意义。对每个等级都尽可能用实例说明。

常用评估:

高中低评估

  • 低-会让参加者心烦或沮丧,但不会导致任务失败的问题。

  • 中-这类问题会显著提高任务的难度,但不会直接导致任务的失败。

  • 高-所有直接导致任务失败的问题。遇到这类问题后基本没有可能再完成任务。

综合因素评估

  • 多维度的评估

前两个较常用,后两个看产品及技术配合

  • 对用户体验的影响

  • 预期的发生频率

  • 对商业目标的影响

  • 技术/实现成本评分(0=低,1=中,2=高)

数据层次结构总结

以上是我们对分层数据获取的一些整理,希望大家对于数据涉及到的概念有一个粗略的认知。当然如何运用数据做好度量这件事情,本身还需要一些串联的方法,比如使用度量框架(Heart 模型),运用合理的分析流程(GSM),搭建追踪式看板,基于问题的度量报告或者自我评估报告等。都是灵活运用到以上数据立体的分析产品质量的过程。

(0)

相关推荐