大数据分析特点?
500
2024-04-23
根据以上对业务数据化与数据业务化的理解和分析,笔者认为两者之间实际上存在着四种关系:浅与深的关系、先与后的关系、Doing与Done的关系、相辅相成的关系。
(1)数据应用的深度:浅与深的关系
业务数据化是数据的浅层应用,数据业务化是深层应用。前者是前提和基础,后者是前者的延伸与深化。
(2)数据应用的节奏:先与后的关系
先有业务数据化,再有数据业务化。在数据价值释放这首歌曲中,业务数据化是前奏和序曲,数据业务化是主体和高潮部分。
(3)数据价值释放的进度:Doing 与Done 的关系
在数据价值释放的进程中,业务数据化是Done、是先手,数据业务化是Doing、是后手。业务数据化是过去式和现在完成时,而数据业务化则是现在进行时和将来完成时。
(4)相会于数据中台:相辅相成的关系
业务数据化与数据业务化相会于在数据中台,是数据中台战略落地的左右手,业务数据化是左手,对应业务中台,数据业务化是右手,对应数据中台。业务数据化与数据业务化相辅相成,业务数据化是为了更好的开展数据业务化。数据业务化对业务数据化提出更高的要求,倒逼业务数据化做的更精细,两者共同服务于业务运营和数据价值释放。
1,当回顾一个战略,发现公司的长期业绩前景因为包含了太多的增长缓慢的因素,因而正在下降或竞争乏力的业务单元而变得失去吸引力势。
2,当一种或多种主要的经营业务陷于困境势。
3,当新的首席执行官接任,并决定重新确定公司业务发展方向时。
4,当出现了“未来浪潮”的技术或产品时,公司为在一个潜在的、巨大的新的行业中建立一定的地位而需要对现在的业务组合进行大的改组势。
5,当公司面临一项很大金额购并的唯一机会,不得不卖掉几个现存的业务单元以支持新的购并时。
6,当组合中的主要业务变得越来越没有吸引力的时候,不得不进行业务改组以得到满意的长期公司的业绩时。
底层数据仓库,上层做好数据分析和展示,同时做好数据治理。最重要的一点,数据管理一定要支撑业务,从业务出发,为业务创造价值,否则业务部门不配合,很难进行下去。
比如通过数据仓库提高业务系统的查询效率、通过报表平台让业务部门不再频繁的进行各种报表计算加工等等,从一点点小事做起,让业务部门认识到数据管理可以帮他们减轻负担、提高效率,后面的事情就好办了。
具体应用上,可以采用数据仓库+BI的方式进行,选择好ETL工具,推荐Kettle、HaoheDI做底层ed数据整合。
大数据影响到几乎所有行业和任何规模的组织,从政府和银行机构到零售商。
比如制造业借助大数据的力量,行业可以转向预测性制造,从而提高质量和产量,并最大限度地减少浪费和停机时间。大数据分析可以跟踪流程和产品缺陷、规划供应链、预测产量、增加能源消耗以及支持制造的大规模定制。
或者零售零售业很大程度上依赖于客户关系的建立。零售商需要他们的客户、最有效的处理交易的方式,最战略性的方式,以恢复失效的业务,而大数据为此提供了最佳解决方案。起源于金融领域,使用大量数据进行客户画像、支出预测和风险管理成为零售行业必不可少
数据的三大来源:
(1)大量人群产生的海量数据。
(2)企业应用产生的数据。
(3)巨量机器产生的数据。统计数据主要来自两个渠道:一是数据的间接来源;一是数据的直接来源。
统计数据的直接来源:
1、普查:专门组织的、以获取一定时点或时期内现象总量资料为目的的一次性全面调查。
2、随机抽样调查:基于随机性原则,从调查现象总体中抽取部分样本,以样本调查结果推断总体情况的调查方法。
3、非随机抽样调查:抽样时不是遵循随机原则,而是按照研究人员的主观经验或其它条件来抽取样本的一种抽样方法。
01 细分分析
细分分析是数据分析的基础,单一维度下的指标数据信息价值很低。
细分方法可以分为两类,一类是逐步分析,比如:来北京市的访客可分为朝阳,海淀等区;另一类是维度交叉,如:来自付费SEM的新访客。
细分用于解决所有问题。比如漏斗转化,实际上就是把转化过程按照步骤进行细分,流量渠道的分析和评估也需要大量的用到细分方法。
02 对比分析
对比分析主要是指将两个相互联系的指标数据进行比较,从数量上展示和说明研究对象的规模大小,水平高低,速度快慢等相对数值,通过相同维度下的指标对比,可以发现,找出业务在不同阶段的问题。
常见的对比方法包括:时间对比,空间对比,标准对比。
时间对比有三种:同比,环比,定基比。
例如:本周和上周进行对比就是环比;本月第一周和上月第一周对比就是同比;所有数据同今年的第一周对比则为定基比。通过三种方式,可以分析业务增长水平,速度等信息。
03 漏斗分析
转化漏斗分析是业务分析的基本模型,最常见的是把最终的转化设置为某种目的的实现,最典型的就是完成交易。但也可以是其他任何目的的实现,比如一次使用app的时间超过10分钟。
漏斗帮助我们解决两方面的问题:
在一个过程中是否发生泄漏,如果有泄漏,我们能在漏斗中看到,并且能够通过进一步的分析堵住这个泄漏点。
在一个过程中是否出现了其他不应该出现的过程,造成转化主进程收到损害。
04 同期群分析
同期群(cohort)分析在数据运营领域十分重要,互联网运营特别需要仔细洞察留存情况。通过对性质完全一样的可对比群体的留存情况的比较,来分析哪些因素影响用户的留存。
同期群分析深受欢迎的重要原因是十分简单,但却十分直观。同期群只用简单的一个图表,直接描述了用户在一段时间周期(甚至是整个LTV)的留存或流失变化情况。
以前留存分析只要用户有回访即定义为留存,这会导致留存指标虚高。
05 聚类分析
聚类分析具有简单,直观的特征,网站分析中的聚类主要分为:用户,页面或内容,来源。
用户聚类主要体现为用户分群,用户标签法;页面聚类则主要是相似,相关页面分组法;来源聚类主要包括渠道,关键词等。
例如:在页面分析中,经常存在带参数的页面。比如:资讯详情页面,商品页面等,都属于同一类页面。简单的分析容易造成跳出率,退出率等指标不准确的问题,通过聚类分析可以获取同类页面的准确数据用于分析场景。
06 AB测试
增长黑客的一个主要思想之一,是不要做一个大而全的东西,而是不断做出能够快速验证的小而精的东西。快速验证,那如何验证呢?主要方法就是AB测试。
比如:你发现漏斗转化中中间有漏洞,假设一定是商品价格问题导致了流失,你看到了问题-漏斗,也想出了主意-改变定价。但主意是否正确,要看真实的用户反应,于是采用AB测试,一部分用户还是看到老价格,一部分用户看到新价格,若你的主意真的管用,新价格就应该有更好的转化,若真如此,新价格就应该确定下来,如此反复优化。
07 埋点分析
只有采集了足够的基础数据,才能通过各种分析方法得到需要的分析结果。
通过分析用户行为,并细分为:浏览行为,轻度交互,重度交互,交易行为,对于浏览行为和轻度交互行为的点击按钮等事件,因其使用频繁,数据简单,采用无埋点技术实现自助埋点,即可以提高数据分析的实效性,需要的数据可立即提取,又大量减少技术人员的工作量,需要采集更丰富信息的行为。
如:重度交互(注册,邀请好友等)和交易事件(加购物车,下订单等)则通过SDK批量埋点的方式来实施。
08 来源分析
流量红利消失,我们对获客来源的重视度极高,如何有效的标注用户来源,至关重要。
传统分析工具,渠道分析仅有单一维度,要深入分析不同渠道不同阶段效果,SEM付费搜索等来源渠道和用户所在地区进行交叉分析,得出不同区域的获客详细信息,维度越细,分析结果也越有价值。
09 用户分析
用户分析是互联网运营的核心,常用的分析方法包括:活跃分析,留存分析,用户分群,用户画像,用户细查等。
可将用户活跃细分为浏览活跃,互动活跃,交易活跃等,通过活跃行为的细分,掌握关键行为指标;通过用户行为事件序列,用户属性进行分群,观察分群用户的访问,浏览,注册,互动,交易等行为,从而真正把握不同用户类型的特点,提供有针对性的产品和服务。
用户画像基于自动标签系统将用户完整的画像描绘清晰,更有力的支撑运营决策。
10 表单分析
填写表单是每个平台与用户交互的必备环节,优秀的表单设计,对转化率的提升起到重要作用。
用户从进入表单页面之时起,就产生了微漏斗,从进入总人数到最终完成并成功提交表单人数,这个过程之中,有多少人开始填写表单,填写表单时,遇到了什么困难导致无法完成表单,都影响最终的转化效果。
现在手机都有自动缓存功能。这样可以降低网络流量的使用。但是呢,随着时间的使用时间增长,缓存的文件也越来越多,这样可使用的手机空间就大大减少了。特别容易导致手机卡顿、死机,需要进行清理缓存。清理的步骤如下:
1、首先去应用中心下载一个腾讯手机管家,然后安装完成。
2、打开管家,点击健康优化功能,然后再选择垃圾扫描,就 能自动扫描出缓存文件多的软件。然后进行清理就可以了。
3、打开微信/设置/通用/存储空间/清理微信也可以进行清理微信的缓存。
1.一种云端业务数据转存方法,应用于本地服务器,其特征在于,包括:
每隔预设时间段,读取云端服务器存储的业务数据到预先创建的本地数据仓库的远程引擎数据库中;
将所述远程引擎数据库中的增量数据推送至预先创建的本地数据仓库的数据分析库中,进行数据转存。
2.根据权利要求1所述的云端业务数据转存方法,其特征在于,所述每隔预设时间段,读取云端服务器存储的业务数据到预先创建的本地数据仓库的远程引擎数据库中,具体包括:
每隔预设时间段,通过数据库远程引擎,读取云端服务器存储的业务数据到预先创建的本地数据仓库的远程引擎数据库中。
3.根据权利要求1所述的云端业务数据转存方法,其特征在于,所述云端服务器中包括:主数据库和从数据库,所述主数据库用于业务数据的写入,所述从数据库同步来自于所述主数据库中的业务数据,所述从数据库用于业务数据的读取;
相应地,所述每隔预设时间段,读取云端服务器存储的业务数据到预先创建的本地数据仓库的远程引擎数据库中,具体包括:
每隔预设时间段,读取云端服务器的从数据库中存储的业务数据到预先创建的本地数据仓库的远程引擎数据库中。
4.根据权利要求1所述的云端业务数据转存方法,其特征在于,所述将所述远程引擎数据库中的增量数据推送至预先创建的本地数据仓库的数据分析库中,进行数据转存,具体包括:
通过脚本,将所述远程引擎数据库中的增量数据推送至预先创建的本地数据仓库的数据分析库中,进行数据转存。
5.根据权利要求1所述的云端业务数据转存方法,其特征在于,在读取云端服务器存储的业务数据到预先创建的远程引擎数据库中之前,所述方法还包括:
预先创建本地数据仓库,包括:预先创建远程引擎数据库以及数据分析库。
6.根据权利要求5所述的云端业务数据转存方法,其特征在于,所述预先创建本地数据仓库,还包括:
预先创建数据备份库;
相应地,在每隔预设时间段,读取云端服务器存储的业务数据到预先创建的本地数据仓库的远程引擎数据库中之后,所述方法还包括:
将所述远程引擎数据库中的数据复制到预先创建的本地数据仓库的数据备份库中。
7.根据权利要求6所述的云端业务数据转存方法,其特征在于,在将所述远程引擎数据库中的增量数据推送至预先创建的本地数据仓库的数据分析库中,进行数据转存之后,所述方法还包括:
对所述数据分析库中存储的数据进行再加工处理,将再加工处理的结果存入预先创建的本地数据仓库的数据备份库中。
8.根据权利要求2所述的云端业务数据转存方法,其特征在于,所述云端服务器包括:阿里云端服务器。
9.一种云端业务数据转存装置,应用于本地服务器,其特征在于,包括:
读取模块,用于每隔预设时间段,读取云端服务器存储的业务数据到预先创建的本地数据仓库的远程引擎数据库中;
转存模块,用于将所述远程引擎数据库中的增量数据推送至预先创建的本地数据仓库的数据分析库中,进行数据转存。
10.一种本地服务器,其特征在于,包括:如权利要求9所述的云端业务数据转存装置。
11.一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至8任一项所述云端业务数据转存方法的步骤。
12.一种非暂态计算机可读存储介质,其上存储有计算机程序,其特征在于,该计算机程序被处理器执行时实现如权利要求1至8任一项所述云端业务数据转存方法的步骤。
数据业务化一般包括以下几方面:
1)建立规范的数据管理机制,采用先进的数据管理系统;
2)精心策划数据应用方案,有针对性地落实行动;
3)运用技术手段,提升数据的可视化度和实用性;
4)发挥社会主体的作用,提升数据的商业价值。
对开展的业务进行分门别类的分析。
1)理解每一列的字段含义
2)将数据进行分类:用户数据(指用户的基本情况),行为数据(指记录用户做过什么的数据,主要包括用户做了哪些行为,发生行为的时间等),商品数据(包括商品名称,商品类别,商品评论、库存等)
2. 常见的数据指标
1)用户数据相关的指标
a.日新增用户:产品每天新增用户量,可以判断渠道推广的效果
b.活跃率:活跃用户数/总用户数 (怎么样算活跃)
日活跃用户(DAU Daily Active User):一天之内活跃的用户数
周活跃用户数和月活跃用户数计算时,记得要去重(一个人一周都活跃也只能算一次)
c.留存率:第1天新增用户中,在第N天使用过产品的用户数/第1天新增用户数,可以评估产品功能对用户的黏性,留存太低时要探究用户流失的原因
这里需要注意的是“使用过产品”,不同的业务这块定义的不一样,要根据具体情况来确定
2)行为数据相关的指标
a. PV(Page View) 访问次数: 页面浏览次数,用户每打开一个网页可以看作一个PV
UV(Unique Visitor) 访问人数: 是一定时间内访问网页的人数。在同一天内,不管用户访问了多少网页,他都只算一个访客。
b.转发率:转发某功能的用户数/看到该功能的用户数
c.转化率:购买产品的人数/到店铺的人数
购买商品的人数,到店铺的人数,就是前面讲到的使用某个功能的访客人数UV
d.K因子:平均每个用户向多少人发出邀请*接收到邀请的人转化为新用户的转化率,用于衡量推荐效果 (K>1为良好状态)
3)商品数据相关的指标
a.总量
成交总额(GMV)包括销售额、取消订单金额、拒收订单金额和退货订单金额
成交数量:对于电商产品就是下单的商品数量,对于教育行业就是下单课程的数量
访问时长: 用户使用app,或者网站的总时长。
b.人均
人均付费:总收入/总用户数,在电商行业也叫客单价
付费用户人均付费(ARPPU,Average Revenue Per Paying User): 总收入/付费人数,用于统计付费用户的平均收入
人均访问时长:总时长/总用户数,用于统计每个人使用产品的平均时长
c.付费
付费率:付费用户数/总用户数
复购率:消费两次以上的人数/付费人数,用于反映用户的付费频率。
d.商品
常见的几个指标是:热销商品,好评商品,差评商品的前几个有哪些。 通过找出好的商品来进行重点推销,不好的商品去分析原因。
数据分类
用户数据:用户ID,生日,性别
行为数据:购买行为编号,购买数量,购买日期
商品数据:商品种类ID,商品类别,商品属性
数据指标
a. PV,热销商品,差评商品
通过分析商品的PV可以看出热销商品和销量低的商品以及商品类别
2012年7月-2015年2月,商品50018831销量最高,以及商品50011993,50012788,500007016,50013636,211122可以视为热销商品,反之,下图中销量为1的商品可以视为差评商品,需要分析原因,看可以从哪些方面进行改进,以提高销量;如果改进十分困难可以考虑减少库存,甚至淘汰产品。
2012年7月-2015年2月,商品种类为28的销量最好,以及5001455,50008168可视为热销商品种类。
b. 成交数量
即购买数量,通过统计可以得出不同年月日的成交数量,分析日期时间对用户下单的影响
2012年7月-2015年2月的季度成交数量显示,整体上2014年婴儿用品成交数量最为可观,可能受双11影响,3,4季度的成交数量较大。
c. 复购率:消费两次以上的人数/付费人数
利用数据透视表,可以计算出2012年7月-2015年2月这个时间段内的某个固定商品的月复购率或年复购率。
涉及到数据指标的有三个方面
1.分析用户需求维度:强度,宽度,频度
音频虽然为非刚需产品,但是随着移动互联网的发展,使用音频的人会越来越多,用户宽度会不断扩大,听音频属于中频活动,但也可以培养用户使用习惯,提高用户活跃度
2.推广前不断测试,迭代产品 关注的五个关键指标
日活率: 每天打开的人数/总下载人数,衡量用户粘性
产品留存率: 用户隔了一段时间还回来用你这个产品地比率,隔日留存,隔周留存,隔月留存,通常40%是个还可以的指标,但20%就有问题了
自传播: 让用户主动去传播,找到让他不反感地传播地点,利用他的炫耀心理去分享到朋友圈,当然前提还是产品要有趣
产品核心环节的转化率: 每一个产品app都包括下载,激活,注册,登录,购买等多个环节,都是用户转化的环节。把它想象成一个沙漏,底下越来越窄,每一个环节都会漏掉一大批用户。下载前还有一个环节是展示
闪退率: 降低闪退率
3.识破推广陷阱,设定数据指标,进行数据分析与检测
喜马拉雅有一个自己设定的指标,去记录用户的收听时长。就是每一个用户进来以后,他能听多久,这是我们最在意的,所有的渠道,我们都会来追踪它的数据,除了看它的流程以外,最主要看它的收听行为