数据分析工具类软件,好用的有哪些?
日期:2024-03-12 11:50:39 / 人气:
本题已加入圆桌数据分析入门指南,更多数据分析内容,欢迎关注圆桌>>>
从事数据分析工作半年,一直使用Excel,感觉已经可以满足大部分需求。现在发现一些公司需要使用过SPASS、SAS、Clementine、R、Rapid-miner等工具类软件 ,求指导和分析,哪款比较好用?
谢邀。
题主的问题深想一下,有点意思~
首先,题主已经从市数据分析工作半年,使用Excel,已经可以满足大部分需求了。这说明,excel题主会用,而且还够用。
然后,题主[发现]一些公司会使用SPASS、SAS、Clementine、R、Rapid-miner等工具类软件。
可能并非是短期的、目标明确的、由业务驱动所以要换工具的需求;
而是想要知道,目前什么工具最前端、流行、值得一学。现在是有备无患;未来,就是[升值]与[升职]!
——————我是“如果说中请赞我、说的不对别打我”分割线——————
所以,首先我认为应当分析的是,数据分析工具、或者说商业智能,从现在到未来的一个发展趋势是什么。
我用的资料来自Gartner发布的《2017BI和数据分析软件市场统计报告》,其中提到了如下趋势:
(1)、传统的商业智能平台市场占有率正在逐年降低。从2013年的49%,降至2015年的41%。而与之相反的,是新一代商业智能平台,它的市场占有率从7%上升至14%,几乎“吃”掉了传统BI失掉的所有市场。
(2)、根据预测,未来10年将有更多的分析工具/商业智能产品部署于云。
接下来我们要回答的问题就变成了:什么是新一代商业智能?究竟它“新”在何处?为什么有能力蚕食传统BI的市场呢?
对于还在100%依赖excel的人来说,这事儿可能有点恐慌,因为还没开始接触商业智能,商业智能就out了。但所有的乌云都有一道金边儿。2000年之后出生的孩子从来没有打过算盘珠子、没学过打字机、没按过老式计算器、没用过固定电话;但是他们是智能移动设备的“原住民”。2017年之前没用过商业智能的人也不必恐慌,因为我们都可以成为“新一代商业智能”的"原住民"。
Gartner2015年提出“Modern BI Platform”这一概念时,曾经从五个方面描述了传统BI与新一代BI之间的区别:
从上图中可以看出,新一代BI最大的变化,就是把商业分析全流程的中心从专家转向了业务人员,IT部门不再是数据采集、准备与内容创作的主力或灵魂,仅在分析的流程中提供一小部分的支持工作;以前业务人员跟数据之间隔着一个IT部门,像隔着一座大山;新一代商业智能,允许业务人员直接跟数据对话、直接创建分析内容、自由的用可视化进行数据探索,还可以彼此协作。
1936年,查理-卓别林执导并主演的《摩登时代》里,曾经把工人比作城市大机器中的一个零件,在设定好的固定程序下每天重复。今天,工业社会已发展成为信息社会,我们的工作比过去需要更多的主动与创新,但企业依旧是一个环环相扣的生产线,每一个环节都影响着企业的最终盈利,每一个环节都不容出错。
因此,我们为什么不把最适合这个时代的利器,交到每一个一线业务的责任人手中呢?
这就是新一代BI存在的意义。
在这之前的一个回答中大数据最核心的价值是什么?,我一直强调数据分析的核心是业务,通过业务的分析逻辑影射到数据分析的处理逻辑,而数据分析工具则是帮助我们实现结果的手段。所以对数据分析工具的选择应按个人需求进行,而不是按工具级别高低。
行业内普遍用的多的是Excel、R、Python、BI,可以满足大部分业务需求~
1.一般的办公需求下的数据处理工作;
2.中小公司数据管理,存储(很多国有企业都用);
3.学校学生,老师做简单的统计分析(如方差分析,回归分析);
4.结合Word,PowerPoint制作数据分析报告;
5.数据分析师的主力分析工具(部分数据分析师的辅助工具);
6.部分商业杂志,报刊图表制作(数据可视化);
优点:
1.容易上手;
2.学习资源十分丰富;
3.可以用Excel做很多事情,建模,可视化,报表,动态图表;
4.帮助你在进一步学习其它工具之前(比如Python,R),理解很多操作的含义;
缺点:
1.深入学习需要掌握VBA,难度有点高;
2.当数据量较大时,会出现卡顿的情况;
3.到Excel2016版,在不借助其它工具的情况下,Excel数据文件本身能够容纳的数据仅有108万行,不适合处理大规模数据集;
4.内置统计分析种类太简单,实用价值不大;
5.不像Python,R语言等开源软件,正版Excel需要付费,比如我用office365.每年需要支付300多块钱(不过也值了)
通过扩展的第三方R包,R能够做的事情几乎涵盖了任何需要数据的领域。就我们一般的数据分析或者学术数据分析工作而言,R能做的事情包括但不限于如下方面:
1.数据清洗与整理;
2.网络爬虫;
3.数据可视化;
4.统计假设检验(t检验,方差分析,卡方检验等);
5.统计建模(线性回归,逻辑回归,树模型,神经网络等);
6.数据分析报告输出(Rmarkdown);
R容易学吗?
从我个人来看,想要入门R是非常简单的,10天的集中学习,对于掌握R的基本使用,基本数据结构,数据导入导出,简单的数据可视化,是完全没有问题的。有了这些基础,在遇到实际的问题时,去找到需要使用的R包,通过阅读R的帮助文档,以及网络上的资料,就能够相对快速的解决具体问题了。
R语言和Python同为需要编程的数据分析工具,所不同的是,R专门用于数据分析领域,而科学计算与数据分析只是Python的一个应用分支,Python还可以用来开发web页面,开发游戏,做系统的后端开发,以及运维工作。
现在的一个趋势是,Python在数据分析领域正在追赶R,在某些方面已经超越了R,比如机器学习,文本挖掘等偏编程的领域,但R语言在偏统计的领域仍然保持优势。Python在数据分析方面的发展,很多地方借鉴了R语言中的一些特色。所以,如果你现在还是一片空白,还没开始学习,要做决定学习R还是Python的话,建议从Python入手。
Python和R都比较容易学习,但是如果你同时学习两者,由于在很多地方它们非常相似,就会很容易混淆,所以建议不要同时学习它们。等其中一个掌握到一定的程度,再着手学习另外一个
Python能做什么?
1.网络数据爬取,使用Python能够很容易的编写强大的爬虫,抓取网络数据;
2.数据清洗;
3.数据建模;
4.根据业务场景和实际问题构造数据分析算法;
5.数据可视化(个人感觉不如R好用);
6.机器学习,文本挖掘等高级数据挖掘与分析领域;
应该学习R还是Python?
如果因为时间有限,只能选择其中的一种来学习的话,我建议使用Python。但我仍然建议两者都了解一下,毕竟每个人都不一样。可能你在某些地方听说,Python在工作中更加常用,但是工作中,解决问题才是最重要的,如果你能够用R高效的解决问题,那就用R。实际上,Python很多数据分析方面的特色,是模仿R来实现的,比如pandas的数据框,正在开发中的ggplot可视化包模仿的是R语言中非常著名的ggplot2.
多数分析师日常的工作就是做报表,而数据分析师更多用到的报表是BI。
BI全称商业智能,在传统企业中,它是一套完整的解决方案。将企业的数据有效整合,快速制作出报表以作出决策。涉及数据仓库,ETL,OLAP,权限控制等模块。
BI工具主要有两种用途。一种是利用BI制作自动化报表,数据类工作每天都会接触大量数据,并且需要整理汇总,这是一块很大的工作量。这部分工作可以交给BI自动化完成,从数据规整、建模到下载。
另外一种是使用其可视化功能进行分析,BI的优点在于它提供比Excel更丰富的可视化功能,操作简单上手,而且美观,如果大家每天作图需要两小时,BI会缩短一半时间。
BI作为企业级应用,可以通过它连接公司数据库,实现企业级报表的制作。这块涉及数据架构,就不深入讲了。
关于BI,像Tableau、PowerBI、FineBI、Qlikview这类BI(商业智能)工具,涵盖了报表、数据分析、可视化等多层。底层还可于数据仓库衔接,构建OLAP分析模型。
再扯远一点,怎么样选择数据分析工具,学习一些技能其实还要看你是偏业务的还是技术的,还有取决于你公司的IT信息化水平。
业务类分析师,往往在营运部,市场部,销售部等,根据服务的业务部门的不同,可能叫数据运营,经营分析,会员分析,商业分析师等名字。因为各个业务线具体考虑的问题不同,分析思路与体系均有不同,所以会有这种区别。日常的工作更多是整理业务报表,针对特定业务做专题分析,围绕业务增长做需要用到数据的测算、规划、方案等。
技术类分析师,往往在IT部、数据中心。根据从事的工作环节不同,被分成数据库工程师,ETL工程师,爬虫工程师,算法工程师等角色。在中小企业,往往一个技术小哥通吃这些流程。在大企业,一个标准的数据中心,一般都有数据仓库、专题分析、建模分析等组来完成数据开发工作,再大的公司,还有专门负责数据治理的小组。之所以有这个区分,是因为生产数据,需要一个多层次的复杂的数据系统。一个数据系统,需要数据采集、数据集成、数据库管理、数据算法开发、报表设计几个环节组合。这样才能把分散在各处的一点一滴的数据集中起来,计算成常用的指标,展示成各种炫酷的图表。这里每一个环节都需要对应的技术支持和人员工作,因此有了不同的岗位。
分析师有技术和业务之分,那对应工具也有这样的属性侧重。
分析类工具
对于初级数据分析师,玩转Excel是必须的,数据透视表和公式使用必须熟练,VBA是加分。另外,还要学会一个统计分析工具,SPSS作为入门是比较好的。
对于高级数据分析师,使用分析工具是核心能力,VBA基本必备,SPSS/SAS/R至少要熟练使用其中之一,其他分析工具(如Matlab)视情况而定。
对于数据挖掘工程师……嗯,R和Python必备,要靠写代码来解决。
代码类工具
对于初级数据分析师,会写SQL查询,有需要的话写写Hadoop和Hive查询,基本就OK了。
对于高级数据分析师,除了SQL以外,学习Python是很有必要的,用来获取和处理数据都是事半功倍。当然其他编程语言也是可以的。
对于数据挖掘工程师,Hadoop得熟悉,Python/Java/C++至少得熟悉一门,Shell得会用……总之编程语言绝对是数据挖掘工程师的最核心能力。
一图说明问题:
简道云是一款零代码数据收集分析和可视化工具,偏向业务侧的数据收集——统计——分析全流程。
优点:
- 零代码,业务人员也能轻松用
- 数据收集、统计、分析全流程
- 仪表盘灵活,团队合作方便
缺点:
- 仪表盘没有专业工具做出来的精美
最后分享一些BI建设、数据分析相关的优质资料:
本文整理大家比较常用的数据分析工具,然后列出了各自软件介绍以及优点
其实软件并没有好坏之分,重要的是根据自身的需求,选择最适合的工具进行数据分析
软件介绍:
Excel几乎所有行业中很基本的,流行的和广泛使用的分析工具。无论您是Sas,R还是Tableau的专家,您仍然需要使用Excel。
Excel优点:
1、制作表格。在数字化的今天,在工作和生活中,我们往往使用表格来简化信息,Excel给定了格式来避免我们花大量的时间在表格制作上面。
2、绘制图表。图形能够帮助我们更好的理解数字的走势和大小的比较、比例的多少,Excel中自带图形模板,其中常用的有散点图、条形图、折线图、饼图、面积图、股价图、雷达图等多种图形模板。
3、函数应用。函数是Excel最常用功能之一,简单到求和,求平均数,最大值,最小值,复杂一点的如if,vlookup,match,indirect以及数组函数等,帮助我们处理数据之间的计算和关系。
4、数据分析。Excel不光能罗列数据,展示数据,还能对数据进行分析。简单地,我们可以使用数据透视表功能,数据透视表能够帮我们把简单的、单个的数据根据我们的需要整理成报表形式,优势是简单易学,只需要简单地拖拽就可以实现,对于现如今我们从系统中导出的大量格式化的数据非常实用,缺点是只可以进行简单地描述性数据分析。
5、VBA,功能自定义。虽然Excel现在拥有的功能已经让很多人眼花缭乱,但是它还是给用户保留了自定义开发功能的权利,那就是VBA,利用编程来优化操作。
说完了Excel的优点,接下来就该说一下Excel日常使用中暴露出的一些缺点了:
1、处理数据量小,经常使用Excel的朋友应该都发现过这个问题,当Excel的数据量过大的时候,其查询和计算速度会有明显的下降,会大大影响工作效率。
2、数据分析功能弱小,复杂的分析很难实现。
现在PowerBi出来了,其实作为一名数据分析师,更加推荐使用这个工具。
软件介绍:
SPSS非常容易使用,对初学者比较友好。它有一个可以点击的交互界面,能够使用下拉菜单来选择所需要执行的命令。SPSS可以说是一个傻瓜操作软件,只要认识了软件基本界面和功能,然后把你的数据准备好,输进去,点击需要进行分析的功能,软件会自动给你算出分析结果,并不需要写代码或者程序。
SPSS优点:
1、提供丰富的统计分析方法,例如方差、标准方差、正态分布、F检验等。
2、提供完美的图形处理功能帮助使用者在数据分析过程中直观的了解数据分布特征。
3、支持多种数据准备技术。
4、与SPSS modeler的无缝集成,可以嵌入modeler的节点(SPSS modeler就是题主提到的Clementine)
SPSS统计功能远较Excel易用且强大,并且SPSS非常适合于统计软件的初学者。
总的来说,Excel做一些简单的统计没问题,但是如果数据量比较大,SPSS的处理效率会远高于Excel,而且比Excel更专业;如果只是用作简单的数据计算和作图,Excel比SPSS更灵活更方便。
软件介绍:SAS最开始发源于北卡罗来纳州立大学,1976年SAS的成套软件从学校分离出来进入公司。用户可以使用SAS数据挖掘商业软件发掘数据集的模式,其描述性和预测性模型为用户更深入的理解数据提供了基础。
SAS优点:用户不需要写任何代码,SAS提供易于使用的GUI,并提供从数据处理、集群到最终环节的自动化工具,用户可以从中得出最佳结果做出正确决策。另外SAS包含很多高端的工具,包括自动化、密集像算法、建模、数据可视化等等。
SAS相对来说,是一款专业性比较强的商业分析工具,在上手方面相对比较难,而且价格比较贵。
软件介绍:
RapidMiner是一个开源的数据挖掘软件,由Java语言编写而成,提供一些可扩展的数据分析挖掘算法的实现,旨在帮助开发人员更加方便快捷地创建智能应用程序。该款工具最大的好处就是,用户无需写任何代码。它是作为一个服务提供,而不是一款本地软件。
RapidMiner优点:
RapidMiner除了可以做数据挖掘,还能实现数据预处理和数据可视化、预测分析和统计建模、评估和部署等功能。
RapidMiner 有很方便及很丰富的数据可视化功能,尤其是可以通过鼠标拖拽等操作,从不同角度观察数据结果。
RapidMiner已经具备了相当完整的数据挖掘组件体系,结合帮助文档进行学习,对于理解数据分析的套路很有用。
软件介绍:
KNIME是一个开源的企业级分析平台,专为数据科学家而设计。KNIME的可视化界面包含从提取到呈现数据的所有节点,并强调统计模型。
KNIME优点:
1、Knime软件开源,有大量带数据案例可以学习
2、Knime支持图形界面,细分非常小的节点和过程
3、knime支持Python、R和Weka语言,当然还有原生的Java编程,很容易语言集成
4、Knime有社区和实验室,Community Nodes和Knime Labs 不断更新处理新事物
语言介绍:
R语言是业界领先的分析工具,广泛用于数据统计和数据建模。通过R软件可以将一堆原始数据进行处理、运算,以得到我们想要的数值结果或者图形。R语言支持在各种平台上运行,即-UNIX,Windows和MacOS。它有11,556个包,允许您按类别浏览包。R语言还提供了根据用户要求自动安装所有软件包的工具,也可以使用大数据进行组装。
R语言优点:
1、统计分析方面工作。R提供了各种各样的数据处理和分析技术,几乎任何数据分析过程都可以在R中完成。相比R语言,SPSS、MINITAB、MATLAB等数据分析软件更加适合于已经处理好的、规范的数据,而对于还未完成处理过程,或者在分析中仍需大量与处理过程的数据而言,它们可能会显得繁琐一些。
2、R具有顶尖的绘图功能。尤其对于复杂数据的可视化问题,R的优势更加明显。一方面,R中各种绘图函数和绘图参数的综合使用,可以得到各式各样的图形结果,无论对于常用的直方图、饼图、条形图等,还是复杂的组合图、地图、热图、动画,以及自己脑子里突然想到的其他图形展现方式,都可以采用R语言实现。
另一方面,从数值计算到得到图形结果的过程灵活,一旦程序写好后,如果需要修改数据或者调整图形,只需要修改几个参数或者直接替换原始数据即可,不用重复劳动。这对需要绘制大量同类图形的用户比较适用。
如果你主要从事统计分析工作或学习,R绝对是一门利器。当然,各种统计软件各有优劣,并没有绝对最好的分析工具,只有适合自己的才是最好的。在更多的时候,配合不同软件的优势可能会是更好的选择。
如对于小型数据,可以先用EXCEL进行初步预处理,再使用R进行更复杂的数据分析工作;如对于超大型数据,一般的操作是用数据库管理系统存储这些数据,再用R抽取需要的部分进行分析。
语言介绍:
Python是一门面向对象的编程语言,编译速度超快,从诞生到现在已经25个年头了。它具有丰富和强大的库,常被称为“胶水语言”,能够把用其他语言编写的各种模块(尤其是C/C++)很轻松地联结在一起。其特点在于灵活运用,因为其拥有大量第三方库,所以开发人员不必重复造轮子,就像搭积木一样,只要擅于利用这些库就可以完成绝大部分工作。
Python的优点:
Python在数据分析和交互、探索性计算以及数据可视化等方面都有非常成熟的库和活跃的社区,使python成为数据处理任务重要解决方案。
在科学计算方面,python拥有numpy与scipy、pandas、matplotlib、scikit-learn等等一系列非常优秀的库和工具,特别是pandas在处理中型数据方面可以说有着无与伦比的优势。下面具体介绍这几个包:
Numpy与Scipy
NumPy 来存储和处理大型矩阵,比Python自身的嵌套列表(nested list structure)结构要高效的多,本身是由C语言开发。这个是很基础的扩展,其余的扩展都是以此为基础。
Scipy基于Numpy,提供方法(函数库)直接计算结果,封装了一些高阶抽象和物理模型。比方说做个傅立叶变换,这是纯数学的,用Numpy;做个滤波器,这属于信号处理模型了,在Scipy里找。
Pandas
基于NumPy 的一种工具,该工具是为了解决数据分析任务而创建的。Pandas 纳入了大量库和一些标准的数据模型,提供了高效地操作大型数据集所需的工具。最具有统计意味的工具包,某些方面优于R软件。
Matplotlib
Python中最著名的绘图系统,很多其他的绘图例如seaborn(针对pandas绘图而来)也是由其封装而成。绘制的图形可以大致按照ggplot的颜色显示,但是还是感觉很鸡肋。但是matplotlib的复杂给其带来了很强的定制性。其具有面向对象的方式及Pyplot的经典高层封装。
另外相比R语言,python不仅在数据分析方面能力强大,在爬虫、web、自动化运维甚至游戏等等很多领域都有广泛的应用。这就使公司使用一种技术完成全部服务成为可能,有利于各个技术组之间的业务融合。
以上就是常见的几款数据分析工具,大家可以根据自身需求选择适合自己的软件。
----安利环节---
数据采集可以使用八爪鱼采集器
可视化操作流程,上手十分简单,在防采集方面,软件提供多种解决方案,再也不用担心采集不到数据了
下载链接:免费下载 - 八爪鱼采集器
PS:一般比较成熟的公司里,数据分析工具不只是满足业务分析和报表制作,像我现在给我们公司选型BI工具,是做全平台全方位的数据处理,外源数据更新、实时抽取、性能优化等等都是非常关注的点,所以Excel这种适合个人分析的就不推荐了,不适合专业的数据分析师。
- 数据存储层:Access、SQL Server、DB、Oracle等
- 数据处理层:Python、Hadoop
- 数据报表层:Finereport、简道云
- 数据展示层:Tableau、Powerbi、Finebi
再啰嗦一句,如果你是数据分析小白,掌握工具前应该先有数分思维和底层逻辑,推荐先看知乎知学堂官方的数据分析入门课程:
这一方面主要是数据库和数据仓库的一些知识点,企业要想做数字化转型,把原先的一些数据系统,如ERP、OA、CRM、Excel等,必须得进行数字打通,不然整个企业就相当于在进行烟囱式开发,数据东一块,西一块,根本不能成为体系。
具体的,就是一些数据库的使用,不要说这方面的知识不想学,有运维替你管着。
一个好的大数据体系,数据仓库和数据库、数据湖、数据集市的建立是非常重要的,建模的维度就决定了你后面分析的维度,如果维度不够全面与准确,那你的工具再好也就没有意义了。
python、hadoop可以闪亮登场了,但是hadoop是一个非常复杂的平台,需要的技术很多,所以这里我们暂时不讨论。
我做了很多年的大数据技术了,所以最早我开始做分析的时候都是希望通过编程来实现,使用Python的好处是自由度非常高,能够灵活运用模型和算法,并且从数据采集到数据清洗到数据分析,一种语言就可以全部搞定。
现在很多人都在说不学python会怎么怎么样,但其实不是这样,归根结底只是一个底层语言,需要混合使用。Python是有一定门槛的,而且学习的时间成本不低,往往一次分析需要花较多的时间,如果不是大型分析项目,有点大材小用。
但是对于大型的项目,尤其是涉及到数据挖掘类的,我建议用python。
还有一些可以数据抓取的工具,我就不说了,本质其实都差不多。
可能提到报表,很多人脑子里的想法就是Excel,这其实是完全不对的,excel的短板是很明显的:
- Excel会导致企业信息化程度不够
- 数据口径不一致,浪费人力去核对
- 数据采集困难,更改不能实时显示数据
如果需要处理上百万行的数据,我推荐使用简道云,简单介绍一下:
可视化模板>>https://www.jiandaoyun.com
适用群体:更适合职场各种业务端的数据分析,可在线使用,替代Excel偷懒的神器!
这是一款我用了4年多的数据分析偷懒神器,模板一共提供10+基础数据分析图表,一般业务上的数据分析我用它就够了。
可以先看看效果:
像上面这种数据看板,放在excel里面做起来是很复杂的,但用简道云做可视化看板,就能轻松达到四两拨千斤的效果。
示例:
导入简道云>新建仪表盘>点击数据组件-统计表>添加刚刚的表格数据-订单管理
比如:想要在仪表盘中显示“订单总额”,即把“订单总额”字段拉入指标处,选择图标类型即可。
制作完成之后的可视化看板如下图:
我选择用它来做业务数据分析的另一个重要原因是——它能做的不止数据分析图表,基本上能够高效辅助完成所有业务数据的收集、处理、分析、展示、以及流程管理:
- 可以用它的在线表单来做数据收集
- 收集好的数据可以导入数据工厂自动处理分析
- 处理好的数据可以生成各种分析图表
- 流程引擎能够配合做好各业务环节之间的流转
- ......
不足:由于简道云本身就是偏向企业层面的,所以更适合一些偏业务端的数据分析。如果是想要做一些非常专业复杂的数据分析大屏,它是不如哪些专业做数据大屏的工具的。
我上一家公司用的是SAS,可现在流行R语言来训练模型,作为数据分析工具,今年已经没有采购SAS了预算了,预算都给大数据平台产品了。
你们以为的数据展现,可能就是所有数据都处理好了,然后直接生成可视化就行,其实远不是这样,那数据变动怎么办呢?数据量太大,宕机了怎么办呢?
所以一个实时的可视化工具就显得非常重要,我觉得Tableau、PowerBI、FineBI都是一个不错的选择,
(1)Tableau
Tableau我更倾向于将他定义为数据可视化工具,而不是数据分析工具,因为tableau的数据可视化能力确实非常强,他的交互式的可视化体验在业内是被人津津乐道,但是在数据建模和数据分析功能上,略输pbi与finebi一筹。
其实我用的是Tb prep+Tb desktop,因为tableau一直以来就被数据处理能力差而诟病,prep就是千呼万唤始出来的数据清洗工具,2018年才刚刚面世,主要是为了弥补tb在数据清洗工作上的欠缺,我用过一两次,接触的不深,风格还是一贯的tb清新风格,基本可以实现数据清洗、数据整理、数据合并等etl操作,但是理论上任何产品都需要一定的生长曲线,我相信tb prep也同样是如此,未来还有更大的空间可以优化。
另外就是prep+desktop两款工具协同工作的方式,太过于麻烦,这也算是tb的一大与生俱来的缺点。
此外Tableau是国外的工具,一是服务体系不够全,出了问题要解决很久,这是不能接受的;二是价格实在是太高,动不动就上百万。
(2)FineBI
所以我推荐FineBI,一款web级的敏捷数据工具,不仅直接拖拽就能生成可视化,而且还能做复杂报表,BI报表就是企业的新方向。
其实数据展现类的工具,靠不靠谱还得看引擎,FineBI引擎的两种模式可以支持大数据量分析,这一点我是非常推崇的:
- 抽取模式:提供基于索引的高效计算引擎,通过数据预加载,支撑前端快速数据分析,适用于实时性要求不高的分析。
- 实时模式:直接对接读取企业的数据库表进行分析,适用于对实时性要求较高的数据分析场景。
可视化能力嘛,比tableau弱一点,不过好处就是简单一点,很好上手:
(3)PowerBI
首先powerbi我将其定义为适合个人多联机的数据分析与挖掘工具。
PBI可以说是微软的一次偶然尝试和偶然的产品,在tableau出现之前,微软对于数据分析领域的布局其实非常简单,只有针对企业用户的sql server analysis service和excel里的power pivot,后来微软将这两个工具进行结合,开发出了Powerbi
所以与其说powerbi是微软开发出的数据分析工具,不如说是微软依靠对BI业务模型多年的研究总结后得出的一套解决方案,也就是DAX所代表的的数据分析理念。这一点与tableau提倡的理念是相反的。
Power的数据可视化能力怎么说呢,一言难尽吧,powerbi真的有种工科风,能力强悍但是颜值不高,可视化展现能力方面,PoweBI内置的图表种类相对较少,例如一些常用的玫瑰图,多层饼图,词云图,热力地图,流向地图等都不支持(需要进行市场图表拓展下载使用).图形属性方面还算丰富,可以由用户自定义进行图表样式属性的设置调节。
更新一下,永远要记住,不要太过于依赖于工具,使用好工具的基础一定是你拥有扎实的知识基础,如果你连数据分析是什么?怎么做数据分析这些都不懂,那说实话,选择再好的工具也没什么用。
推荐一些数据分析的书籍和课程,可以书籍+视频课程结合来学习,就不会那么枯燥了。
其他视频课程看这篇:哪里有免费的 Excel 教程? - 知乎 (zhihu.com)
更完整的学习路径可以看我这篇回答: 怎样用 Excel 做数据分析? - 知乎 (zhihu.com)
在日常工作中数据分析主要是为了支持业务,而业务很大程度上是围绕用户进行的,因而可以从用户场景出发来具体选择数据工具。
用户场景主要分成三大类:
- 第一类是洞察,要去观察和找到我们用户当中的一些特点规律。
- 第二类是捕获,目的其实是为了抓住我们的用户,抓住我们的用户内容。
- 第三大类是关于沉淀,这种的场景是指的我们如何把用户真正的沉淀下来,为未来更多的业务做有效的发展。
接下来就从这三个具体场景中来介绍数据工具怎么选。
先来讲讲最常见的需求叫洞察,它是一个由浅入深的过程,洞察又分成4种不同的场景:
最浅的叫看业务,就是从业务当中来寻找规律,或者说看一些业务的结果,要经常要看一些业务的指标、数据,比如日活等。
在这个阶段也会遇到难题,难点不在于如何找到指标,难的是用什么标准来比较数据?
比如一个产品的DAU曲线随着时间在慢慢增加,看起来是一个很好的状态。但实际上是不是好的呢?我们应该怎么看?其实是应该跟我们的同行来比较的,你涨的快,你的同行可能涨的更快。这样持续下去,可能会被我们的同行拉的越来越远。
而友盟+U-APP、U-Mini这两个产品其实是很好的解决了这个问题。 使用友盟+U-APP来看业务,除了可以和自己的数据比,还可以基于大盘来做比较。
当然光比较同行有时候也并不能做出自己业务的分析,在一些大型的行业里面,我们的同行可能会有非常多,它们的规模大小有很多的不同,在很多的行业当中,某一个细分市场里面,规模差不多的行业之间,其实才是真正意义上的竞争对手。
在友盟+U-APP中,产品可以和同业同行业来进行对比,包括同规模,只要你选定同一个的行业之后,U-APP会给你提供同行业的模糊化的变化趋势,这种趋势就可以用来作为参考。
如果进一步说业务我已经了解了,下一步我们应该看的是什么呢?
通过第一步我们已经了解有多少用户,他们的活跃程度大概是什么样子,下一步就要了解我们的用户都是一些什么样的人,从而决定业务未来的方向。
1、留存分析
第一种比较常见是留存分析,对于一个产品来说留存率肯定是越高越好,或者说它衰减的越慢越好。通过友盟+U-APP可以很清楚的看到每天、每周、每月的留存状态,方便做分析。
2、用户分层
用户分层其实是非常重要的, 分完层之后,我们就会做一些观察,比如看一看说这群用户是男生多还是女生多?这都会决定未来产品的方向。
除了性别分层外,还可以按照年龄、兴趣、使用时长来分层,最后形成产品用户画像。
如果我们能够关注到用户的行为,了解用户的行为模式就能对产品本身做出改变,让产品更契合用户的需求。下面介绍一些使用的工具:
第一个工具:漏斗
漏斗是用来分析流程的,像是注册流程、付费流程。这些流程中哪一部分的流失的用户最多,就是我们改进的对象。
第二工具:A/B测试
保证其他条件一致的情况下,针对某一单一的元素进行AB两个版本的设计,并进行测试和数据收集,最终选定数据结果更好的版本。
第三个工具:路径分析
我们的用户进入产品之后,会有不同的选择,有的人可能会愿意去先点到搜索,有的可能会先看榜单,有的人可能直接进入主题,要分析用户的这些行为习惯就要做路径分析。
在友盟+U-APP中,你可以指定一个你关注的过程,路径分析会帮助你来描绘这过程当中的流转的情况和分发的情况,就能够看到用户的关键路径。
我们刚才已经洞察了一些产品和数据的情况,我们下一步就需要捕获或者说是抓住用户,在这一阶段有三个关键要点:注册、分享、卸载。
注册是抓住用户最关键的一步,但用户并没有那么容易完成这个过程,所以降低注册成本就很重要。
在几年前注册一个产品可能要填写很多的东西,而现在的注册流程可能只需要一个手机号、验证码,更简略一点的直接第三方认证就可以完成注册。
友盟+U-Verify可以直接检测到用户的手机到底是谁,把一个需要输入的过程转变为一个确认的过程,无疑把注册这一阶段的工作量减少了90%。
U-Verify除了能帮助用户降低注册成本外,还包含了一个大数据风险的部分,可以分析产品的注册用户是不是一个风险用户。
第二个很关键的节点是什么呢?是分享。分享这个事儿其实对于大部分应用来说都非常的重要,但它做起来并不那么容易。原因就是分享的地方很多,比如说你可以分享到微信,你可以分享到到微博,从全国全球来看,如果你要把所有的分享都能连接上,那就无疑是一个非常恐怖的工作。
用友盟+U-Share就可以帮助产品来实现这个分享过程,而且能够监控分享当中很多有用的数据。
很多人认为唤醒是一个挽回流失的动作,其实这并不准确,不管产品的用户流失没流失,都需要唤醒。如果长时间不提醒用户使用的产品,最终会让用户慢慢淡忘,早晚会流失。
在这个关键点友盟+提供了U-Push消息推送平台,可以一键集成所有厂商的通道,有效提升到达率。
分群唤醒
当产品要推送消息去唤醒用户的时候,要做好用户分群,对特定人群做内容推送。
识别卸载
唤醒中还有一个难点是无法判断产品是否被卸载, U-Push可以提供用户卸载的数据,提高唤醒的准确度。
我们刚才说了两大段了,一个是洞察,一个是捕获,洞察跟捕获里面都会有不同的工具。
最后我们来说说沉淀。
沉淀其实也是我们非常重要的一个部分。为什么这么说?
因为我们的用户它并不是只在一个地方使用我们的产品,比如说很多产品都有公众号、小程序,一些用户在APP中已经流失掉了,但是他还在继续用小程序,这就具备了一些挽回的可能。
这个时候就要通过数据银行去做不同平台数据的积累和整合,把用户沉淀下来。
友盟+数据银行有几个不同的出口:
第一个是数据中心:很多企业都要建自己的数据中台和数据中心,方便后续做一些数据挖掘,通过友盟+U-SDC可以很方便的支持企业建立数据中台。
第二是用户中心:也就是统计用户在不同平台上面做了什么样的行为,通过友盟+U-CDP把它打通,打穿之后会展现一张完整的用户中心数据。
上文主要分析了洞察用户、捕获用户、沉淀用户这三大场景,包括每个场景中分成哪些模块,应该选择什么样的数据工具,希望对大家有所帮助。
以上,感谢阅读!
https://xg.zhihu.com/plugin/3860005bd29f332972d4df3bb14a9db3?BIZ=ECOMMERCE如果你想获取更多运营知识,还可以看看这些问答。↓↓↓
- 数据分析:超级菜鸟怎么学习数据分析?
- 数据埋点:移动应用如何埋点收集什么数据以便于统计分析?
- 用户增长:有哪些通过产品上的精妙设计实现用户增长的例子?
- 小程序推广:小程序怎么做运营推广?营销该怎么玩?
?看后三件事?
如果你觉得这篇文章对你挺有启发,希望你可以帮我三个小忙:
1、关注 @友盟全域数据, 让我们成为长期关系;
2、点赞,让更多的人也能看到这篇内容(收藏不点赞,都是耍流氓 -_-);
3、评论,让我第一时间了解你的真实想法;
谢谢你的支持!