㈠ 大数据测试需要学什么
首先是基础阶段。这一阶段包括:关系型数据库原理、LINUX操作系统原理及应用。在掌握了这些基础知识后,会安排这些基础课程的进阶课程,即:数据结构与算法、MYSQL数据库应用及开发、SHELL脚本编程。在掌握了这些内容之后,大数据基础学习阶段才算是完成了。
接下来是大数据专业学习的第二阶段:大数据理论及核心技术。第二阶段也被分为了基础和进阶两部分,先理解基础知识,再进一步对知识内容做深入的了解和实践。基础部分包括:布式存储技术原理与应用、分布式计算技术、HADOOP集群搭建、运维;进阶内容包括:HDFS高可靠、ZOOKEEPER、CDH、Shuffle、HADOOP源码分析、HIVE、HBASE、Mongodb、HADOOP项目实战。
完成了这部分内容的学习,学员们就已经掌握了大数据专业大部分的知识,并具有了一定的项目经验。但为了学员们在大数据专业有更好的发展,所学知识能更广泛地应用到大数据相关的各个岗位,有个更长远的发展前景。
第三阶段叫做数据分析挖掘及海量数据高级处理技术。基础部分有:PYTHON语言、机器学习算法、FLUME+KAFKA;进阶部分有:机器学习算法库应用、实时分析计算框架、SPARK技术、PYTHON高级语言应用、分布式爬虫与反爬虫技术、实时分析项目实战、机器学习算法项目实战。
㈡ 大数据分析一般用什么工具分析
在大数据处理分析过程中常用的六大工具:
1、Hadoop
Hadoop 是一个能够对大量数据进行分布式处理的软件框架。但是 Hadoop 是以一种可靠、高效、可伸缩的方式进行处理的。Hadoop 是可靠的,因为它假设计算元素和存储会失败,因此它维护多个工作数据副本,确保能够针对失败的节点重新分布处理。Hadoop 是高效的,因为它以并行的方式工作,通过并行处理加快处理速度。Hadoop 还是可伸缩的,能够处理 PB 级数据。此外,Hadoop 依赖于社区服务器,因此它的成本比较低,任何人都可以使用。
2、HPCC
HPCC,High Performance Computing and Communications(高性能计算与通信)的缩写。1993年,由美国科学、工程、技术联邦协调理事会向国会提交了“重大挑战项目:高性能计算与 通信”的报告,也就是被称为HPCC计划的报告,即美国总统科学战略项目,其目的是通过加强研究与开发解决一批重要的科学与技术挑战问题。HPCC是美国 实施信息高速公路而上实施的计划,该计划的实施将耗资百亿美元,其主要目标要达到:开发可扩展的计算系统及相关软件,以支持太位级网络传输性能,开发千兆 比特网络技术,扩展研究和教育机构及网络连接能力。
3、Storm
Storm是自由的开源软件,一个分布式的、容错的实时计算系统。Storm可以非常可靠的处理庞大的数据流,用于处理Hadoop的批量数据。Storm很简单,支持许多种编程语言,使用起来非常有趣。
4、Apache Drill
为了帮助企业用户寻找更为有效、加快Hadoop数据查询的方法,Apache软件基金会近日发起了一项名为“Drill”的开源项目。Apache Drill 实现了 Google's Dremel.
据Hadoop厂商MapR Technologies公司产品经理Tomer Shiran介绍,“Drill”已经作为Apache孵化器项目来运作,将面向全球软件工程师持续推广。
5、RapidMiner
RapidMiner是世界领先的数据挖掘解决方案,在一个非常大的程度上有着先进技术。它数据挖掘任务涉及范围广泛,包括各种数据艺术,能简化数据挖掘过程的设计和评价。
6、Pentaho BI
Pentaho BI 平台不同于传统的BI 产品,它是一个以流程为中心的,面向解决方案(Solution)的框架。其目的在于将一系列企业级BI产品、开源软件、API等等组件集成起来,方便商务智能应用的开发。它的出现,使得一系列的面向商务智能的独立产品如Jfree、Quartz等等,能够集成在一起,构成一项项复杂的、完整的商务智能解决方案。
㈢ 怎样提升自己的大数据测试经验
业务篇
1.业务为核心,数据为王
· 了解整个产业链的结构
· 制定好业务的发展规划
· 了解衡量的核心指标
有了数据必须和业务结合才有效果。
需要懂业务的整体概况,摸清楚所在产业链的整个结构,对行业的上游和下游的经营情况有大致的了解。然后根据业务当前的需要,指定发展计划,从而归类出需要整理的数据。最后一步详细的列出数据核心指标(KPI),并且对几个核心指标进行更细致的拆解,当然具体结合你的业务属性来处理,找出那些对指标影响幅度较大的影响因子。前期资料的收集以及业务现况的全面掌握非常关键。
2.思考指标现状,发现多维规律
· 熟悉产品框架,全面定义每个指标的运营现状对
· 比同行业指标,挖掘隐藏的提升空间
· 拆解关键指标,合理设置运营方法来观察效果
· 争对核心用户,单独进行产品用研与需求挖掘
业务的分析大多是定性的,需要培养一种客观的感觉意识。定性的分析则需要借助技术、工具、机器。而感觉的培养,由于每个人的思维、感知都不同,只能把控大体的方向,很多数据元素之间的关系还是需要通过数据可视化技术来实现。
3.规律验证,经验总结
发现了规律之后不能立刻上线,需要在测试机上对模型进行验证。
技能篇
1.Excel是否精钻?
除了常用的Excel函数(sum、average、if、countifs、sumifs、offset、match、index等)之外,Excel图表(饼图、线图、柱形图、雷达图等)和简单分析技能也是经常用的,可以帮助你快速分析业务走势和异常情况;另外,Excel里面的函数结合透视表以及VBA功能是完善报表开发的利器,让你一键轻松搞定报表。
2.你需要更懂数据库
常用的数据库如MySQL,Sql Server、Oracle、DB2、MongoDB等;除去SQL语句的熟练使用,对于数据库的存储读取过程也要熟练掌握。在对于大数据量处理时,如何想办法加快程序的运行速度、减少网络流量、提高数据库的安全性是非常有必要的。
3.掌握数据整理、可视化和报表制作
数据整理,是将原始数据转换成方便实用的格式,实用工具有Excel、R、Python等工具。数据可视化,是创建和研究数据的视觉表现,方便业务方快速分析数据并定位具体问题,实用工具有Tableau、FineBI、Qlikview.
如果常用excel,那需要用PPT展示,这项技能也需要琢磨透。如果用tableau、FineBI之类的工具做数据可视化,FineBI有推送查看功能,也就是在企业上下建立一套系统,通过权限的分配让不同的人看到权限范围内的报表。
4.多学几项技能
大多数据分析师都是从计算机、数学、统计这些专业而来的,也就意味着数学知识是重要基础。尤其是统计学,更是数据分析师的基本功,从数据采集、抽样到具体分析时的验证探索和预测都要用到统计学。
现在社会心理学也逐渐囊括到数据分析师的能力体系中来了,尤其是从事互联网产品运营的同学,需要了解用户的行为动向,分析背后的动机。把握了整体方向后,数据分析的过程也就更容易。