java大数据的学习流程。
第一阶段:静态网页基础(html+css)
1.难易程度:一颗星
2.技术知识点+阶段项目任务+综合能力
3.主要技术包括:
html常用标签、css常见布局、样式、定位等、静态页面的设计制作方式等
第二阶段:javase+javaweb
1.难易程度:两颗星
2.技术知识点+阶段项目任务+综合能力
3.主要技术包括:
java基础语法、java面向对象(类、对象、封装、继承、多态、抽象类、接口、常见类、内部类、常见修饰符等)、异常、集合、文件、io、mysql(基本sql语句操作、多表查询、子查询、存储过程、事务、分布式事务)、jdbc、线程、反射、socket编程、枚举、泛型、设计模式
4.描述如下:
称为java基础,由浅入深的技术点、真实商业项目模块分析、多种存储方式的设计与实现。该阶段是前四个阶段最最重要的阶段,因为后面所有阶段的都要基于此阶段,也是学习大数据紧密度最高的阶段。本阶段将第一次接触团队开发、产出具有前后台(第一阶段技术+第二阶段的技术综合应用)的真实项目。
第三阶段:前端框架
1.难易程序:两星
2.技术知识点+阶段项目任务+综合能力
3.主要技术包括:
java、jquery、注解反射一起使用,xml以及xml解析、解析dom4j、jxab、jdk8.0新特性、svn、maven、easyui
4.描述如下:
前两个阶段的基础上化静为动,可以实现让我们网页内容更加的丰富,当然如果从市场人员层面来说,有专业的前端设计人员,我们设计本阶段的目标在于前端的技术可以更直观的锻炼人的思维和设计能力。同时我们也将第二阶段的高级特性融入到本阶段。使学习者更上一层楼。
第四阶段:企业级开发框架
1.难易程序:三颗星
3.主要技术包括:
hibernate、spring、springmvc、log4j slf4j 整合、mybatis、struts2、shiro、redis、流程引擎activity, 爬虫技术nutch,lucene,webservice cxf、tomcat集群和热备 、mysql读写分离
第五阶段: 初识大数据
1.难易程度:三颗星
2.技术知识点+阶段项目任务+综合能力
3.主要技术包括:
大数据前篇(什么是大数据,应用场景,如何学习大数据库,虚拟机概念和安装等)、linux常见命令(文件管理、系统管理、磁盘管理)、linux shell编程(shell变量、循环控制、应用)、hadoop入门(hadoop组成、单机版环境、目录结构、hdfs界面、mr界面、简单的shell、java访问hadoop)、hdfs(简介、shell、idea开发工具使用、全分布式集群搭建)、mapreduce应用(中间计算过程、java操作mapreduce、程序运行、日志监控)、hadoop高级应用(yarn框架介绍、配置项与优化、cdh简介、环境搭建)、扩展(map 端优化,combiner 使用方法见,top k,sqoop导出,其它虚拟机vm的快照,权限管理命令,awk 与 sed命令)
4.描述如下:
该阶段设计是为了让新人能够对大数据有一个相对的大概念怎么相对呢?在前置课程java的学习过后能够理解程序在单机的电脑上是如何运行的。现在,大数据呢?大数据是将程序运行在大规模机器的集群中处理。大数据当然是要处理数据,所以同样,数据的存储从单机存储变为多机器大规模的集群存储。(你问我什么是集群?好,我有一大锅饭,我一个人可以吃完,但是要很久,现在我叫大家一起吃。一个人的时候叫人,人多了呢? 是不是叫人群啊!)那么大数据可以初略的分为: 大数据存储和大数据处理所以在这个阶段中呢,我们课程设计了大数据的标准:hadoop呐,大数据的运行呢并不是在咋们经常使用windows 7或者w10上面,而是现在使用最广泛的系统:linux。
第六阶段:大数据数据库
1.难易程度:四颗星
2.技术知识点+阶段项目任务+综合能力
3.主要技术包括:hive入门(hive简介、hive使用场景、环境搭建、架构说明、工作机制)、hive shell编程(建表、查询语句、分区与分桶、索引管理和视图)、hive高级应用(distinct实现、groupby、join、sql转化原理、java编程、配置和优化)、hbase入门、hbase shell编程(ddl、dml、java操作建表、查询、压缩、过滤器)、细说hbase模块(region、hregion server、hmaster、zookeeper简介、zookeeper配置、hbase与zookeeper集成)、hbase高级特性(读写流程、数据模型、模式设计读写热点、优化与配置)
4.描述如下:
该阶段设计是为了让大家在理解大数据如何处理大规模的数据的同时。简化咋们的编写程序时间,同时提高读取速度。
怎么简化呢?在第一阶段中,如果需要进行复杂的业务关联与数据挖掘,自行编写mr程序是非常繁杂的。所以在这一阶段中我们引入了hive,大数据中的数据仓库。这里有一个关键字,数据仓库。我知道你要问我,所以我先说,数据仓库呢用来做数据挖掘分析的,通常是一个超大的数据中心,存储这些数据的呢,一般为oracle,db2,等大型数据库,这些数据库通常用作实时的在线业务。总之,要基于数据仓库分析数据呢速度是相对较慢的。但是方便在于只要熟悉sql,学习起来相对简单,而hive呢就是这样一种工具,基于大数据的sql查询工具呐,这一阶段呢还包括hbase,它为大数据里面的数据库。纳闷了,不是学了一种叫做hive的数据“仓库”了么?hive是基于mr的所以查询起来相当慢,hbase呢基于大数据可以做到实时的数据查询。一个主分析,另一个主查询。
第七阶段:实时数据采集
1.难易程序:四颗星
2.技术知识点+阶段项目任务+综合能力
3.主要技术包括:
flume日志采集,kafka入门(消息队列、应用场景、集群搭建)、kafka详解(分区、主题、接受者、发送者、与zookeeper集成、shell开发、shell调试)、kafka高级使用(java开发、主要配置、优化项目)、数据可视化(图形与图表介绍、charts工具分类、柱状图与饼图、3d图与地图)、storm入门(设计思想、应用场景、处理过程、集群安装)、strom开发(strom mvn开发、编写storm本地程序)、storm进阶(java开发、主要配置、优化项目)、kafka异步发送与批量发送时效,kafka全局消息有序,storm多并发优化
4.描述如下:
前面的阶段数据来源是基于已经存在的大规模数据集来做的,数据处理与分析过后的结果是存在一定延时的,通常处理的数据为前一天的数据。举例场景:网站防盗链,客户账户异常,实时征信,遇到这些场景基于前一天的数据分析出来过后呢?是否太晚了。所以在本阶段中我们引入了实时的数据采集与分析。主要包括了:flume实时数据采集,采集的来源支持非常广泛,kafka数据数据接收与发送,storm实时数据处理,数据处理秒级别。
第八阶段:spark数据分析
1.难易程序:五颗星
2.技术知识点+阶段项目任务+综合能力
3.主要技术包括:scala入门(数据类型、运算符、控制语句、基础函数)、scala进阶(数据结构、类、对象、特质、模式匹配、正则表达式)、scala高级使用(高阶函数、科里函数、偏函数、尾迭代、自带高阶函数等)、spark入门(环境搭建、基础结构、运行模式)、spark数据集与编程模型、spark sql、spark 进阶(data frame、dataset、spark streaming原理、spark streaming支持源、集成kafka与socket、编程模型)、spark高级编程(spark-graphx、spark-mllib机器学习)、spark高级应用(系统架构、主要配置和性能优化、故障与阶段恢复)、spark ml kmeans算法,scala 隐式转化高级特性
4.描述如下:
同样先说前面的阶段,主要是第一阶段。hadoop呢在分析速度上基于mr的大规模数据集相对来说还是挺慢的,包括机器学习,人工智能等。而且不适合做迭代计算。spark呢在分析上是作为mr的替代产品,怎么替代呢? 先说他们的运行机制,hadoop基于磁盘存储分析,而spark基于内存分析。我这么说你可能不懂,再形象一点,就像你要坐火车从北京到上海,mr就是绿皮火车,而spark是高铁或者磁悬浮。而spark呢是基于scala语言开发的,当然对scala支持最好,所以课程中先学习scala开发语言。什么?又要学另外一种开发语言?不不不!!!我只说一句话:scala是基于java做的。从历史数据的存储,分析(hadoop,hive,hbase),到实时的数据存储(flume,kafka),分析(storm,spark),这些在真实的项目中都是相互依赖存在的。
以上就是java 大数据学什么内容的详细内容。