学校介绍

曼顿培训网(www.mdpxb.com),是北京曼顿企业管理咨询有限公司(以下简称北京曼顿咨询)旗下网站。是总部位于美国的国际职业认证标准联合会在北京地区授权的培训考试及认证单位[认证号:IOCL086132],同时也是 香港培训认证中心授权的培训认证机构[认证号:HKTCC(GZ)A1.. 招生资质: 已认证
学校优势: 企业内训方面/公开课方面
咨询电话: 13810210257
分享到:
Hadoop与Spark大数据开发与案例分析高级工程师实战培训班(杭州,1月25-29日)
2017/11/30 10:51:34 来源:北京曼顿企业管理咨询有限公司 [加入收藏]
Hadoop与Spark大数据开发与案例分析高级工程师实战培训班(杭州,1月25-29日)
【举办单位】北京曼顿培训网 www.mdpxb.com 中国培训资讯网 www.e71edu.com
【咨询电话】4006820825 010-56133998 13810210257
【培训日期】2018年1月25-29日
【培训地点】杭州
【培训对象】各地政府,院校云计算物联网产业相关负责人,各类 IT/软件企业和研发机构的软件架构师、软件设计师、程序员、技术总监、数据挖掘负责人、数据挖掘开发工程师等
【课程背景】
为贯彻落实党中央国务院“十三五”规划指导精神,实施网络强国战略,加快建设数字中国;构建高效信息网络,推进物联网发展;实施“互联网+”行动计划,促进多领域融合发展;实施国家大数据战略,加快政府数据开放;加强数据安全包含,全面保障信息系统安全;推进军民融合发展立法。要实施国家大数据战略,把大数据作为基础性战略资源,全面实施促进大数据发展行动,加快推动数据资源共享开放和开发应用,助力产业转型升级和社会治理创新。加快政府数据开放共享,促进大数据产业健康发展。
现如今,大数据的应用并不仅存在于一些“理工类领域”,它已经渗透到我们生活的方方面面,将来,大数据在能源、金融、电信、汽车、消费等大多数行业都有用武之地,行业发展潜力巨大。去年,国内数据创业已是风起云涌,其实,2016才是真正意义上的大数据元年。据IDC预测,到2020年,大数据分析技术将成为所有国家经济增长的关键动力。大数据分析及其相关的市场的复合年增长率将达到26.4%,在2018年全球将发展到415亿美元的规模。同时,IDC认为,到2020年大数据分析技术将成为所有国家经济增长的关键动力。然而大数据架构最火热的莫过于Hadoop,Spark和Storm这三种
【课程目标】
1、了解Hadoop与Spark的历史及目前发展的现状、以及Hadoop与Spark的技术特点,从而把握分布式计算框架及未来发展方向,在大数据时代能为企业的技术选型及架构设计提供决策参考。
2、全面掌握Hadoop与Spark的架构原理和使用场景,并通过贯穿课程的项目进行实战锻炼,从而熟练使用Hadoop进行MapReduce程序开发。课程还涵盖了分布式计算领域的常用算法介绍,帮助学员为企业在利用大数据方面体现自身价值。
3、深入理解Hadoop与Spark技术架构,对Hadoop与Spark运作机制有清晰全面的认识,可以独立规划及部署生产环境的Hadoop与Spark集群,掌握Hadoop与Spark基本运维思路和方法,对Hadoop与Spark集群进行管理和优化。
【培训特色】
■注重应用:分析国内实际情况,结合国际、国内成功经验。采用实战的项目,让学员在短时间内掌握Hadoop与Spark的搭建与配置。并进行高效的大数据清洗和分析。
■形式灵活:互动课堂、免费技术沙龙、提供云计算项目建设咨询、大数据Hadoop平台的搭建。
【课程大纲】
模块一 Hadoop在云计算技术的作用和地位
■传统大规模系统存在的问题
■Hadoop概述
■Hadoop分布式文件系统
■MapReduce工作原理
■Hadoop集群剖析
■Hadoop生态系统对一种新的解决方案的需求
■Hadoop的行业应用案例分析
■Hadoop在云计算和大数据的位置和关系
■数据开放,数据云服务平台(DAAS)时代
■Hadoop平台在数据云平台(DAAS)上的天然优势
■数据云平台(DAAS 平台)组成部分
■互联网公共数据大云(DAAS)案例
■Hadoop构建构建游戏云(Web Game Daas)平台
模块二 Hadoop生态系统介绍和演示
■Hadoop HDFS 和 MapReduce
■Hadoop数据库之HBase
■Hadoop数据仓库之Hive
■Hadoop数据处理脚本Pig
■Hadoop数据接口Sqoop和Flume,Scribe DataX
■Hadoop工作流引擎 Oozie
■运用Hadoop自下而上构建大规模企业数据仓库
■暴风影音数据仓库实战解析
模块三 Hadoop组件详解
■Hadoop HDFS 基本结构
■Hadoop HDFS 副本存放策略
■Hadoop NameNode 详解
■HadoopSecondaryNameNode 详解
■Hadoop DataNode 详解
■Hadoop JobTracker 详解
■Hadoop TaskTracker 详解
■Hadoop Mapper类核心代码
■Hadoop Reduce类核心代码
■Hadoop 核心代码
模块四 Hadoop安装和部署
■Hadoop系统模块组件概述
■Hadoop试验集群的部署结构
■Hadoop 安装依赖关系
■Hadoop 生产环境的部署结构
■Hadoop集群部署
■Hadoop 高可用配置方法
■Hadoop 集群简单测试方法
■Hadoop 集群异常Debug方法
■Hadoop安装部署实验
■Red hat Linux基础环境搭建
■Hadoop 单机系统版本安装配置
■Hadoop 集群系统版本安装和启动配置
■使用 Hadoop MapReduce Streaming 快速测试系统
■Hadoopcore-site,hdfs-site,mapred-site 配置详解
模块五 Hadoop集群规划
■Hadoop 集群内存要求
■Hadoop集群磁盘分区
■集群和网络拓扑要求
■集群软件的端口配置
■针对NameNode Jobtracker DataNode TaskTracker Hiveserver 等不同组件需求推荐服务器配置
模块六 MapReduce 算法原理
■Hadoop MapReduce 算法的原理和优化思想
■灵活运用MapReduce 实现算法
■运用MapReduce 构建数据库算法
■Select Sort GrougBy Sum Count
■Join 新进流失算法
■使用 Y-Smart 快速转换SQL 为MapReduce 代码
模块七 编写MapReduce高级程序
■使用 Hadoop MapReduce Streaming 编程
■MapReduce流程
■剖析一个MapReduce程序
■基本MapReduceAPI概念
■驱动代码 Mapper、Reducer
■Hadoop流
■API 使用Eclipse进行快速开发
■新MapReduce API
■MapReduce的优化
■MapReduce的任务调度
■MapReduce编程实战
■如何利用其他Hadoop相关技术,包括Apache Hive, Apache Pig,Sqoop和Oozie等
■满足解决实际数据分析问题的高级Hadoop API
■Hadoop Streaming 和 Java MapReduce Api 差异。
■MapReduce 实现数据库功能
■利用Combiners来减少中间数据
■编写Partitioner来优化负载平衡
■直接访问Hadoop分布式文件系统(HDFS)
■Hadoop的join操作
■辅助排序在Reducer方的合并
■定制Writables和WritableComparables
■使用SequenceFiles和Avro文件保存二进制数据
■创建InputFormats OutputFormats
■Hadoop的二次排序
■Hadoop的海量日志分析
■在Map方的合并
模块八 集成Hadoop到现有工作流
及Hadoop API深入探讨
■存储系统
■利用Sqoop从关系型数据库系统中导入数据到Hadoop
■利用Flume导入实时数据到Hadoop
■ToolRunner介绍、使用MRUnit进行测试
■使用Configure和Close方法来进行Map/Reduce设置和关闭
■使用FuseDFS和Hadoop访问HDFS
■使用分布式缓存(Distributed Cache)
■直接访问Hadoop分布式文件系统(HDFS)
■利用Combiners来减少中间数据
■编写Partitioner来优化负载平衡
模块九 使用Hive和Pig开发及技巧
■Hive和Pig基础
■Hive的作用和原理说明
■Hadoop仓库和传统数据仓库的协作关系
■Hadoop/Hive仓库数据数据流
■Hive 部署和安装
■Hive Cli 的基本用法
■HQL基本语法
■运用Pig 过滤用户数据
■使用JDBC 连接Hive进行查询和分析
■使用正则表达式加载数据
■HQL高级语法
■编写UDF函数
■编写UDAF自定义函数
■基于Hive脚本内嵌Streaming 编程
模块十 Hbase安装和使用
■Hbase 安装部署
■Hbase原理和结构
■Hbase 运维和管理
■使用Hbase+Hive 提供 OLAP SQL查询能力
■使用Hbase+Phoenix提供 OLTP SQL能力
■基于Hbase 的时间序列数据库 OpenTsDb 结构解析
模块十一 Hadoop2.0 集群探索
■Hadoop2.0 HDFS 原理
■Hadoop2.0 Yarn 原理
■Hadoop2.0 生态系统
■基于Hadoop2.0 构建分布式系统
模块十二 Hadoop企业级别案例解析
■Hadoop 结构化数据案例
■Hadoop 非结构化案例
■Hbase 数据库案例
■Hadoop 视频分析案例
■利用大数据分析改进交通管理
■区域医疗大数据应用案例
■银联大数据数据票据详单平台
■广东移动省公司请账单系统
■上海电信网络优化
■某通信运营商全国用户上网记录
■浙江台州市智能交通系统
■移动广州详单实时查询系统
模块一 Spark
生态介绍
■Mapreduce、storm和spark模型的比较和使用场景介绍
■Spark产生背景
■Spark(内存计算框架)
■SparkSteaming(流式计算框架)
■Spark SQL(ad-hoc)
■Mllib(MachineLearning)
■GraphX(bagel将被代)
■DlinkDB介绍
■SparkR介绍
模块二 Spark
安装部署
■Spark安装简介
■Spark的源码编译
■Spark Standalone安装
■Spark应用程序部署工具spark-submit
■Spark的高可用性部署
模块三 Spark
运行架构和解析
■Spark的运行架构
■基本术语
■运行架构
■Spark on Standalone运行过程
■Spark on YARN 运行过程
■Spark运行实例解析
■Spark on Standalone实例解析
■Spark on YARN实例解析
■比较 Standalone与YARN模式下的优缺点
模块四 Spark
scala编程
■Scala基本语法与高阶语法
■Scala基本语法
■Scala开发环境搭建
■Scala开发Spark应用程序
■使用java编程
■使用scala编程
■使用python编程
模块五 Spark
编程模型和解析
■Spark的编程模型
■Spark编程模型解析
■RDD的特点、操作、依赖关系
■Spark应用程序的配置
■Spark的架构
■spark的容错机制
■数据的本地性
■缓存策略介绍
宽依赖与窄依赖
模块六 Spark 数据挖掘
■Mllib的介绍
■graphX核心原理
■table operator和graph operator区别
■vertices、edges和triplets介绍
■构建一个graph
■SparkR原理
■SparkR实战
模块七 Spark Streaming原理和实践
■Spark Streaming与Strom的区别
■Kafka的部署
■Kafka与Spark Streaming的整合
■Spark Streaming原理
■Spark流式处理架构
■DStream的特点
■Dstream的操作和RDD的区别
■带状态的transformation与无状态transformation
■Spark Streaming的优化
■Spark Streaming实例
■Streaming的容错机制
■streaming在yarn模式下的注意事项
对于需结合第三方存储机制的与流式处理方案
■文本实例
■网络数据处理
■Kafka+Spark Streaming实现日志的实时分析案例
模块八 Spark的优化
■序列化优化——Kryo
■Spark参数优化实战
■Spark 任务的均匀分布策略
■Partition key倾斜的解决方案
■Spark任务的监控
■GC的优化
■Spark Streaming吞吐量优化
■Spark RDD使用内存的优化策略
■Spark在使用中的感想分享
模块九 Spark的数据源
■Spark与HDFS的整合
■HDFS RDD原理和实现
■Spark与Hbase的整合
■Spark与Cassendera整合
■Hbase RDD的分区读取
■Hbase RDD的原理和实现
■Spark parallelism RDD的工作机制
模块十 Spark Streaming应用及案例分析
■Spark Streaming产生动机
■ Spark Streaming程序设计
(1)创建DStream
(2)基于DStream进行流式处理
■Spark Streaming容错与性能优化
(1)Spark Streaming容错机制
(2)如何对spark Streaming进行优化
■ Spark Streaming案例分析
基于Spark Streaming的用户标签系统,内容包括项目背景,项目架构以及实施方法
模块十一
典型项目
案例实战
■基于spark日志分析
■个性化推荐系统:带你揭开其神秘面纱
■在线投放引擎
■揭开淘宝点击推荐系统的神秘面纱
■淘宝数据服务架构—实时计算平台
【讲师介绍】
张老师,曼顿培训网(www.mdpxb.com )资深讲师。 阿里大数据高级专家,国内资深的Spark、Hadoop技术专家、虚拟化专家,对HDFS、MapReduce、HBase、Hive、Mahout、Storm、spark和openTSDB等Hadoop生态系统中的技术进行了多年的深入的研究,更主要的是这些技术在大量的实际项目中得到广泛的应用,因此在Hadoop开发和运维方面积累了丰富的项目实施经验。近年主要典型的项目有:某电信集团网络优化、中国移动某省移动公司请账单系统和某省移动详单实时查询系统、中国银联大数据数据票据详单平台、某大型银行大数据记录系统、某大型通信运营商全国用户上网记录、某省交通部门违章系统、某区域医疗大数据应用项目、互联网公共数据大云(DAAS)和构建游戏云(Web Game Daas)平台项目等。
【费用及报名】
1、费用:培训费9800元(含培训费、讲义费);如需食宿,会务组可统一安排,费用自理。
2、报名咨询:4006820825 010-56133998 56028090 13810210257 鲍老师
3、报名流程:电话登记-->填写报名表-->发出培训确认函
4、备注:如课程已过期,请访问我们的网站,查询最新课程
5、详细资料请访问北京曼顿培训网:www.mdpxb.com (每月在全国开设四百多门公开课,欢迎报名学习)

我要发表评论

      张跃华
      方向:更多管理研修
      资深培训师,营销实战专家,中国品牌研究院研究员,特聘专家。《销售与市场》资源中心专家讲师。曾在多家集团公司担任、营销总监,副总经理,董事长助理等职务。系"情感营销"“终端...