首页
拜师
课程
定制计划
博客资源站
手机app
首页
拜师
课程
定制计划
博客资源站
手机app
登录
注册
登录
注册
大数据___Spark课程
第29任务: 10、使用spark实现ip地址的查询.mp4
查看课程
任务列表
第1任务: 上阶段考核通过卡点
第2任务: 资料文档下载
第3任务: 1、hbase的通用优化.mp4
第4任务: 2、spark的基本介绍.mp4
第5任务: 3、spark的运行环境准备.mp4
第6任务: 4、spark的重新编译详细步骤.mp4
第7任务: 5、spark的standAlone模式集群运行.mp4
第8任务: 6、spark的HA模式运行环境.mp4
第9任务: 7、spark on yarn模式.mp4
第10任务: 每日作业
第11任务: 8、spark的运行架构.mp4
第12任务: 9、spark的任务提交参数说明-根据不同运行模式调整不同参数.mp4
第13任务: 10、使用spark-shell实现单词计数统计.mp4
第14任务: 11、使用spark-shell在standAlone模式下读取hdfs文件.mp4
第15任务: 12、使用scala程序开发spark的代码.mp4
第16任务: 13、使用java语言开发spark程序.mp4
第17任务: 14、spark第一天课程总结.mp4
第18任务: 每日作业
第19任务: 1、Spark第一天课程内容回顾.mp4
第20任务: 2、RDD的五大属性介绍.mp4
第21任务: 3、以单词统计为例,来查看RDD当中的五大属性.mp4
第22任务: 4、rdd的基本属性介绍2.mp4
第23任务: 5、spark当中常用的transfermation算子介绍.mp4
第24任务: 6、transfermation的算子介绍2.mp4
第25任务: 7、spark当中所有的action算子.mp4
第26任务: 8、spark当中实现日志数据统计.mp4
第27任务: 每日作业
第28任务: 9、求取访问来源的topN.mp4
第29任务: 10、使用spark实现ip地址的查询.mp4
第30任务: 11、使用spark实现ip地址的查询2.mp4
第31任务: 12、使用spark实现ip地址查询3.mp4
第32任务: 13、rdd的依赖关系之宽窄依赖和血统划分.mp4
第33任务: 14、rdd的缓存两种方式.mp4
第34任务: 15、rdd当中DAG的划分以及stage的划分-根据shuffle来进行划分.mp4
第35任务: 16、spark当中的shuffle过程.mp4
第36任务: 17、spark的任务调度过程.mp4
第37任务: 18、spark当中的CheckPoint容错机制.mp4
第38任务: 19、spark当中的运行架构以及常用的数据读取与保存方式.mp4
第39任务: 20、Spak第二天课程总结.mp4
第40任务: 每日作业
第41任务: 1、Spark第二天课程内容回顾以及第三天课程内容大纲.mp4
第42任务: 2、dataframe的基本介绍以及rdd与dataset三者之间的对比.mp4
第43任务: 3、读取文本文件以及json文件以及parquet文件创建DF.mp4
第44任务: 4、DSL语法的风格操作.mp4
第45任务: 5、SQL语法的操作风格.mp4
第46任务: 6、data的生成几种方式以及rdd,ds和df三者之间的相互转化.mp4
第47任务: 7、通过javaAPI实现personDF的创建.mp4
第48任务: 每日作业
第49任务: 8、DSL以及sql语法操作风格.mp4
第50任务: 9、通过row对象配合structType实现df的创建.mp4
第51任务: 10、sparkSQL整合hive直接使用hive的hql语法.mp4
第52任务: 11、spark当中的数据源.mp4
第53任务: 12、sparkSQL当中的分析函数介绍.mp4
第54任务: 13、sparkSQL当中的UDF以及UDAF的自定义函数.mp4
第55任务: 14、Spark第三天课程总结.mp4
第56任务: 每日作业
第57任务: 1、Spark第三天课程内容回顾以及Spark第四天课程内容大纲.mp4
第58任务: 2、SparkStreaming的基本概述.mp4
第59任务: 3、sparkStreaming的入门案例.mp4
第60任务: 4、实现单词计数的入门案例.mp4
第61任务: 5、文本文件数据源.mp4
第62任务: 6、sparkStreaming自定义数据源.mp4
第63任务: 7、sparkStreaming当中的队列数据源.mp4
第64任务: 每日作业
第65任务: 8、flume数据源.mp4
第66任务: 9、使用poll得方式整合flume.mp4
第67任务: 10、sparkStreaming与flume的整合使用push方式.mp4
第68任务: 11、kafka集群环境搭建以及sparkStreaming整合kafka介绍.mp4
第69任务: 12、spark整合kafka实现RDStream方式进行消费,出现数据重复消费情况.mp4
第70任务: 13、spark整合kafka基于DirectDStream的方式实现—造成数据丢失的问题.mp4
第71任务: 14、kafka0.10版本整合.mp4
第72任务: 15、SS整合kafka0.10版本整合代码实现,通过手动提交offset实现数据消费一次.mp4
第73任务: 16、sparkStreaming当中的window操作.mp4
第74任务: 17、sparkStreaming的容错以及课程总结.mp4
第75任务: 每日作业