论坛风格切换
 
  • 帖子
  • 日志
  • 用户
  • 版块
  • 群组
帖子
发帖 回复
返回列表
更多
  • 45阅读
  • 0回复

[教程资料]Apache Spark与Java - 使用下一代大数据平台切片和切块数据 [复制链接]

上一主题 下一主题
<
离线030711
 

发帖
1110
电魂
6725
威望
68
好评
0
信誉
0
爱心
100
今日发帖
最后登录
2019-09-14
只看楼主 倒序阅读 使用道具 楼主  发表于: 2019-08-18 10:16:31
由Imtiaz Ahmad创建| 视频:1280x720 | 音频:AAC 48KHz 2ch | 持续时间:06:54 H / M | Lec:31 | 7.94 GB | 语言:英语| 子:英文[自动生成]
学习如何使用下一代大数据平台切片和切块数据--Apache Spark!
您将学到什么
利用最强大的大数据批处理和流处理引擎来解决大数据问题
掌握新的Spark Java Datasets API,以高效的方式切割和切割大数据在
云和工作台上构建,部署和运行Spark作业在各种硬件配置上标记性能
优化火花簇以有效处理大数据并理解性能调整
使用Spark SQL,Dataframes和Datasets转换结构化和半结构化数据
在Spark中实现流行的机器学习算法,如线性回归,Logistic回归和K -Means聚类

要求需要
一些基本的Java编程经验。包含Java 8 lambdas的速成课程
您将需要一台具有互联网连接的个人计算机。
本课程所需的软件完全免费,我将引导您完成如何在计算机上安装它的步骤

说明
Apache Spark是下一代批处理和流处理引擎。它已被证明比Hadoop快近100倍,并且开发分布式大数据应用程序要容易得多。近年来,它的需求飙升,在简历中使用这项技术真的是改变了游戏规则。目前有超过3000家公司在生产中使用Spark,而且这个名单正在快速增长!一些知名企业包括:Oracle,Hortonworks,思科,Verizon,Visa,微软,亚马逊以及大多数世界银行和金融机构!

在本课程中,您将学习在使用最新且最好的Java数据集API时在组织中使用Apache Spark所需了解的一切。以下是您将学习的一些内容:
如何使用Spark SQL Dataframes开发Spark Java应用程序
了解Spark Standalone群集在幕后的工作原理
如何使用各种转换在Spark Java中对数据进行切片和切块
如何在使用Spark数据集时对Java域对象(pojos)进行编组/解组
主连接,过滤,聚合和摄取各种大小和文件格式的数据(txt,csv,Json等)
分析超过1800万条关于Reddit的现实评论,找出最常用的词汇
使用Spark Streaming开发用于流式传输股票市场索引文件的程序
流式传输在Kafka群集上排队的网络套接字和消息
了解如何使用Spark MLlib开发最流行的机器学习算法
涵盖了最流行的算法:线性回归,Logistic回归和K均值聚类
您将开发超过15个实用的Spark Java应用程序,通过实际数据进行处理,并使用多种数据转换技术以各种方式对其进行切片和切割。对于那些希望被聘为java开发人员或数据工程师的人来说,这门课程尤其重要,因为Spark是一项非常受欢迎的技能。我们甚至会讨论如何设置实时集群并配置Spark Jobs以在云上运行。您还将了解性能调优的实际意义以及扩展群集以处理大数据,因此您在本课程中肯定会学到很多东西。本课程提供30天退款保证。您可以访问本课程中使用的所有代码。
这门课程适合谁?
任何人都是Java开发人员并希望在他们的简历中添加这种可靠的市场技术
任何想要进入数据科学领域的
人任何对大数据世界感兴趣的
人任何想要在spark中实现机器学习算法的人

主页
https://www.udemy.com/course/the-ultimate-apache-spark-with-java-course-hands-on/

本部分内容设定了隐藏,需要回复后才能看到