大桔灯文库logo

下载提示:1. 本站不保证资源下载的准确性、安全性和完整性,同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
2. 本文档由用户上传,版权归属用户,大桔灯负责整理代发布。如果您对本文档版权有争议请及时联系客服。
3. 下载前请仔细阅读文档内容,确认文档内容符合您的需求后进行下载,若出现内容与标题不符可向本站投诉处理。
4. 下载文档时可能由于网络波动等原因无法下载或下载错误,付费完成后未能成功下载的用户请联系客服处理。

相关文档

  • 120HadoopMapReduceYarn.pptx

    单击此处编辑母版标题样式单击此处编辑母版文本样式第二级第三级第四级第五级王家林号:18610086859每天早上4点左右发布一个免费大数据视频内容涉及ScalaHadoopSparkR图计算机器学习深度实战详解单击此处编辑母版标题样式单击此处编辑母版文本样式第二级第三级第四级第五级20151017??账号:DT_Spark王家林:SparkFlinkDockerAndroid技术中

  • 129Hadoop集群管理工具fsck.pptx

    王家林号:18610086859每天早上4点左右发布一个免费大数据视频内容涉及ScalaHadoopSparkR图计算机器学习深度实战详解20151026账号:DT_Spark王家林:SparkFlinkDockerAndroid技术中

  • 128Hadoop集群管理工具dfsadmin.pptx

    王家林号:18610086859每天早上4点左右发布一个免费大数据视频内容涉及ScalaHadoopSparkR图计算机器学习深度实战详解20151025账号:DT_Spark王家林:SparkFlinkDockerAndroid技术中

  • 117Hadoop集群之安装IPSlavesnamenodesecondarynamenode.pptx

    账号:DT_Spark王家林:Spark、Flink、Docker、Android技术中国区布道师。在Spark、Flink、Hadoop、Android、Docker等方面有丰富的源码、实务和性能优化经验。彻底研究了Spark从050到110共18个版本的Spark源码。Spark最佳畅销书《大数据spark企业级实战》,电子书《Spark GraphX大规模图计算和图挖掘》》、Sp

  • 116Hadoop集群之安装Java创建Hadoop用户SSH等.pptx

    账号:DT_Spark王家林:Spark、Flink、Docker、Android技术中国区布道师。在Spark、Flink、Hadoop、Android、Docker等方面有丰富的源码、实务和性能优化经验。彻底研究了Spark从050到110共18个版本的Spark源码。Spark最佳畅销书《大数据spark企业级实战》,电子书《Spark GraphX大规模图计算和图挖掘》》、Sp

  • 121Hadoop集群格式化集群运行析等.pptx

    账号:DT_Spark王家林:Spark、Flink、Docker、Android技术中国区布道师。在Spark、Flink、Hadoop、Android、Docker等方面有丰富的源码、实务和性能优化经验。彻底研究了Spark从050到110共18个版本的Spark源码。Spark最佳畅销书《大数据spark企业级实战》,电子书《Spark GraphX大规模图计算和图挖掘》》、Sp

  • Struts文件.ppt

    第五讲 Struts配置文件的详细讲解博和利初级培训 —开发技能有关Struts Controller及其相关的的配置描述?<servlet>条目定义用于Web应用程序的servlet(在本例中这是唯一的servlet): <servlet-name> 和<servlet-class>指示ActionServlet (标识为操作)接收请求并确定如何响应 <init-para

  • windows下cygwin_hadoop等并运行mapreducemapreduce程序.doc

    使用Cygwin模拟Linux环境安装配置运行基于单机的Hadoop 其实使用Cygwin模拟Linux环境来运行Hadoop是非常轻松的只需要简单地配置一下就可以运行基于单机的Hadoop这里比较关键的就是Cygwin的安装在选择安装的时候一定要安装openssh否则不会成功的下面简单说一下Cygwin的安装及其配置:Cygwin的下载安装首先点击:cygwinsetup.

  • 11:Scala中apply.pptx

    单击此处编辑母版标题样式单击此处编辑母版文本样式第二级第三级第四级第五级王家林号:18610086859每天早上4点左右发布一个免费大数据视频内容涉及ScalaHadoopSparkR图计算机器学习深度实战详解账号:DT_Spark王家林:SparkDockerAndroid技术中国区布道师在SparkHadoopAndroidDocker等方面有丰富的源码实务和性能优化经验彻底研

  • HadoopMapReduce执行过程1.docx

    1Map-Reduce 的逻辑过程假设我们需要处理一批有关天气的数据其格式如下:?按照 ASCII 码存储每行一条记录?每一行字符从 0 开始计数第 15 个到第 18 个字符为年?第 25 个到第 29 个字符为温度其中第 25 位是符号-我们现在需要统计出每年的最高温度Map-Reduce 主要包括两个步骤:Map 和 Reduce每一步都有 key-value 对作为输入和输出:?map 阶

违规举报

违法有害信息,请在下方选择原因提交举报


客服

顶部