账号:DT_Spark王家林:Spark、Flink、Docker、Android技术中国区布道师。在Spark、Flink、Hadoop、Android、Docker等方面有丰富的源码、实务和性能优化经验。彻底研究了Spark从050到110共18个版本的Spark源码。Spark最佳畅销书《大数据spark企业级实战》,电子书《Spark GraphX大规模图计算和图挖掘》》、Sp
账号:DT_Spark王家林:Spark、Flink、Docker、Android技术中国区布道师。在Spark、Flink、Hadoop、Android、Docker等方面有丰富的源码、实务和性能优化经验。彻底研究了Spark从050到110共18个版本的Spark源码。Spark最佳畅销书《大数据spark企业级实战》,电子书《Spark GraphX大规模图计算和图挖掘》》、Sp
单击此处编辑母版标题样式单击此处编辑母版文本样式第二级第三级第四级第五级王家林号:18610086859每天早上4点左右发布一个免费大数据视频内容涉及ScalaHadoopSparkR图计算机器学习深度实战详解单击此处编辑母版标题样式单击此处编辑母版文本样式第二级第三级第四级第五级2015108??账号:DT_Spark王家林:SparkFlinkDockerAndroid技术中国
Linux上如何安装Hadoop实践
一.安装JDK(安装包: jdk-7u51-linux-i586)1.转到下载路径对下载后的文件解压缩比如我的下载路径为usrlibjvmcd usrlibjvmsudo tar zxvf jdk-7u51-linux-i5862.将解压出的文件拷贝到usrlibjvm中比如我解压出的文件夹为_51sudo cp –r _51 usrlibjvm3.修改环境变量gedit .bashrc在最下面
账号:DT_Spark王家林:Spark、Flink、Docker、Android技术中国区布道师。在Spark、Flink、Hadoop、Android、Docker等方面有丰富的源码、实务和性能优化经验。彻底研究了Spark从050到110共18个版本的Spark源码。Spark最佳畅销书《大数据spark企业级实战》,电子书《Spark GraphX大规模图计算和图挖掘》》、Sp
搭建Hadoop Cluster所需的SSH配置消除首次登录时的输入yes确认在每个节点上的etcsshssh_config中设置StrictHostKeyChecking no即可(默认为 ask )利用sshpass以非交互的形式为ssh输入密码下载源码: sourceforge.netprojectssshpassfilessshpass1.05.tar.gzdownload t _to
Hadoop实战-中高级部分 之 Hadoop 管理Hadoop RestFulHadoop HDFS原理1Hadoop HDFS原理2Hadoop作业调优参数调整及原理Hadoop HAHadoop MapReduce高级编程Hadoop IOHadoop MapReduce工作原理Hadoop 管理Hadoop 集群安装Hadoop RPC第一部分:HDFS管理命令行工具?HDFS文件系统检查
账号:DT_Spark王家林:Spark、Flink、Docker、Android技术中国区布道师。在Spark、Flink、Hadoop、Android、Docker等方面有丰富的源码、实务和性能优化经验。彻底研究了Spark从050到110共18个版本的Spark源码。Spark最佳畅销书《大数据spark企业级实战》,电子书《Spark GraphX大规模图计算和图挖掘》》、Sp
王家林号:18610086859每天早上4点左右发布一个免费大数据视频内容涉及ScalaHadoopSparkR图计算机器学习深度实战详解20151026账号:DT_Spark王家林:SparkFlinkDockerAndroid技术中
违法有害信息,请在下方选择原因提交举报