北风网大数据实战培训课程环境搭建:zookeeper-345-cdh536集群搭建讲师:中华石杉Spark大型项目实战:电商用户行为分析大数据平台1、将课程提供的使用WinSCP拷贝到sparkproject1的/usr/local目录下。2、对进行解压缩:tar -zxvf 。3、对zookeeper目录进行重命名:mv zookeeper-345-cdh536 zk。4、配置zookeeper
北风网大数据实战培训课程环境搭建:CDH 536集群搭建讲师:中华石杉Spark大型项目实战:电商用户行为分析大数据平台1、使用课程提供的,上传到虚拟机的/usr/local目录下。(2、将hadoop包进行解压缩:tar -zxvf 3、对hadoop目录进行重命名:mv hadoop-250-cdh536 hadoop4、配置hadoop相关环境变量vi ~/bashrcexport HADO
北风网大数据实战培训课程环境搭建:CentOS 64集群搭建讲师:中华石杉Spark大型项目实战:电商用户行为分析大数据平台1、使用课程提供的镜像:。2、创建虚拟机:打开Virtual Box,点击“新建”按钮;输入虚拟机名称为sparkproject1,选择操作系统为Linux,选择版本为Red Hat;分配1024MB内存;后面所有选项全部用默认的设置;注意,在Virtual disk fil
北风网大数据实战培训课程环境搭建:kafka_292-081集群搭建讲师:中华石杉Spark大型项目实战:电商用户行为分析大数据平台1、将课程提供的使用WinSCP拷贝到sparkproject1的/usr/local目录下。2、对进行解压缩:tar -zxvf 。3、对scala目录进行重命名:mv scala-2114 scala4、配置scala相关的环境变量vi ~/bashrcexpor
北风网大数据实战培训课程环境搭建:Hive 0131安装讲师:中华石杉Spark大型项目实战:电商用户行为分析大数据平台1、将课程提供的使用WinSCP上传到sparkproject1的/usr/local目录下。2、解压缩hive安装包:tar -zxvf 3、重命名hive目录:mv hive-0131-cdh536 hive4、配置hive相关的环境变量vi ~/bashrcexport H
北风网项目实战培训第23讲-课程环境搭建:Hadoop 241集群搭建讲师:中华石杉Spark从入门到精通(案例实战、高级特性、内核源码、性能调优)1、使用课程提供的,使用WinSCP上传到CentOS的/usr/local目录下。2、将hadoop包进行解压缩:tar -zxvf 3、对hadoop目录进行重命名:mv hadoop-241 hadoop4、配置hadoop相关环境变量vi ba
北风网项目实战培训第27讲-课程环境搭建:Spark 130集群搭建讲师:中华石杉Spark从入门到精通(案例实战、高级特性、内核源码、性能调优)1、将使用WinSCP上传到/usr/local目录下。2、解压缩spark包:tar zxvf 。3、更改spark目录名:mv spark-130-bin-hadoop24 spark4、设置spark环境变量vi bashrcexport SPAR
北风网项目实战培训第22讲-课程环境搭建:CentOS 65集群搭建讲师:中华石杉Spark从入门到精通(案例实战、高级特性、内核源码、性能调优)1、Virtual Box 412、CentOS 653、JDK 174、SecureCRT(自己下载)5、WinSCP(自己下载)6、Hadoop 2417、Hive 0138、ZooKeeper 3459、kafka_292-08110、Spark
北风网项目实战培训第25讲-课程环境搭建:ZooKeeper 345集群搭建讲师:中华石杉Spark从入门到精通(案例实战、高级特性、内核源码、性能调优)1、将课程提供的使用WinSCP拷贝到spark1的/usr/local目录下。2、对进行解压缩:tar -zxvf 。3、对zookeeper目录进行重命名:mv zookeeper-345 zk。4、配置zookeeper相关的环境变量vi
北风网大数据实战培训课程环境搭建:flume-ng-150-cdh536安装讲师:中华石杉Spark大型项目实战:电商用户行为分析大数据平台1、将课程提供的使用WinSCP拷贝到sparkproject1的/usr/local目录下。2、对flume进行解压缩:tar -zxvf 3、对flume目录进行重命名:mv apache-flume-150-cdh536-bin flume4、配置sca
违法有害信息,请在下方选择原因提交举报