大桔灯文库logo

下载提示:1. 本站不保证资源下载的准确性、安全性和完整性,同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
2. 本文档由用户上传,版权归属用户,大桔灯负责整理代发布。如果您对本文档版权有争议请及时联系客服。
3. 下载前请仔细阅读文档内容,确认文档内容符合您的需求后进行下载,若出现内容与标题不符可向本站投诉处理。
4. 下载文档时可能由于网络波动等原因无法下载或下载错误,付费完成后未能成功下载的用户请联系客服处理。

相关文档

  • 06__2(Kafka负载均衡Kafka自定义PartitionKafk文件存储机制).docx

    课程介绍课程名称:Kafka技术增强 注:学习本课程请先学习Kafka基础课程目标:通过本模块的学习能够掌握Kafka的负载均衡Producer生产数据Kafka文件存储机制Kafka自定义partition课程大纲:Kafka整体结构图Consumer与topic关系Kafka Producer消息分发Consumer 的负载均衡Kafka文件存储机制课程内容1Kafka整体结构图Kafka名

  • kafka-connect-2016.pptx

    Kafka Connect: Real-time Data Integration at Scale with Apache KafkaLiquan PeiSoftware Engineer, ConfluentSoftware Engineer @ ConfluentWorking on Kafka Connect, HDFS and Elasticsearch Connector Worked

  • kafka-0.8.1.1总结.docx

    #

  • 224_Spark_Streaming实战开发进阶-kafka.ppt

    北风网大数据实战培训第224讲-Spark Streaming实战开发进阶-kafka安装讲师:中华石杉Spark从入门到精通(案例实战、高级特性、内核源码、性能调优)1、将课程提供的使用WinSCP拷贝到spark1的/usr/local目录下。2、对进行解压缩:tar -zxvf 。3、对zookeeper目录进行重命名:mv zookeeper-345 zk。4、配置zookeeper相关的

  • 02__1(Storm单词数StreamGrouping).docx

    课程介绍课程名称:Storm集群部署及单词技术课程目标:通过本课程能够掌握Strom集群搭建Storm配置文件Storm源码管理Storm编程模型课程大纲:集群部署的基本流程集群部署的基础环境准备Storm集群部署Storm集群的常用操作命令Storm集群的进程及日志熟悉Storm源码下载及目录熟悉Storm 单词计数案列课程内容集群部署的基本流程集群部署的流程:下载安装包解压安装包修改配置文件分

  • 02__1(Storm单词数StreamGrouping).docx

    课程介绍课程名称:Storm集群部署及单词技术课程目标:通过本课程能够掌握Strom集群搭建Storm配置文件Storm源码管理Storm编程模型课程大纲:集群部署的基本流程集群部署的基础环境准备Storm集群部署Storm集群的常用操作命令Storm集群的进程及日志熟悉Storm源码下载及目录熟悉Storm 单词计数案列课程内容集群部署的基本流程集群部署的流程:下载安装包解压安装包修改配置文件分

  • 51CTO学院-Kafka体验视频课程(知识原理).docx

    Kafka体验视频课程(基础知识原理)课程目标通过对kafka的基础知识与原理的讲解使学员能够快速入门适用人群开发人员项目经理系统架构师课程简介通过对kafka的基础知识与原理的讲解使学员能够快速入门注意事项此课程是kafka专题系列的删减版如果需要全面了解kafka请购买kafka专题系列课程课程1 t _blank kafka的基本介绍[免费观看] =lessonid=53732

  • 096_Spark_Streaming_输入DStream之Kafka数据源实战_于Direct的方_.ppt

    北风网大数据实战培训输入DStream之Kafka数据源实战(基于Direct的方式)讲师:中华石杉Spark从入门到精通(案例实战、高级特性、内核源码、性能调优)这种新的不基于Receiver的直接方式,是在Spark 13中引入的,从而能够确保更加健壮的机制。替代掉使用Receiver来接收数据后,这种方式会周期性地查询Kafka,来获得每个topic+partition的最新的offset,

  • 095_Spark_Streaming_输入DStream之Kafka数据源实战_于Receiver的方_.ppt

    北风网大数据实战培训输入DStream之Kafka数据源实战(基于Receiver的方式)讲师:中华石杉Spark从入门到精通(案例实战、高级特性、内核源码、性能调优)这种方式使用Receiver来获取数据。Receiver是使用Kafka的高层次Consumer API来实现的。receiver从Kafka中获取的数据都是存储在Spark Executor的内存中的,然后Spark Stream

  • .doc

    public class ThreadTest { param args public static void main(String[] args) {Account a=new Account(100)MyThread1 t1=new MyThread1(a)()MyThread1 t2=new MyThread1(a)()MyThread2 t3=new MyThread2(aA)()My

违规举报

违法有害信息,请在下方选择原因提交举报


客服

顶部