网站制作工具,网站上如何做跳转页面,上海网架公司,网站建设培训东莞4.1.1 Zookeeper 存储的 Kafka 信息
4.1.2 Kafka Broker 总体工作流程
4.2 生产经验 - 节点的服役和退役
自己的理解#xff1a;其实就是将kafka的分区#xff0c;负载到集群中的各个节点上。
1、服役新节点
2、退役旧节点 4.3 kafka副本
1、副本的作用
2、Leader的选…4.1.1 Zookeeper 存储的 Kafka 信息
4.1.2 Kafka Broker 总体工作流程
4.2 生产经验 - 节点的服役和退役
自己的理解其实就是将kafka的分区负载到集群中的各个节点上。
1、服役新节点
2、退役旧节点 4.3 kafka副本
1、副本的作用
2、Leader的选举流程
选举规则在isr中存活为前提按照AR中排在前面的优先。例如ar[1,0,2], isr [102]那么leader就会按照102的顺序轮询。
3、 Leader 和 Follower 故障处理细节
两个概念
LEOLog End Offset每个副本的最后一个offsetLEO其实就是最新的offset 1HWHigh Watermark所有副本中最小的LEO
4、分区副本分配
5、手动分配分区副本
6、Leader Partition 负载平衡
正常情况下Kafka本身会自动把Leader Partition均匀分散在各个机器上来保证每台机器的读写吞吐量都是均匀的。但是如果某些broker宕机会导致Leader Partition过于集中在其他少部分几台broker上这会导致少数几台broker的读写请求压力过高其他宕机的broker重启之后都是follower partition读写请求很低造成集群负载不均衡
·最好不要设置集群自动再平衡因为它浪费集群大量的性能·
7、生产经验——增加副本因子
在生产环境当中由于某个主题的重要等级需要提升我们考虑增加副本。副本数的增加需要先制定计划然后根据计划执行
【注意】不能直接通过命令行的方式修改副本而是需要通过一下方式来增加副本数量 4.4 文件存储
1、文件存储机制
1 Topic 文件的存储机制
3index 文件和 log 文件详解 2、文件清理策略 Kafka 中默认的日志保存时间为 7 天可以通过调整如下参数修改保存时间。 Kafka 中提供的日志清理策略有 delete 和 compact 两种 delete 日志删除将过期数据删除
compact日志压缩对于相同key的不同value值只保留最后一个版本。用的比较少知道即可 4.5 高效读写数据
1Kafka 本身是分布式集群采用分区技术并行度高
2读数据采用稀疏索引可以快速定位要消费的数据
3顺序写磁盘
4页缓存 零拷贝技术 零拷贝Kafka的数据加工处理操作交由Kafka生产者和Kafka消费者处理。Kafka Broker应用层不关心存储的数据所以就不用走应用层传输效率高
PageCache页缓存Kafka重度依赖底层操作系统提供的PageCache功 能。当上层有写操作时操作系统只是将数据写入PageCache。当读操作发生时先从PageCache中查找如果找不到再去磁盘中读取。实际PageCache是把尽可能多的空闲内存都当做了磁盘缓存来使用