牡丹江市西安区建设局网站,wordpress主题配置,wordpress 加入自己的页面,wix网站制作1. 什么是MQ MQ 就是消息队列。是软件和软件进行通信的中间件产品 2. MQ的优点 异步处理 - 相比于传统的串行、并行方式#xff0c;提高了系统吞吐量。 应用解耦 - 系统间通过消息通信#xff0c;不用关心其他系统的处理。 流量削锋 - 可以通过消息队列长度控制请求量…1. 什么是MQ MQ 就是消息队列。是软件和软件进行通信的中间件产品 2. MQ的优点 异步处理 - 相比于传统的串行、并行方式提高了系统吞吐量。 应用解耦 - 系统间通过消息通信不用关心其他系统的处理。 流量削锋 - 可以通过消息队列长度控制请求量可以缓解短时间内的高并发请求。 日志处理 - 解决大量日志传输。 消息通讯 - 消息队列一般都内置了高效的通信机制因此也可以用在纯的消息通讯。比如实 现点对点消息队列或者聊天室等。 3. 解耦、异步、削峰是什么。 解耦 A 系统发送数据到 BCD 三个系统通过接口调用发送。如果 E 系统也要这个数据呢那如 果 C 系统现在不需要了呢 A 系统负责人几乎崩溃 …A 系统跟其它各种乱七八糟的系统严重耦合 A 系统产生一条比较关键的数据很多系统都需要 A 系统将这个数据发送过来。如果使用 MQ A 系统产生一条数据发送到 MQ 里面去哪个系统需要数据自己去 MQ 里面消费。如果新系统需 要数据直接从 MQ 里消费即可如果某个系统不需要这条数据了就取消对 MQ 消息的消费即 可。这样下来 A 系统压根儿不需要去考虑要给谁发送数据不需要维护这个代码也不需要考虑 人家是否调用成功、失败超时等情况。 就是一个系统或者一个模块调用了多个系统或者模块互相之间的调用很复杂维护起来很麻烦。但是其实这个调用是不需要直接同步调用接口的如果用 MQ 给它异步化解耦。 异步 A 系统接收一个请求需要在自己本地写库还需要在 BCD 三个系统写库自己本地写库 要 3ms BCD 三个系统分别写库要 300ms 、 450ms 、 200ms 。最终请求总延时是 3 300 450 200 953ms 接近 1s 用户感觉搞个什么东西慢死了慢死了。用户通过浏览器发起请求。 如果使用 MQ 那么 A 系统连续发送 3 条消息到 MQ 队列中假如耗时 5ms A 系统从接受一个 请求到返回响应给用户总时长是 3 5 8ms 。 削峰 减少高峰时期对服务器压力。 4. 消息队列有什么缺点 缺点有以下几个 1. 系统可用性降低 本来系统运行好好的现在你非要加入个消息队列进去那消息队列挂了你的系统不是呵 呵了。因此系统可用性会降低 2. 系统复杂度提高 加入了消息队列要多考虑很多方面的问题比如一致性问题、如何保证消息不被重复消 费、如何保证消息可靠性传输等。因此需要考虑的东西更多复杂性增大。 3. 一致性问题 A 系统处理完了直接返回成功了人都以为你这个请求就成功了但是问题是要是 BCD 三 个系统那里 BD 两个系统写库成功了结果 C 系统写库失败了咋整你这数据就不一致 了。 所以消息队列实际是一种非常复杂的架构你引入它有很多好处但是也得针对它带来的坏处做各种额外的技术方案和架构来规避掉做好之后你会发现妈呀系统复杂度提升了一个数量级也许是复杂了 10 倍。但是关 键时刻用还是得用的。 5. 你们公司生产环境用的是什么消息中间件 这个首先你可以说下你们公司选用的是什么消息中间件比如用的是 RabbitMQ 然后可以初步给 一些你对不同 MQ 中间件技术的选型分析。 举个例子比如说 ActiveMQ 是老牌的消息中间件国内很多公司过去运用的还是非常广泛的功 能很强大。 但是问题在于没法确认 ActiveMQ 可以支撑互联网公司的高并发、高负载以及高吞吐的复杂场景 在国内互联网公司落地较少。而且使用较多的是一些传统企业用 ActiveMQ 做异步调用和系统解 耦。 然后你可以说说 RabbitMQ 他的好处在于可以支撑高并发、高吞吐、性能很高同时有非常完善 便捷的后台管理界面可以使用。 另外他还支持集群化、高可用部署架构、消息高可靠支持功能较为完善。 而且经过调研国内各大互联网公司落地大规模 RabbitMQ 集群支撑自身业务的 case 较多国内各 种中小型互联网公司使用 RabbitMQ 的实践也比较多。 除此之外 RabbitMQ 的开源社区很活跃较高频率的迭代版本来修复发现的 bug 以及进行各种 优化因此综合考虑过后公司采取了 RabbitMQ 。 但是 RabbitMQ 也有一点缺陷就是他自身是基于 erlang 语言开发的所以导致较为难以分析里面 的源码也较难进行深层次的源码定制和改造毕竟需要较为扎实的 erlang 语言功底才可以。 然后可以聊聊 RocketMQ 是阿里开源的经过阿里的生产环境的超高并发、高吞吐的考验性能 卓越同时还支持分布式事务等特殊场景。 而且 RocketMQ 是基于 Java 语言开发的适合深入阅读源码有需要可以站在源码层面解决线上生 产问题包括源码的二次开发和改造。 另外就是 Kafka 。 Kafka 提供的消息中间件的功能明显较少一些相对上述几款 MQ 中间件要少很 多。 但是 Kafka 的优势在于专为超高吞吐量的实时日志采集、实时数据同步、实时数据计算等场景来设 计。 因此 Kafka 在大数据领域中配合实时计算技术比如 Spark Streaming 、 Storm 、 Flink 使用的较 多。但是在传统的 MQ 中间件使用场景中较少采用。 6. Kafka、ActiveMQ、RabbitMQ、RocketMQ 有什么优缺点 综上各种对比之后有如下建议 一般的业务系统要引入 MQ 最早大家都用 ActiveMQ 但是现在确实大家用的不多了没经过大 规模吞吐量场景的验证社区也不是很活跃所以大家还是算了吧我个人不推荐用这个了 后来大家开始用 RabbitMQ 但是确实 erlang 语言阻止了大量的 Java 工程师去深入研究和掌控 它对公司而言几乎处于不可控的状态但是确实人家是开源的比较稳定的支持活跃度也 高 不过现在确实越来越多的公司会去用 RocketMQ 确实很不错毕竟是阿里出品但社区可能有 突然黄掉的风险目前 RocketMQ 已捐给 Apache 但 GitHub 上的活跃度其实不算高对自己公 司技术实力有绝对自信的推荐用 RocketMQ 否则回去老老实实用 RabbitMQ 吧人家有活跃 的开源社区绝对不会黄。 所以 中小型公司 技术实力较为一般技术挑战不是特别高用 RabbitMQ 是不错的选择 大型 公司 基础架构研发实力较强用 RocketMQ 是很好的选择。 如果是 大数据领域 的实时计算、日志采集等场景用 Kafka 是业内标准的绝对没问题社区活 跃度很高绝对不会黄何况几乎是全世界这个领域的事实性规范。 7. MQ 有哪些常见问题如何解决这些问题 MQ 的常见问题有 消息的顺序问题 消息的重复问题 消息的顺序问题 消息有序指的是可以按照消息的发送顺序来消费。 假如生产者产生了 2 条消息 M1 、 M2 假定 M1 发送到 S1 M2 发送到 S2 如果要保证 M1 先 于 M2 被消费怎么做 解决方案 1. 保证生产者 - MQServer - 消费者是一对一对一的关系 缺陷 并行度就会成为消息系统的瓶颈吞吐量不够 更多的异常处理比如只要消费端出现问题就会导致整个处理流程阻塞我们不得不花 费更多的精力来解决阻塞的问题。 2 通过合理的设计或者将问题分解来规避。 不关注乱序的应用实际大量存在 队列无序并不意味着消息无序 所以从业务层面来保证消息的顺序而不仅仅是依赖于消息系 统是一种更合理的方式。 消息的重复问题 造成消息重复的根本原因是网络不可达。 所以解决这个问题的办法就是绕过这个问题。那么问题就变成了如果消费端收到两条一样的消 息应该怎样处理 消费端处理消息的业务逻辑保持幂等性。只要保持幂等性不管来多少条重复消息最后处理的结 果都一样。保证每条消息都有唯一编号且保证消息处理成功与去重表的日志同时出现。利用一张日 志表来记录已经处理成功的消息的 ID 如果新到的消息 ID 已经在日志表中那么就不再处理这条 消息。 8. 什么是RabbitMQ RabbitMQ 是一款开源的 Erlang 编写的消息中间件 最大的特点就是消费并不需要确保提供方 存在 , 实现了服务之间的高度解耦 可以用它来解耦、异步、削峰。 9. rabbitmq 的使用场景 服务间异步通信 顺序消费 定时任务 请求削峰 10. RabbitMQ基本概念 Broker 简单来说就是消息队列服务器实体 Exchange 消息交换机它指定消息按什么规则路由到哪个队列 Queue 消息队列载体每个消息都会被投入到一个或多个队列 Binding 绑定它的作用就是把 exchange 和 queue 按照路由规则绑定起来 Routing Key 路由关键字 exchange 根据这个关键字进行消息投递 VHost vhost 可以理解为虚拟 broker 即 mini-RabbitMQ server 。其内部均含有独立的 queue 、 exchange 和 binding 等但最最重要的是其拥有独立的权限系统可以做到 vhost 范 围的用户控制。当然从 RabbitMQ 的全局角度 vhost 可以作为不同权限隔离的手段一个典 型的例子就是不同的应用可以跑在不同的 vhost 中。 Producer 消息生产者就是投递消息的程序 Consumer 消息消费者就是接受消息的程序 Channel 消息通道在客户端的每个连接里可建立多个 channel 每个 channel 代表一个会话 任务 由 Exchange 、 Queue 、 RoutingKey 三个才能决定一个从 Exchange 到 Queue 的唯一的线路。 11. RabbitMQ的工作模式
一.simple模式即最简单的收发模式 1. 消息产生消息将消息放入队列 2. 消息的消费者 (consumer) 监听 消息队列 , 如果队列中有消息 , 就消费掉 , 消息被拿走后 , 自动从队列中 删除 ( 隐患 消息可能没有被消费者正确处理 , 已经从队列中消失了 , 造成消息的丢失这里可以设置 成手动的 ack, 但如果设置成手动 ack 处理完后要及时发送 ack 消息给队列否则会造成内存溢 出 ) 。 二.work工作模式(资源的竞争) 1. 消息产生者将消息放入队列消费者可以有多个 , 消费者 1, 消费者 2 同时监听同一个队列 , 消息被消费。 C1 C2 共同争抢当前的消息队列内容 , 谁先拿到谁负责消费消息 ( 隐患高并发情况下 , 默认会产生某 一个消息被多个消费者共同使用 , 可以设置一个开关 (syncronize) 保证一条消息只能被一个消费者 使用 ) 。 三.publish/subscribe发布订阅(共享资源) 1. 每个消费者监听自己的队列 2. 生产者将消息发给 broker 由交换机将消息转发到绑定此交换机的每个队列每个绑定交换机的 队列都将接收到消息。 四.routing路由模式 1. 消息生产者将消息发送给交换机按照路由判断 , 路由是字符串 (info) 当前产生的消息携带路由字符 ( 对象的方法 ), 交换机根据路由的 key, 只能匹配上路由 key 对应的消息队列 , 对应的消费者才能消费消 息 ; 2. 根据业务功能定义路由字符串 3. 从系统的代码逻辑中获取对应的功能字符串 , 将消息任务扔到对应的队列中。 4. 业务场景 :error 通知 ;EXCEPTION; 错误通知的功能 ; 传统意义的错误通知 ; 客户通知 ; 利用 key 路由 , 可 以将程序中的错误封装成消息传入到消息队列中 , 开发者可以自定义消费者 , 实时接收错误 ; 五.topic 主题模式(路由模式的一种) 1. 星号井号代表通配符 2. 星号代表多个单词 , 井号代表一个单词 3. 路由功能添加模糊匹配 4. 消息产生者产生消息 , 把消息交给交换机 5. 交换机根据 key 的规则模糊匹配到对应的队列 , 由队列的监听消费者接收消息消费 在我的理解看来就是 routing 查询的一种模糊匹配就类似 sql 的模糊查询方式 12. 如何保证RabbitMQ消息的顺序性 拆分多个 queue( 消息队列 ) 每个 queue( 消息队列 ) 一个 consumer( 消费者 ) 就是多一些 queue ( 消息队列 ) 而已确实是麻烦点 或者就一个 queue ( 消息队列 ) 但是对应一个 consumer( 消费者 ) 然后这个 consumer( 消费者 ) 内 部用内存队列做排队然后分发给底层不同的 worker 来处理。 13. 消息如何分发 若该队列至少有一个消费者订阅消息将以循环 round-robin 的方式发送给消费者。每条消息 只会分发给一个订阅的消费者前提是消费者能够正常处理消息并进行确认。通过路由可实现多 消费的功能 14. 消息怎么路由 消息提供方 - 路由 - 一至多个队列消息发布到交换器时消息将拥有一个路由键routing key 在消息创建时设定。通过队列路由键可以把队列绑定到交换器上。消息到达交换器后 RabbitMQ 会将消息的路由键与队列的路由键进行匹配针对不同的交换器有不同的路由规则 常用的交换器主要分为一下三种 1. fanout 如果交换器收到消息将会广播到所有绑定的队列上 2. direct 如果路由键完全匹配消息就被投递到相应的队列 3. topic 可以使来自不同源头的消息能够到达同一个队列。 使用 topic 交换器时可以使用通 配符 15. 消息基于什么传输 由于 TCP 连接的创建和销毁开销较大且并发数受系统资源限制会造成性能瓶颈。 RabbitMQ 使用信道的方式来传输数据。信道是建立在真实的 TCP 连接内的虚拟连接且每条 TCP 连接上的 信道数量没有限制。 16. 如何保证消息不被重复消费或者说如何保证消息消费时的幂等性 先说为什么会重复消费正常情况下消费者在消费消息的时候消费完毕后会发送一个确认消 息给消息队列消息队列就知道该消息被消费了就会将该消息从消息队列中删除 但是因为网络传输等等故障确认信息没有传送到消息队列导致消息队列不知道自己已经消费过 该消息了再次将消息分发给其他的消费者。 针对以上问题一个解决思路是保证消息的唯一性就算是多次传输不要让消息的多次消费带 来影响保证消息等幂性 比如在写入消息队列的数据做唯一标示消费消息时根据唯一标识判断是否消费过 假设你有个系统消费一条消息就往数据库里插入一条数据要是你一个消息重复两次你 不就插入了两条这数据不就错了但是你要是消费到第二次的时候自己判断一下是否已 经消费过了若是就直接扔了这样不就保留了一条数据从而保证了数据的正确性。 17. 如何确保消息正确地发送至 RabbitMQ 如何确保消息接收方消费了消息 发送方确认模式 将信道设置成 confifirm 模式发送方确认模式则所有在信道上发布的消息都会被指派一个唯 一的 ID 。 一旦消息被投递到目的队列后或者消息被写入磁盘后可持久化的消息信道会发送一个确认 给生产者包含消息唯一 ID 。 如果 RabbitMQ 发生内部错误从而导致消息丢失会发送一条 nack notacknowledged 未确 认消息。 发送方确认模式是异步的生产者应用程序在等待确认的同时可以继续发送消息。当确认消息到 达生产者应用程序生产者应用程序的回调方法就会被触发来处理确认消息。 接收方确认机制 消费者接收每一条消息后都必须进行确认消息接收和消息确认是两个不同操作。只有消费者确 认了消息 RabbitMQ 才能安全地把消息从队列中删除。 这里并没有用到超时机制 RabbitMQ 仅通过 Consumer 的连接中断来确认是否需要重新发送消 息。也就是说只要连接不中断 RabbitMQ 给了 Consumer 足够长的时间来处理消息。保证数 据的最终一致性 下面罗列几种特殊情况 如果消费者接收到消息在确认之前断开了连接或取消订阅 RabbitMQ 会认为消息没有被分发 然后重新分发给下一个订阅的消费者。可能存在消息重复消费的隐患需要去重 如果消费者接收到消息却没有确认消息连接也未断开则 RabbitMQ 认为该消费者繁忙将不 会给该消费者分发更多的消息。 18. 如何保证RabbitMQ消息的可靠传输 消息不可靠的情况可能是消息丢失劫持等原因 丢失又分为生产者丢失消息、消息列表丢失消息、消费者丢失消息 1. 生产者丢失消息 从生产者弄丢数据这个角度来看 RabbitMQ 提供 transaction 和 confifirm 模式来 确保生产者不丢消息 transaction 机制就是说发送消息前开启事务 channel.txSelect() , 然后发送消息如果发送 过程中出现什么异常事务就会回滚 channel.txRollback() , 如果发送成功则提交事务 channel.txCommit() 。然而这种方式有个缺点吞吐量下降 confifirm 模式用的居多一旦 channel 进入 confifirm 模式所有在该信道上发布的消息都将会被指派 一个唯一的 ID 从 1 开始一旦消息被投递到所有匹配的队列之后 rabbitMQ 就会发送一个 ACK 给生产者包含消息的唯一 ID 这就使得生产者知道消息已经正确 到达目的队列了 如果 rabbitMQ 没能处理该消息则会发送一个 Nack 消息给你你可以进行重试操作。 2. 消息队列丢数据 消息持久化。 处理消息队列丢数据的情况一般是开启持久化磁盘的配置。 这个持久化配置可以和 confifirm 机制配合使用你可以在消息持久化磁盘后再给生产者发送一个 Ack 信号。 这样如果消息持久化磁盘之前 rabbitMQ 阵亡了那么生产者收不到 Ack 信号生产者会自动 重发。 那么如何持久化呢 这里顺便说一下吧其实也很容易就下面两步 1. 将 queue 的持久化标识 durable 设置为 true, 则代表是一个持久的队列 2. 发送消息的时候将 deliveryMode2 这样设置以后即使 rabbitMQ 挂了重启后也能恢复数据 3. 消费者丢失消息 消费者丢数据一般是因为采用了自动确认消息模式改为手动确认消息即可 消费者在收到消息之后处理消息之前会自动回复 RabbitMQ 已收到消息 如果这时处理消息失败就会丢失该消息 解决方案处理消息成功后手动回复确认消息。 19. 为什么不应该对所有的 message 都使用持久化机制 首先必然导致性能的下降因为写磁盘比写 RAM 慢的多 message 的吞吐量可能有 10 倍的差 距。 其次 message 的持久化机制用在 RabbitMQ 的内置 cluster 方案时会出现 “ 坑爹 ” 问题。矛盾点在 于若 message 设置了 persistent 属性但 queue 未设置 durable 属性那么当该 queue 的 owner node 出现异常后在未重建该 queue 前发往该 queue 的 message 将被 blackholed 若 message 设置了 persistent 属性同时 queue 也设置了 durable 属性那么当 queue 的 owner node 异常且无法重启的情况下则该 queue 无法在其他 node 上重建只能等待其 owner node 重启后才能恢复该 queue 的使用而在这段时间内发送给该 queue 的 message 将被 blackholed 。 所以是否要对 message 进行持久化需要综合考虑性能需要以及可能遇到的问题。若想达到 100,000 条 / 秒以上的消息吞吐量单 RabbitMQ 服务器则要么使用其他的方式来确保 message 的可靠 delivery 要么使用非常快速的存储系统以支持全持久化例如使用 SSD 。另 外一种处理原则是仅对关键消息作持久化处理根据业务重要程度且应该保证关键消息的量 不会导致性能瓶颈。 20. 如何保证高可用的RabbitMQ 的集群 RabbitMQ 是比较有代表性的因为是基于主从非分布式做高可用性的我们就以 RabbitMQ 为例子讲解第一种 MQ 的高可用性怎么实现。 RabbitMQ 有三种模式单机模式、普通集群模 式、镜像集群模式。 1. 单机模式 就是 Demo 级别的一般就是你本地启动了玩玩儿的 ? 没人生产用单机模式 2. 普通集群模式 意思就是在多台机器上启动多个 RabbitMQ 实例每个机器启动一个。 你创建的 queue 只会放在一个 RabbitMQ 实例上但是每个实例都同步 queue 的元数据 元数据可以认为是 queue 的一些配置信息通过元数据可以找到 queue 所在实例。 你消费的时候实际上如果连接到了另外一个实例那么那个实例会从 queue 所在实例上拉 取数据过来。这方案主要是提高吞吐量的就是说让集群中多个节点来服务某个 queue 的读 写操作。 3. 镜像集群模式 这种模式才是所谓的 RabbitMQ 的高可用模式。跟普通集群模式不一样的是在镜像集群 模式下你创建的 queue 无论元数据还是 queue 里的消息都会存在于多个实例上就是 说每个 RabbitMQ 节点都有这个 queue 的一个完整镜像包含 queue 的全部数据的意 思。然后每次你写消息到 queue 的时候都会自动把消息同步到多个实例的 queue 上。 RabbitMQ 有很好的管理控制台就是在后台新增一个策略这个策略是镜像集群模式的策 略指定的时候是可以要求数据同步到所有节点的也可以要求同步到指定数量的节点再 次创建 queue 的时候应用这个策略就会自动将数据同步到其他的节点上去了。 这样的好处在于你任何一个机器宕机了没事儿其它机器节点还包含了这个 queue 的完整数据别的 consumer 都可以到其它节点上去消费数据。坏处在于第一这个性能 开销也太大了吧消息需要同步到所有机器上导致网络带宽压力和消耗很重 RabbitMQ 一个 queue 的数据都是放在一个节点里的镜像集群下也是每个节点都放这个 queue 的 完整数据。 21. 如何解决消息队列的延时以及过期失效问题消息队列满了以后该怎么处理有几百万消息持续积压几小时怎么办 消息积压处理办法临时紧急扩容 先修复 consumer 的问题确保其恢复消费速度然后将现有 cnosumer 都停掉。 新建一个 topic partition 是原来的 10 倍临时建立好原先 10 倍的 queue 数量。 然后写一个临时的分发数据的 consumer 程序这个程序部署上去消费积压的数据消费之后不 做耗时的处理直接均匀轮询写入临时建立好的 10 倍数量的 queue 。 接着临时征用 10 倍的机器来部署 consumer 每一批 consumer 消费一个临时 queue 的数据。 这种做法相当于是临时将 queue 资源和 consumer 资源扩大 10 倍以正常的 10 倍速度来消费 数据。 等快速消费完积压数据之后得恢复原先部署的架构重新用原先的 consumer 机器来消费消 息。 MQ 中消息失效假设你用的是 RabbitMQ RabbtiMQ 是可以设置过期时间的也就是 TTL 。如 果消息在 queue 中积压超过一定的时间就会被 RabbitMQ 给清理掉这个数据就没了。那这就是 第二个坑了。这就不是说数据会大量积压在 mq 里而是大量的数据会直接搞丢。我们可以采取 一个方案就是批量重导这个我们之前线上也有类似的场景干过。就是大量积压的时候我们当 时就直接丢弃数据了然后等过了高峰期以后比如大家一起喝咖啡熬夜到晚上 12 点以后用户 都睡觉了。这个时候我们就开始写程序将丢失的那批数据写个临时程序一点一点的查出来 然后重新灌入 mq 里面去把白天丢的数据给他补回来。也只能是这样了。假设 1 万个订单积压 在 mq 里面没有处理其中 1000 个订单都丢了你只能手动写程序把那 1000 个订单给查出 来手动发到 mq 里去再补一次。 mq 消息队列块满了如果消息积压在 mq 里你很长时间都没有处理掉此时导致 mq 都快写满 了咋办这个还有别的办法吗没有谁让你第一个方案执行的太慢了你临时写程序接入数 据来消费消费一个丢弃一个都不要了快速消费掉所有的消息。然后走第二个方案到了晚上 再补数据吧。 22. 设计MQ思路 比如说这个消息队列系统我们从以下几个角度来考虑一下 首先这个 mq 得支持可伸缩性吧就是需要的时候快速扩容就可以增加吞吐量和容量那怎么 搞设计个分布式的系统呗参照一下 kafka 的设计理念 broker - topic - partition 每个 partition 放一个机器就存一部分数据。如果现在资源不够了简单啊给 topic 增加 partition 然后做数据迁移增加机器不就可以存放更多数据提供更高的吞吐量了 其次你得考虑一下这个 mq 的数据要不要落地磁盘吧那肯定要了落磁盘才能保证别进程挂了 数据就丢了。那落磁盘的时候怎么落啊顺序写这样就没有磁盘随机读写的寻址开销磁盘顺序 读写的性能是很高的这就是 kafka 的思路。 其次你考虑一下你的 mq 的可用性啊这个事儿具体参考之前可用性那个环节讲解的 kafka 的 高可用保障机制。多副本 - leader follower - broker 挂了重新选举 leader 即可对外服务。 能不能支持数据 0 丢失啊可以呀有点复杂的。