大家好,我是君哥。
我們使用 Kafka 的時(shí)候,怎樣能保證不丟失消息呢?今天來聊一聊這個(gè)話題。
首先我們看一下 Kafka 的架構(gòu)圖,
Producer 異步發(fā)送是丟失消息比較多的場(chǎng)景,Kafka 異步發(fā)送的代碼如下:
ProducerRecord<byte[],byte[]> record = new ProducerRecord<byte[],byte[]>("the-topic", key, value);RecordMetadata metadata = producer.send(record).get();
Producer 發(fā)送消息后,不用等待發(fā)送結(jié)果,就可以繼續(xù)執(zhí)行后面的邏輯。如果發(fā)送失敗,就會(huì)丟失消息。
Kafka 提供了回調(diào)方法,可以同步等待發(fā)送結(jié)果,這樣降低了發(fā)送效率,但可以對(duì)發(fā)送失敗的場(chǎng)景進(jìn)行處理,比如重新發(fā)送。
ProducerRecord<byte[],byte[]> record = new ProducerRecord<byte[],byte[]>("the-topic", key, value);producer.send(record, (Callback) (metadata, e) -> { if(e != null) { e.printStackTrace(); } else { System.out.println("The offset of the record we just sent is: " + metadata.offset()); } });
從文章開頭的架構(gòu)圖中可以看到,Broker Leader 節(jié)點(diǎn)收到消息后,會(huì)同步給 Follower 節(jié)點(diǎn)。
在 Producer 端有一個(gè) acks 配置,說明如下 :
注意:acks=all/-1 是最高安全級(jí)別,可以配合 min.insync.replicas 參數(shù)使用,當(dāng) acks=all/-1 時(shí),min.insync.replicas 表示 ISR 列表中最小寫入消息成功的副本數(shù)。
如下圖,cks=all/-1,當(dāng) min.insync.replicas=2 時(shí)。
如果 ISR 列表中有【Broker0、Broker1】,即使 Broker2 寫入消息失敗,也會(huì)給 Producer 返回成功。
如果 ISR 列表中只有【Broker0】,則無論如何都不會(huì)給 Producer 返回成功。
如果 ISR 列表中有【Broker0、Broker1、Broker2】,則 3 個(gè) Broker 都寫成功才會(huì)給 Producer 返回成功。
如果配置 retries=0,Producer 發(fā)送消息失敗后是不會(huì)進(jìn)行重試的,要保證消息不丟失,可以增加 retries 的配置值,避免因?yàn)榫W(wǎng)絡(luò)抖動(dòng)而造成的發(fā)送失敗。
Kafka Broker 有一個(gè)參數(shù):unclean.leader.election.enable,這個(gè)參數(shù)值說明如下:
如果設(shè)置為 true,也是會(huì)丟失消息的,看下圖:
如果 Leader 和 Follower1 都掛了,這時(shí)就要考慮是否讓 Follower2 參加競(jìng)選,把 unclean.leader.election.enable 參數(shù)值設(shè)置為 true,則 Follower2 也可以競(jìng)選 Leader,并且作為唯一存活節(jié)點(diǎn)成功競(jìng)選為 Leader,但是它并沒有同步到偏移量為 3、4、5 的消息,
而之前的 Leader 上線后,成為了 Follower,因?yàn)?Follower 的 LEO(Log End Offset)不能大于 Leader,所以之前偏移量為 3、4、5 的消息就被丟棄了。如下圖:
所以,要保證消息不丟失,unclean.leader.election.enable 這個(gè)參數(shù)值要設(shè)置為 false。
為了提升性能,Kafka 使用 Page Cache,先將消息寫入 Page Cache,采用了異步刷盤機(jī)制去把消息保存到磁盤。如果刷盤之前,Broker Leader 節(jié)點(diǎn)宕機(jī)了,并且沒有 Follower 節(jié)點(diǎn)可以切換成 Leader,則 Leader 重啟后這部分未刷盤的消息就會(huì)丟失。
這種場(chǎng)景下多設(shè)置副本數(shù)是一個(gè)好的選擇,通常的做法是設(shè)置 replication.factor >= 3,這樣每個(gè) Partition 就會(huì)有 3 個(gè)以上 Broker 副本來保存消息,同時(shí)宕機(jī)的概率很低。
同時(shí)可以配合場(chǎng)景二中的參數(shù) min.insync.replicas > 1(不建議使用默認(rèn)值 1),表示消息至少要被成功寫入到 2 個(gè) Broker 副本才算是發(fā)送成功。
注意:參數(shù)配置要保證 replication.factor > min.insync.replicas,通常設(shè)置成 replication.factor = min.insync.replicas + 1。如果這 2 個(gè)參數(shù)設(shè)置成相等,則只要有一個(gè) Broker 節(jié)點(diǎn)宕機(jī),Broker 就無法給 Producer 返回發(fā)送成功,系統(tǒng)可用性降低。
如果消費(fèi)端采用多線程并發(fā)消費(fèi),很容易因?yàn)椴l(fā)更新 Offset 導(dǎo)致消費(fèi)失敗。看下圖:
線程 1 拉取 3 條消息把 Offset 更新成 3,線程 2 把 Offset 更新成 6,線程 3 把 Offset 更新成 9。這時(shí)如果線程 2 消費(fèi)失敗了,想要重新消費(fèi),但是 Offset 已經(jīng)更新到了 9,不能拉取到 Offset 9 以前的消息了。
所以,消費(fèi)者并發(fā)消費(fèi)很可能會(huì)造成消息丟失,如果對(duì)消息丟失很敏感,最好使用單線程來進(jìn)行消費(fèi)。
如果采用多線程,可以把 enable.auto.commit 設(shè)置為 false,這樣相當(dāng)于每次消費(fèi)完后手動(dòng)更新 Offset。不過這又會(huì)帶來重復(fù)消費(fèi)問題,比如上面的例子,如果線程 2 消費(fèi)失敗了,則手動(dòng)把 Offset 更新成 3,線程 3 消費(fèi)成功后,再次拉取,還會(huì)拉取到 6、7、8 這三條數(shù)據(jù)。因此消費(fèi)端需要做好冪等處理。
本文介紹了 Kafka 丟失消息的六個(gè)場(chǎng)景,使用 Kafka 時(shí)需要根據(jù)實(shí)際情況制定解決方案,希望本文介紹的場(chǎng)能夠?qū)δ阌兴鶐椭?span style="display:none">Kcd28資訊網(wǎng)——每日最新資訊28at.com
本文鏈接:http://www.tebozhan.com/showinfo-26-82738-0.html注意:Kafka 的這六個(gè)場(chǎng)景會(huì)丟失消息!
聲明:本網(wǎng)頁內(nèi)容旨在傳播知識(shí),若有侵權(quán)等問題請(qǐng)及時(shí)與本網(wǎng)聯(lián)系,我們將在第一時(shí)間刪除處理。郵件:2376512515@qq.com