Skip to content

Commit 45ab02c

Browse files
authored
docs: update doc to fix doocs#128
* close doocs#128 * thanks @hhqiwei
1 parent 0fa8278 commit 45ab02c

File tree

1 file changed

+2
-2
lines changed

1 file changed

+2
-2
lines changed

docs/high-concurrency/how-to-ensure-the-order-of-messages.md

+2-2
Original file line numberDiff line numberDiff line change
@@ -7,7 +7,7 @@
77
## 面试题剖析
88
我举个例子,我们以前做过一个 mysql `binlog` 同步的系统,压力还是非常大的,日同步数据要达到上亿,就是说数据从一个 mysql 库原封不动地同步到另一个 mysql 库里面去(mysql -> mysql)。常见的一点在于说比如大数据 team,就需要同步一个 mysql 库过来,对公司的业务系统的数据做各种复杂的操作。
99

10-
你在 mysql 里增删改一条数据,对应出来了增删改 3 条 `binlog` 日志,接着这三条 `binlog` 发送到 MQ 里面,再消费出来依次执行,起码得保证人家是按照顺序来的吧?不然本来是:增加、修改、删除;你楞是换了顺序给执行成删除、修改、增加,不全错了么。
10+
你在 mysql 里增删改一条数据,对应出来了增删改 3 条 `binlog` 日志,接着这三条 `binlog` 发送到 MQ 里面,再消费出来依次执行,起码得保证人家是按照顺序来的吧?不然本来是:增加、修改、删除;你愣是换了顺序给执行成删除、修改、增加,不全错了么。
1111

1212
本来这个数据同步过来,应该最后这个数据被删除了;结果你搞错了这个顺序,最后这个数据保留下来了,数据同步就出错了。
1313

@@ -29,4 +29,4 @@
2929
- 一个 topic,一个 partition,一个 consumer,内部单线程消费,单线程吞吐量太低,一般不会用这个。
3030
- 写 N 个内存 queue,具有相同 key 的数据都到同一个内存 queue;然后对于 N 个线程,每个线程分别消费一个内存 queue 即可,这样就能保证顺序性。
3131

32-
![kafka-order-02](/images/kafka-order-02.png)
32+
![kafka-order-02](/images/kafka-order-02.png)

0 commit comments

Comments
 (0)