Skip to content

Commit 8bd48e1

Browse files
💬Generate LLM translations (#1017)
Co-authored-by: github-actions[bot] <41898282+github-actions[bot]@users.noreply.github.com>
1 parent f440c8c commit 8bd48e1

File tree

3 files changed

+119
-118
lines changed

3 files changed

+119
-118
lines changed

docs/cn/guides/40-load-data/02-load-db/flink-cdc.md

Lines changed: 9 additions & 9 deletions
Original file line numberDiff line numberDiff line change
@@ -6,15 +6,15 @@ import FunctionDescription from '@site/src/components/FunctionDescription';
66

77
<FunctionDescription description="引入版本: v1.1.70"/>
88

9-
[Apache Flink](https://github.com/apache/flink) CDC (Change Data Capture) 指的是 Apache Flink 使用基于 SQL 的查询捕获和处理来自各种来源的实时数据变化的能力。CDC 允许您监控和捕获数据库或流系统中发生的数据修改(插入、更新和删除),并实时响应这些变化。您可以利用 [Flink SQL 连接器 for Databend](https://github.com/databendcloud/flink-connector-databend) 将其他数据库中的数据实时加载到 Databend 中。Flink SQL 连接器 for Databend 提供了一个连接器,将 Flink 的流处理能力与 Databend 集成。通过配置此连接器,您可以将来自各种数据库的数据变化捕获为流,并实时加载到 Databend 中进行处理和分析。
9+
[Apache Flink](https://github.com/apache/flink) CDCChange Data Capture,变更数据捕获)指的是 Apache Flink 通过基于 SQL 的查询捕获和处理来自各种来源的实时数据变更的能力。CDC 使您能够监控和捕获数据库或流系统中发生的数据修改(插入、更新和删除),并实时响应这些变更。您可以利用 [Flink SQL 连接器 for Databend](https://github.com/databendcloud/flink-connector-databend) 将其他数据库中的数据实时加载到 Databend 中。Flink SQL 连接器 for Databend 提供了一个连接器,将 Flink 的流处理能力与 Databend 集成。通过配置此连接器,您可以将来自各种数据库的数据变更捕获为流,并实时加载到 Databend 中进行处理和分析。
1010

1111
## 下载与安装连接器
1212

1313
要下载和安装 Flink SQL 连接器 for Databend,请按照以下步骤操作:
1414

1515
1. 下载并设置 Flink:在安装 Flink SQL 连接器 for Databend 之前,请确保您已经在系统上下载并设置了 Flink。您可以从官方网站下载 Flink:https://flink.apache.org/downloads/
1616

17-
2. 下载连接器:访问 GitHub 上 Flink SQL 连接器 for Databend 的发布页面:https://github.com/databendcloud/flink-connector-databend/releases。下载最新版本的连接器(例如,flink-connector-databend-0.0.2.jar)。
17+
2. 下载连接器:访问 GitHub 上 Flink SQL 连接器 for Databend 的发布页面:[https://github.com/databendcloud/flink-connector-databend/releases](https://github.com/databendcloud/flink-connector-databend/releases)。下载最新版本的连接器(例如,flink-connector-databend-0.0.2.jar)。
1818

1919
请注意,您也可以从源代码编译 Flink SQL 连接器 for Databend:
2020

@@ -56,17 +56,17 @@ CREATE TABLE products (id INT NOT NULL, name VARCHAR(255) NOT NULL, description
5656
```
5757

5858
2. 下载 [Flink](https://flink.apache.org/downloads/) 以及以下 SQL 连接器到您的系统:
59-
- Flink SQL 连接器 for Databend:https://github.com/databendcloud/flink-connector-databend/releases
60-
- Flink SQL 连接器 for MySQL:https://repo1.maven.org/maven2/com/ververica/flink-sql-connector-mysql-cdc/2.3.0/flink-sql-connector-mysql-cdc-2.3.0.jar
61-
3. 将两个连接器 JAR 文件移动到 Flink 安装目录中的 _lib_ 文件夹
59+
- Flink SQL 连接器 for Databend:[https://github.com/databendcloud/flink-connector-databend/releases](https://github.com/databendcloud/flink-connector-databend/releases)
60+
- Flink SQL 连接器 for MySQL:[https://repo1.maven.org/maven2/com/ververica/flink-sql-connector-mysql-cdc/2.3.0/flink-sql-connector-mysql-cdc-2.3.0.jar](https://repo1.maven.org/maven2/com/ververica/flink-sql-connector-mysql-cdc/2.3.0/flink-sql-connector-mysql-cdc-2.3.0.jar)
61+
3. 将两个连接器的 JAR 文件移动到 Flink 安装目录的 _lib_ 文件夹中
6262
4. 启动 Flink:
6363

6464
```shell
6565
cd flink-16.0
6666
./bin/start-cluster.sh
6767
```
6868

69-
您现在可以在浏览器中访问 http://localhost:8081 打开 Apache Flink 仪表板:
69+
现在,如果您在浏览器中访问 http://localhost:8081,可以打开 Apache Flink 仪表板:
7070

7171
![Alt text](/img/load/cdc-dashboard.png)
7272

@@ -118,7 +118,7 @@ cd flink-16.0
118118
Welcome! Enter 'HELP;' to list all available commands. 'QUIT;' to exit.
119119
```
120120

121-
6. 将检查点间隔设置为 3 秒,并在 Flink SQL 客户端中使用 MySQL 和 Databend 连接器创建相应的表。有关可用的连接参数,请参阅 https://github.com/databendcloud/flink-connector-databend#connector-options:
121+
6. 将检查点间隔设置为 3 秒,并在 Flink SQL 客户端中使用 MySQL 和 Databend 连接器创建相应的表。有关可用的连接参数,请参阅 [https://github.com/databendcloud/flink-connector-databend#connector-options](https://github.com/databendcloud/flink-connector-databend#connector-options)
122122

123123
```sql
124124
Flink SQL> SET execution.checkpointing.interval = 3s;
@@ -159,8 +159,8 @@ Flink SQL> INSERT INTO databend_products SELECT * FROM mysql_products;
159159
Job ID: b14645f34937c7cf3672ffba35733734
160160
```
161161

162-
您现在可以在 Apache Flink 仪表板中看到一个正在运行的作业:
162+
现在,您可以在 Apache Flink 仪表板中看到一个正在运行的作业:
163163

164164
![Alt text](/img/load/cdc-job.png)
165165

166-
您已经准备就绪!如果您查询 Databend 中的 _products_ 表,您将看到 MySQL 中的数据已成功同步。您可以自由地在 MySQL 中执行插入、更新或删除操作,并观察到 Databend 中相应的变化
166+
一切就绪!如果您查询 Databend 中的 _products_ 表,您将看到 MySQL 中的数据已成功同步。您可以自由地在 MySQL 中执行插入、更新或删除操作,并观察到相应的变更也会反映在 Databend

docs/cn/guides/90-community/02-rfcs/20220425-new_sql_logic_test_framework.md

Lines changed: 22 additions & 22 deletions
Original file line numberDiff line numberDiff line change
@@ -1,68 +1,68 @@
11
---
2-
title: 新SQL逻辑测试框架
3-
description: 新SQL逻辑测试框架设计RFC
2+
title: 新 SQL 逻辑测试框架
3+
description: 新 SQL 逻辑测试框架设计 RFC
44
---
55

66
## 背景
77

88
基本上所有健壮的数据库系统都需要在以下范围内进行测试:
99

1010
1. 合理的单元测试高覆盖率。
11-
2. 大量查询逻辑测试**主要讨论**
12-
3. 分布式系统相关行为测试
13-
4. 性能测试https://benchmark.databend.com/clickbench/release/hits.html
11+
2. 大量的查询逻辑测试。**主要讨论**
12+
3. 分布式系统相关的行为测试
13+
4. 性能测试 [https://benchmark.databend.com/clickbench/release/hits.html](https://benchmark.databend.com/clickbench/release/hits.html)
1414

1515
目前,我们的测试框架基于以下设计:
1616

17-
我们主要采用bendsql二进制客户端来测试查询逻辑,并在驱动兼容性部分覆盖了一些基本测试。
17+
我们主要采用 bendsql 二进制客户端来测试查询逻辑,并在驱动兼容性部分覆盖了一些基本测试。
1818

1919
然而,当前的逻辑测试存在一些不足之处,需要改进:
2020

21-
1. 将二进制输出与结果文件进行比较无法扩展到其他协议。例如,`http_handler`有JSON输出格式,我们应该有指定的结果来覆盖这种情况。
22-
2. 目前,我们测试的SQL文件同时覆盖多个语句,结果文件无法显示每个语句的结果。
23-
3. 目前,我们没有为SQL逻辑测试提供错误处理
24-
4. 我们无法扩展SQL逻辑语句以包含排序、重试和其他逻辑
21+
1. 将二进制输出与结果文件进行比较无法扩展到其他协议。例如,`http_handler` 有 JSON 输出格式,我们应该有指定的结果来覆盖这种情况。
22+
2. 目前,我们测试的 SQL 文件同时包含多个语句,结果文件无法显示每个语句的结果。
23+
3. 目前,我们没有为 SQL 逻辑测试提供错误处理
24+
4. 我们无法扩展带有排序、重试和其他逻辑的 SQL 逻辑语句
2525

2626
## 详细设计
2727

28-
测试输入是SQL逻辑测试(https://www.sqlite.org/sqllogictest/)的扩展版本。
28+
测试输入是 SQL 逻辑测试的扩展版本 [https://www.sqlite.org/sqllogictest/](https://www.sqlite.org/sqllogictest/)
2929

30-
该文件以称为测试脚本的领域特定语言表示,并支持不产生输出的SQL语句或故意产生错误的语句
30+
该文件以一种称为测试脚本的领域特定语言表示,并支持不产生输出的 SQL 语句或故意产生错误的语句
3131

3232
语句规范可以分为以下字段:
3333

34-
`statement ok`SQL语句正确且预期输出成功
34+
`statement ok`SQL 语句正确且预期输出成功
3535

36-
例如:以下SQL将成功且无输出
36+
例如:以下 SQL 语句将成功且无输出
3737

3838
```text
3939
statement ok
4040
create database if not exists db1;
4141
```
4242

43-
`statement error <错误正则表达式>`SQL语句输出预期为错误
43+
`statement error <错误正则表达式>`SQL 语句预期输出错误
4444

45-
例如:以下SQL将产生错误消息`table db1.tbl1 does not exist`
45+
例如:以下 SQL 语句将产生错误消息 `table db1.tbl1 does not exist`
4646

4747
```text
4848
statement error table db1.tbl1 does not exist
4949
create table db1.tbl1 (id int);
5050
```
5151

52-
`query <期望的查询模式类型> <选项> <标签>`SQL语句输出预期为成功且带有期望的结果
52+
`query <期望的查询模式类型> <选项> <标签>`SQL 语句预期输出成功且带有期望的结果
5353

54-
`期望的查询模式类型`表示查询结果的模式类型。文档见https://github.com/gregrahn/sqllogictest/blob/master/about.wiki#test-script-format
54+
`期望的查询模式类型` 表示查询结果的模式类型。文档参见 https://github.com/gregrahn/sqllogictest/blob/master/about.wiki#test-script-format
5555

5656
- `I` 表示整数
5757
- `F` 表示浮点数
5858
- `R` 表示十进制
5959
- `T` 表示文本或变体(JSON、时间戳等)。
6060
- `B` 表示布尔值
6161

62-
`选项`是查询的选项列表,如排序、重试等。
63-
`标签`允许查询首先匹配给定套件标签的结果,从而解决结果兼容性问题
62+
`选项` 是查询的选项列表,如排序、重试等。
63+
`标签` 允许查询首先匹配给定的套件标签结果,从而解决结果兼容性问题
6464

65-
例如:以下SQL将成功且输出表格
65+
例如:以下 SQL 语句将成功且输出表格
6666

6767
```text
6868
query III
@@ -80,7 +80,7 @@ select number, number + 1, number + 999 from numbers(10);
8080
9 10 1008
8181
```
8282

83-
以下SQL配置首先匹配mysql标签,然后是默认标签
83+
以下 SQL 配置首先匹配 mysql 标签,然后是默认标签
8484

8585
```text
8686
query III label(mysql)

0 commit comments

Comments
 (0)