基于 Helm Charts 实现的 TiDB 集群备份与恢复

    TiDB Operator 1.1 及以上版本推荐使用基于 CustomResourceDefinition (CRD) 实现的备份恢复方式实现:

    Kubernetes 上的 TiDB 集群支持两种备份策略:

    • (定时执行或 Ad-hoc):使用 获取集群的逻辑备份;
    • :使用 TiDB Binlog 将 TiDB 集群的数据实时复制到其它数据库中或实时获得增量数据备份;

    目前,Kubernetes 上的 TiDB 集群只对 mydumper 获取的全量备份数据提供自动化的数据恢复操作。恢复 TiDB-Binlog 获取的增量数据需要手动进行。

    全量备份使用 mydumper 来获取 TiDB 集群的逻辑备份数据。全量备份任务会创建一个 PVC () 来存储数据。

    默认配置下,备份任务使用 PV (Persistent Volume) 来存储备份数据。你也可以通过修改配置将备份数据存储到 ,Ceph Object Storage 或 中,在这种情况下,数据在上传到对象存储前,会临时存储在 PV 中。参考 Kubernetes 上的 TiDB 集群备份配置 了解所有的配置选项。

    你可以配置一个定时执行的全量备份任务,也可以临时执行一个全量备份任务。

    定时全量备份是一个与 TiDB 集群一同创建的定时任务,它会像 crontab 任务那样周期性地运行。

    你可以修改 TiDB 集群的 values.yaml 文件来配置定时全量备份:

    1. scheduledBackup.create 设置为 true
    2. scheduledBackup.storageClassName 设置为用于存储数据的 PV 的 storageClass

    3. 创建一个包含数据库用户名和密码的 Kubernetes 该用户必须拥有数据备份所需的数据库相关权限,同时,将 scheduledBackup.secretName 设置为该 Secret 的名字(默认为 backup-secret):

    4. 通过 helm install 创建一个配置了定时全量备份的 TiDB 集群,针对现有集群,则使用 helm upgrade 为集群打开定时全量备份:

      1. helm upgrade ${release_name} pingcap/tidb-cluster -f values.yaml --version=${version}

    Ad-hoc 全量备份封装在 这个 Helm chart 中。根据 values.yaml 文件中的 mode 配置,该 chart 可以执行全量备份或数据恢复。我们会在数据恢复一节中描述如何执行数据恢复。

    你可以通过下面的步骤执行一次 Ad-hoc 全量备份:

    1. 修改 values.yaml

      • clusterName 设置为目标 TiDB 集群名字;
      • mode 设置为 backup
      • storage.className 设置为用于存储数据的 PV 的 storageClass
    2. 创建一个包含数据库用户名和密码的 Kubernetes ,该用户必须拥有数据备份所需的数据库相关权限,同时,将 values.yaml 中的 secretName 设置为该 Secret 的名字(默认为 backup-secret):

      1. kubectl create secret generic backup-secret -n ${namespace} --from-literal=user=${user} --from-literal=password=${password}
    3. 使用下面的命令执行一次 Ad-hoc 全量备份:

    对于存储在 PV 中的备份,你可以使用下面的命令进行查看:

    1. kubectl get pvc -n ${namespace} -l app.kubernetes.io/component=backup,pingcap.com/backup-cluster-name=${cluster_name}

    使用 pingcap/tidb-backup 这个 Helm chart 进行数据恢复,步骤如下:

    1. 修改 values.yaml
      • 将 设置为目标 TiDB 集群名;
      • mode 设置为 restore
      • name 设置为用于恢复的备份名字(你可以参考查看备份来寻找可用的备份数据)。假如备份数据存储在 ,Ceph Object Storage 或 中,你必须保证这些存储的相关配置与执行全量备份时一致。
    2. 创建一个包含数据库用户名和密码的 Kubernetes ,该用户必须拥有数据备份所需的数据库相关权限,同时,将 values.yaml 中的 secretName 设置为该 Secret 的名字(默认为 backup-secret,假如你在全量备份时已经创建了该 Secret,则可以跳过这步):

      1. kubectl create secret generic backup-secret -n ${namespace} --from-literal=user=${user} --from-literal=password=${password}
    3. 恢复数据:

    增量备份使用 工具从 TiDB 集群收集 Binlog,并提供实时备份和向其它数据库的实时同步能力。

    有关 Kubernetes 上运维 TiDB Binlog 的详细指南,可参阅 TiDB Binlog

    缩容 Pump 需要先将单个 Pump 节点从集群中下线,然后运行 helm upgrade 命令将对应的 Pump Pod 删除,并对每个节点重复上述步骤。

    1. 下线 Pump 节点:

      假设现在有 3 个 Pump 节点,我们需要下线第 3 个 Pump 节点,将 ${ordinal_id} 替换成 2,操作方式如下(${version} 为当前 TiDB 的版本)。

      1. kubectl run offline-pump-${ordinal_id} --image=pingcap/tidb-binlog:${version} --namespace=${namespace} --restart=OnFailure -- /binlogctl -pd-urls=http://${release_name}-pd:2379 -cmd offline-pump -node-id ${release_name}-pump-${ordinal_id}:8250

      然后查看 Pump 的日志输出,输出 pump offline, please delete my pod 后即可确认该节点已经成功下线。

      1. 删除对应的 Pump Pod:

        修改 values.yaml 文件中 binlog.pump.replicas2,然后执行如下命令来删除 Pump Pod: