Backup & Restore 常见问题

    如果遇到未包含在此文档且无法解决的问题,可以在 AskTUG 社区中提问。

    在恢复的时候,每个节点都必须能够访问到所有的备份文件(SST files),默认情况下,假如使用 local storage,备份文件会分散在各个节点中,此时是无法直接恢复的,必须将每个 TiKV 节点的备份文件拷贝到其它所有 TiKV 节点才能恢复。

    建议在备份的时候挂载一块 NFS 网盘作为备份盘,详见。

    BR 备份时,对集群影响多大?

    使用 sysbencholtp_read_only 场景全速备份到非服务盘,对集群的影响依照表结构的不同,对集群 QPS 的影响在 15%~25% 之间。

    如果需要控制备份带来的影响,可以使用 --ratelimit 参数限速。

    BR 会备份系统表吗?在数据恢复的时候,这些系统表会冲突吗?

    在 v5.1.0 之前,BR 备份时会过滤掉系统库 mysql.* 的表数据。自 v5.1.0 起,BR 默认备份集群内的全部数据,包括系统库 mysql.* 中的数据。但由于恢复 mysql.* 中系统表数据的技术实现尚不完善,因此 BR 默认不恢复系统库 mysql 中的表数据。详情参阅备份和恢复 mysql 系统库下的表数据(实验特性)

    因为这些系统库根本不可能存在于备份中,恢复的时候自然不可能发生冲突。

    BR 遇到 Permission denied 或者 No such file or directory 错误,即使用 root 运行 BR 也无法解决,该如何处理?

    需要确认 TiKV 是否有访问备份目录的权限。如果是备份,确认是否有写权限;如果是恢复,确认是否有读权限。

    在进行备份操作时,如果使用本地磁盘或 NFS 作为存储介质,请确保执行 BR 的用户和启动 TiKV 的用户相同(如果 BR 和 TiKV 位于不同的机器,则需要用户的 UID 相同),否则很备份可能会出现该问题。

    使用 root 运行 BR 仍旧有可能会因为磁盘权限而失败,因为备份文件 (SST) 的保存是由 TiKV 执行的。

    你可以按照如下步骤进行权限检查:

    1. 执行 Linux 原生的进程查询命令

      命令输出示例如下:

      1. tidb_ouo 9235 10.9 3.8 2019248 622776 ? Ssl 08:28 1:12 bin/tikv-server --addr 0.0.0.0:20162 --advertise-addr 172.16.6.118:20162 --status-addr 0.0.0.0:20188 --advertise-status-addr 172.16.6.118:20188 --pd 172.16.6.118:2379 --data-dir /home/user1/tidb-data/tikv-20162 --config conf/tikv.toml --log-file /home/user1/tidb-deploy/tikv-20162/log/tikv.log
      2. tidb_ouo 9236 9.8 3.8 2048940 631136 ? Ssl 08:28 1:05 bin/tikv-server --addr 0.0.0.0:20161 --advertise-addr 172.16.6.118:20161 --status-addr 0.0.0.0:20189 --advertise-status-addr 172.16.6.118:20189 --pd 172.16.6.118:2379 --data-dir /home/user1/tidb-data/tikv-20161 --config conf/tikv.toml --log-file /home/user1/tidb-deploy/tikv-20161/log/tikv.log

      或者执行以下命令:

      命令输出示例如下:

      1. tidb_ouo
    2. 使用 TiUP 命令查询集群的启动信息

      命令输出示例如下:

      1. Starting component `cluster`: /root/.tiup/components/cluster/v1.5.2/tiup-cluster list
      2. Name User Version Path PrivateKey
      3. ---- ---- ------- ---- ----------
      4. tidb_cluster tidb_ouo v5.0.2 /root/.tiup/storage/cluster/clusters/tidb_cluster /root/.tiup/storage/cluster/clusters/tidb_cluster/ssh/id_rsa
    3. 检查备份目录的权限,例如 backup 目录是备份数据存储目录。命令示例如下

      命令输出示例如下:

      1. [root@Copy-of-VM-EE-CentOS76-v1 user1]# ls -al backup
      2. total 0
      3. drwxr-xr-x 2 root root 6 Jun 28 17:48 .
      4. drwxr-xr-x 11 root root 310 Jul 4 10:35 ..

      由以上命令输出结果可知,tikv-server 实例由用户 tidb_ouo 启动,但用户账号 tidb_ouo 没有 backup 目录的写入权限, 所以备份失败。

    BR 遇到错误信息 Io(Os...),该如何处理?

    这类问题几乎都是 TiKV 在写盘的时候遇到的系统调用错误。例如遇到 Io(Os { code: 13, kind: PermissionDenied...}) 或者 Io(Os { code: 2, kind: NotFound...}) 这类错误信息,首先检查备份目录的挂载方式和文件系统,试试看备份到其它文件夹或者其它硬盘。

    目前已知备份到 samba 搭建的网盘时可能会遇到 Code: 22(invalid argument) 错误。

    该问题一般是因为使用 BR 恢复数据的时候,恢复集群的性能不足导致的。可以从恢复集群的监控或者 TiKV 日志来辅助确认。

    使用 local storage 的时候,BR 备份的文件会存在哪里?

    在使用 local storage 的时候,会在运行 BR 的节点生成 backupmeta,在各个 Region 的 Leader 节点生成备份文件。

    备份数据有多大,备份会有副本吗?

    备份的时候仅仅在每个 Region 的 Leader 处生成该 Region 的备份文件。因此备份的大小等于数据大小,不会有多余的副本数据。所以最终的总大小大约是 TiKV 数据总量除以副本数。

    但是假如想要从本地恢复数据,因为每个 TiKV 都必须要能访问到所有备份文件,在最终恢复的时候会有等同于恢复时 TiKV 节点数量的副本。

    BR 恢复到 TiCDC / Drainer 的上游集群时,要注意些什么?

    • BR 恢复的数据无法被同步到下游,因为 BR 直接导入 SST 文件,而下游集群目前没有办法获得上游的 SST 文件。

    TiCDC 可以通过配置项中的 filter.rules 项完成,Drainer 则可以通过 完成。

    BR 会备份表的 SHARD_ROW_ID_BITSPRE_SPLIT_REGIONS 信息吗?恢复出来的表会有多个 Region 吗?

    会的,BR 会备份表的 信息,并恢复成多个 Region。

    如果 BR 备份的集群有 TiFlash,恢复时会将 TiFlash 信息存进 TableInfo。此时如果恢复的集群没有 TiFlash,则会报该错误。计划在未来版本中修复该错误。

    BR 是否支持就地 (in-place) 全量恢复某个历史备份?

    不支持。

    在 Kubernetes 环境中如何使用 BR 进行增量备份?

    可以使用 kubectl 执行 kubectl -n ${namespace} get bk ${name} 以获得上次 BR 备份 commitTs 字段,该字段的内容可作为 --lastbackupts 使用。

    BR backupTS 如何转化成 Unix 时间?

    BR backupTS 默认是在备份开始前,从 PD 获取到的最新时间戳。可以使用 pd-ctl tso timestamp 来解析该时间戳,以获得精确值,也可以通过 backupTS >> 18 来快速获取估计值。

    BR 恢复存档后是否需要对表执行 ANALYZE 以更新 TiDB 在表和索引上留下的统计信息?

    BR 不会备份统计信息(v4.0.9 除外)。所以在恢复存档后需要手动执行 ANALYZE TABLE 或等待 TiDB 自动进行 ANALYZE

    BR v4.0.9 备份统计信息使 BR 消耗过多内存,为保证备份过程正常,从 v4.0.10 开始默认关闭备份统计信息的功能。