使用 TiDB Ansible 部署 TiDB 集群
Ansible 是一款自动化运维工具,TiDB Ansible 是 PingCAP 基于 Ansible playbook 功能编写的集群部署工具。本文档介绍如何使用 TiDB Ansible 部署一个完整的 TiDB 集群。
本部署工具可以通过配置文件设置集群拓扑,完成以下各项运维工作:
- 初始化操作系统参数
- 部署 TiDB 集群(包括 PD、TiDB、TiKV 等组件和监控组件)
- 关闭集群
- 集群扩容缩容
- 集群开启 binlog
- 销毁集群
部署目标机器若干
- 建议 4 台及以上,TiKV 至少 3 实例,且与 TiDB、PD 模块不位于同一主机,详见。
- 目前支持在 x86_64 (AMD64) 和 ARM64 两种架构上部署 TiDB 集群。在 AMD64 架构下,建议使用 CentOS 7.3 及以上版本 Linux 操作系统;在 ARM 架构下,建议使用 CentOS 7.6 1810 版本 Linux 操作系统。
机器之间内网互通。
注意:
使用 TiDB Ansible 方式部署时,TiKV 及 PD 节点数据目录所在磁盘请使用 SSD 磁盘,否则无法通过检测。如果仅验证功能,建议使用 Docker Compose 部署方案单机进行测试。
部署中控机一台
- 中控机可以是部署目标机器中的某一台。
- 推荐安装 CentOS 7.3 及以上版本 Linux 操作系统(默认包含 Python 2.7)。
- 该机器需开放外网访问,用于下载 TiDB 及相关软件安装包。
第 1 步:在中控机上安装系统依赖包
以 root
用户登录中控机,然后根据操作系统类型执行相应的安装命令。
如果中控机使用的是 CentOS 7 系统,执行以下命令:
如果中控机使用的是 Ubuntu 系统,执行以下命令:
apt-get -y install git curl sshpass python-pip
第 2 步:在中控机上创建 tidb
用户,并生成 SSH key
以 root
用户登录中控机,执行以下步骤:
创建
tidb
用户。useradd -m -d /home/tidb tidb
设置
tidb
用户密码。passwd tidb
配置
tidb
用户 sudo 免密码,将tidb ALL=(ALL) NOPASSWD: ALL
添加到文件末尾即可。visudo
tidb ALL=(ALL) NOPASSWD: ALL
生成 SSH key。
执行
su
命令,从root
用户切换到tidb
用户下。su - tidb
创建
tidb
用户 SSH key,提示Enter passphrase
时直接回车即可。执行成功后,SSH 私钥文件为/home/tidb/.ssh/id_rsa
,SSH 公钥文件为/home/tidb/.ssh/id_rsa.pub
。ssh-keygen -t rsa
Generating public/private rsa key pair.
Enter file in which to save the key (/home/tidb/.ssh/id_rsa):
Created directory '/home/tidb/.ssh'.
Enter passphrase (empty for no passphrase):
Enter same passphrase again:
Your identification has been saved in /home/tidb/.ssh/id_rsa.
Your public key has been saved in /home/tidb/.ssh/id_rsa.pub.
The key fingerprint is:
SHA256:eIBykszR1KyECA/h0d7PRKz4fhAeli7IrVphhte7/So tidb@172.16.10.49
The key's randomart image is:
+---[RSA 2048]----+
|=+o+.o. |
|o=o+o.oo |
| .O.=.= |
| . B.B + |
|o B * B S |
| * + * + |
| o + . |
| o E+ . |
|o ..+o. |
+----[SHA256]-----+
第 3 步:在中控机器上下载 TiDB Ansible
以 tidb
用户登录中控机并进入 /home/tidb
目录。使用以下命令从 TiDB Ansible 项目上下载 TiDB Ansible 4.0 ,默认的文件夹名称为 tidb-ansible
。
git clone -b $tag https://github.com/pingcap/tidb-ansible.git
注意:
$tag
替换为选定的 TAG 版本的值,例如v4.0.0-beta.2
。- 部署和升级 TiDB 集群需使用对应的 tidb-ansible 版本,通过改
inventory.ini
文件中的版本来混用可能会产生一些错误。- 请务必按文档操作,将
tidb-ansible
下载到/home/tidb
目录下,权限为tidb
用户,不要下载到/root
下,否则会遇到权限问题。
以 tidb
用户登录中控机,请务必按以下方式通过 pip
安装 TiDB Ansible 及其相关依赖的指定版本,否则会有兼容问题。目前,TiDB Ansible release-4.0 版本兼容 Ansible 2.5 ~ 2.7.11 (2.5 ≤ Ansible ≤ 2.7.11)。
在中控机器上安装 TiDB Ansible 及其依赖。
cd /home/tidb/tidb-ansible && \
sudo pip install -r ./requirements.txt
Ansible 及相关依赖的版本信息记录在
tidb-ansible/requirements.txt
文件中。查看 Ansible 的版本。
ansible --version
ansible 2.7.11
第 5 步:在中控机上配置部署机器 SSH 互信及 sudo 规则
以 tidb
用户登录中控机,然后执行以下步骤:
将你的部署目标机器 IP 添加到
hosts.ini
文件的[servers]
区块下。cd /home/tidb/tidb-ansible && \
vi hosts.ini
[servers]
172.16.10.1
172.16.10.2
172.16.10.3
172.16.10.4
172.16.10.5
172.16.10.6
[all:vars]
username = tidb
执行以下命令,按提示输入部署目标机器的
root
用户密码。ansible-playbook -i hosts.ini create_users.yml -u root -k
该步骤将在部署目标机器上创建
tidb
用户,并配置 sudo 规则,配置中控机与部署目标机器之间的 SSH 互信。
如果要手工配置 SSH 互信及 sudo 免密码,可参考。
第 6 步:在部署目标机器上安装 NTP 服务
注意:
如果你的部署目标机器时间、时区设置一致,已开启 NTP 服务且在正常同步时间,此步骤可忽略。可参考。
以 tidb
用户登录中控机,执行以下命令:
cd /home/tidb/tidb-ansible && \
ansible-playbook -i hosts.ini deploy_ntp.yml -u tidb -b
该步骤将在部署目标机器上使用系统自带软件源联网安装并启动 NTP 服务,服务使用安装包默认的 NTP server 列表,见配置文件 /etc/ntp.conf
中 server 参数。如果使用默认的 NTP server,你的机器需要连接外网。
为了让 NTP 尽快开始同步,启动 NTP 服务前,系统会执行 ntpdate
命令,与用户在 hosts.ini
文件中指定的 ntp_server
同步日期与时间。默认的服务器为 pool.ntp.org
,也可替换为你的 NTP server。
第 7 步:在部署目标机器上配置 CPUfreq 调节器模式
为了让 CPU 发挥最大性能,请将 CPUfreq 调节器模式设置为 performance
模式。如需了解 CPUfreq 的更多信息,可查看文档。
执行以下 cpupower
命令,可查看系统支持的调节器模式:
cpupower frequency-info --governors
analyzing CPU 0:
available cpufreq governors: performance powersave
注意:
本例中系统支持设置
performance
和powersave
模式。如果返回Not Available
,表示当前系统不支持配置 CPUfreq,跳过该步骤即可。
cpupower frequency-info --governors
analyzing CPU 0:
available cpufreq governors: Not Available
查看系统当前的 CPUfreq 调节器模式
执行以下 cpupower
命令,可查看系统当前的 CPUfreq 调节器模式:
cpupower frequency-info --policy
analyzing CPU 0:
current policy: frequency should be within 1.20 GHz and 3.20 GHz.
The governor "powersave" may decide which speed to use
within this range.
修改调节器模式
你可以通过以下两种方法来修改调节器模式。本例中,当前调节器模式为 powersave
,以下命令会将模式变更为 performance
。
使用
cpupower frequency-set --governor
命令来修改。cpupower frequency-set --governor performance
使用以下命令在部署目标机器上批量设置。
ansible -i hosts.ini all -m shell -a "cpupower frequency-set --governor performance" -u tidb -b
使用 root
用户登录目标机器,将部署目标机器数据盘格式化成 ext4 文件系统,挂载时添加 nodelalloc
和 noatime
挂载参数。nodelalloc
是必选参数,否则 Ansible 安装时检测无法通过;noatime
是可选建议参数。
以 /dev/nvme0n1
数据盘为例,具体操作步骤如下:
查看数据盘。
fdisk -l
创建分区表。
parted -s -a optimal /dev/nvme0n1 mklabel gpt -- mkpart primary ext4 1 -1
注意:
使用
lsblk
命令查看分区的设备号:对于 nvme 磁盘,生成的分区设备号一般为nvme0n1p1
;对于普通磁盘(例如/dev/sdb
),生成的的分区设备号一般为sdb1
。格式化文件系统。
查看数据盘分区 UUID。
本例中
nvme0n1p1
的 UUID 为c51eb23b-195c-4061-92a9-3fad812cc12f
。lsblk -f
NAME FSTYPE LABEL UUID MOUNTPOINT
sda
├─sda1 ext4 237b634b-a565-477b-8371-6dff0c41f5ab /boot
├─sda2 swap f414c5c0-f823-4bb1-8fdf-e531173a72ed
└─sda3 ext4 547909c1-398d-4696-94c6-03e43e317b60 /
sr0
nvme0n1
└─nvme0n1p1 ext4 c51eb23b-195c-4061-92a9-3fad812cc12f
编辑
/etc/fstab
文件,添加nodelalloc
挂载参数。vi /etc/fstab
UUID=c51eb23b-195c-4061-92a9-3fad812cc12f /data1 ext4 defaults,nodelalloc,noatime 0 2
挂载数据盘。
mkdir /data1 && \
mount -a
执行以下命令,如果文件系统为 ext4,并且挂载参数中包含
nodelalloc
,则表示已生效。mount -t ext4
/dev/nvme0n1p1 on /data1 type ext4 (rw,noatime,nodelalloc,data=ordered)
第 9 步:编辑 inventory.ini
文件,分配机器资源
以 tidb
用户登录中控机,编辑 /home/tidb/tidb-ansible/inventory.ini
文件为 TiDB 集群分配机器资源。一个标准的 TiDB 集群需要 6 台机器:2 个 TiDB 实例,3 个 PD 实例,3 个 TiKV 实例。
- 至少需部署 3 个 TiKV 实例。
- 不要将 TiKV 实例与 TiDB 或 PD 实例混合部署在同一台机器上。
- 将第一台 TiDB 机器同时用作监控机。
注意:
请使用内网 IP 来部署集群,如果部署目标机器 SSH 端口非默认的 22 端口,需添加
ansible_port
变量,如TiDB1 ansible_host=172.16.10.1 ansible_port=5555
。如果是 ARM 架构的机器,需要将
cpu_architecture
改为arm64
。
你可以根据实际场景从以下两种集群拓扑中选择一种:
-
默认情况下,建议在每个 TiKV 节点上仅部署一个 TiKV 实例,以提高性能。但是,如果你的 TiKV 部署机器的 CPU 和内存配置是部署建议的两倍或以上,并且一个节点拥有两块 SSD 硬盘或者单块 SSD 硬盘的容量大于 2 TB,则可以考虑部署两实例,但不建议部署两个以上实例。
单机单 TiKV 实例集群拓扑
[tidb_servers]
172.16.10.1
172.16.10.2
[pd_servers]
172.16.10.1
172.16.10.2
172.16.10.3
[tikv_servers]
172.16.10.4
172.16.10.5
172.16.10.6
[monitoring_servers]
172.16.10.1
[grafana_servers]
172.16.10.1
[monitored_servers]
172.16.10.1
172.16.10.2
172.16.10.3
172.16.10.4
172.16.10.5
172.16.10.6
以两实例为例:
[tidb_servers]
172.16.10.1
172.16.10.2
[pd_servers]
172.16.10.1
172.16.10.2
172.16.10.3
# 注意:要使用 TiKV 的 labels,必须同时配置 PD 的 location_labels 参数,否则 labels 设置不生效。
# 多实例场景需要额外配置 status 端口,示例如下:
[tikv_servers]
TiKV1-1 ansible_host=172.16.10.4 deploy_dir=/data1/deploy tikv_port=20171 tikv_status_port=20181 labels="host=tikv1"
TiKV1-2 ansible_host=172.16.10.4 deploy_dir=/data2/deploy tikv_port=20172 tikv_status_port=20182 labels="host=tikv1"
TiKV2-1 ansible_host=172.16.10.5 deploy_dir=/data1/deploy tikv_port=20171 tikv_status_port=20181 labels="host=tikv2"
TiKV2-2 ansible_host=172.16.10.5 deploy_dir=/data2/deploy tikv_port=20172 tikv_status_port=20182 labels="host=tikv2"
TiKV3-1 ansible_host=172.16.10.6 deploy_dir=/data1/deploy tikv_port=20171 tikv_status_port=20181 labels="host=tikv3"
TiKV3-2 ansible_host=172.16.10.6 deploy_dir=/data2/deploy tikv_port=20172 tikv_status_port=20182 labels="host=tikv3"
[monitoring_servers]
172.16.10.1
[grafana_servers]
172.16.10.1
[monitored_servers]
172.16.10.2
172.16.10.3
172.16.10.4
172.16.10.5
172.16.10.6
# 注意:为使 TiKV 的 labels 设置生效,部署集群时必须设置 PD 的 location_labels 参数。
[pd_servers:vars]
location_labels = ["host"]
服务配置文件参数调整
多实例情况下,需要修改
tidb-ansible/conf/tikv.yml
中block-cache-size
下面的capacity
参数:storage:
block-cache:
capacity: "1GB"
注意:
TiKV 实例数量指每个服务器上 TiKV 的进程数量。
推荐设置:
capacity
= MEM_TOTAL * 0.5 / TiKV 实例数量多实例情况下,需要修改
tidb-ansible/conf/tikv.yml
中high-concurrency
、normal-concurrency
和low-concurrency
三个参数:readpool:
coprocessor:
# Notice: if CPU_NUM > 8, default thread pool size for coprocessors
# will be set to CPU_NUM * 0.8.
# high-concurrency: 8
# normal-concurrency: 8
# low-concurrency: 8
注意:
推荐设置:TiKV 实例数量 * 参数值 = CPU 核心数量 * 0.8
如果多个 TiKV 实例部署在同一块物理磁盘上,需要修改
conf/tikv.yml
中的capacity
参数:raftstore:
capacity: 0
第 10 步:调整 inventory.ini
文件中的变量
本小节介绍如何编辑部署目录的变量和 inventory.ini
文件中的其它变量。
调整部署目录
部署目录通过 deploy_dir
变量控制,默认全局变量已设置为 /home/tidb/deploy
,对所有服务生效。如数据盘挂载目录为 /data1
,可设置为 /data1/deploy
,样例如下:
## Global variables
[all:vars]
deploy_dir = /data1/deploy
TiKV1-1 ansible_host=172.16.10.4 deploy_dir=/data1/deploy
调整其它变量(可选)
注意:
以下控制变量开启请使用首字母大写
True
,关闭请使用首字母大写False
。
第 11 步:部署 TiDB 集群
ansible-playbook
执行 Playbook 时,默认并发为 5。部署目标机器较多时,可添加 -f
参数指定并发数,例如 ansible-playbook deploy.yml -f 10
。以下示例使用 tidb
用户作为服务运行用户:
在
tidb-ansible/inventory.ini
文件中,确认ansible_user = tidb
。## Connection
# ssh via normal user
ansible_user = tidb
注意:
不要将
ansible_user
设置为root
用户,因为tidb-ansible
限制了服务以普通用户运行。执行以下命令,如果所有 server 均返回
tidb
,表示 SSH 互信配置成功:ansible -i inventory.ini all -m shell -a 'whoami'
执行以下命令,如果所有 server 均返回
root
,表示tidb
用户 sudo 免密码配置成功。ansible -i inventory.ini all -m shell -a 'whoami' -b
执行
local_prepare.yml
playbook,联网下载 TiDB binary 至中控机。ansible-playbook local_prepare.yml
初始化系统环境,修改内核参数。
ansible-playbook bootstrap.yml
部署 TiDB 集群软件。
ansible-playbook deploy.yml
注意:
Grafana Dashboard 上的 Report 按钮可用来生成 PDF 文件,此功能依赖
fontconfig
包和英文字体。如需使用该功能,登录 grafana_servers 机器,用以下命令安装:sudo yum install fontconfig open-sans-fonts
启动 TiDB 集群。
ansible-playbook start.yml
TiDB 兼容 MySQL,因此可使用 MySQL 客户端直接连接 TiDB。推荐配置负载均衡以提供统一的 SQL 接口。
使用 MySQL 客户端连接 TiDB 集群。TiDB 服务的默认端口为
4000
。mysql -u root -h 172.16.10.1 -P 4000
通过浏览器访问监控平台。
- 地址:
- 默认帐号与密码:
admin
;admin
注意:
TiDB 默认会定期收集使用情况信息,并将这些信息分享给 PingCAP 用于改善产品。若要了解所收集的信息详情及如何禁用该行为,请参见遥测。
常见部署问题
本小节介绍使用 TiDB Ansible 部署 TiDB 集群过程中的常见问题与解决方案。
如何自定义端口
修改 inventory.ini
文件,在相应服务 IP 后添加以下主机变量即可:
修改 inventory.ini
文件,在相应服务 IP 后添加以下主机变量即可:
如何检测 NTP 服务是否正常
执行以下命令,如果输出
running
表示 NTP 服务正在运行:ntpd.service - Network Time Service
Loaded: loaded (/usr/lib/systemd/system/ntpd.service; disabled; vendor preset: disabled)
Active: active (running) since 一 2017-12-18 13:13:19 CST; 3s ago
执行
ntpstat
命令,如果输出synchronised to NTP server
(正在与 NTP server 同步),表示在正常同步:ntpstat
synchronised to NTP server (85.199.214.101) at stratum 2
time correct to within 91 ms
polling server every 1024 s
以下情况表示 NTP 服务未正常同步:
ntpstat
unsynchronised
以下情况表示 NTP 服务未正常运行:
ntpstat
Unable to talk to NTP daemon. Is it running?
如果要使 NTP 服务尽快开始同步,执行以下命令。可以将
pool.ntp.org
替换为你的 NTP server:sudo systemctl stop ntpd.service && \
sudo ntpdate pool.ntp.org && \
sudo systemctl start ntpd.service
如果要在 CentOS 7 系统上手动安装 NTP 服务,可执行以下命令:
sudo yum install ntp ntpdate && \
sudo systemctl start ntpd.service && \
sudo systemctl enable ntpd.service
如何调整进程监管方式从 supervise 到 systemd
process supervision, [systemd, supervise]
process_supervision = systemd
TiDB Anisble 在 TiDB v1.0.4 版本之前进程监管方式默认为 supervise
。之前安装的集群可保持不变,如需更新为 systemd
,需关闭集群,按以下方式变更:
ansible-playbook stop.yml && \
ansible-playbook deploy.yml -D && \
ansible-playbook start.yml
如何手工配置 SSH 互信及 sudo 免密码
以
root
用户依次登录到部署目标机器创建tidb
用户并设置登录密码。useradd tidb && \
passwd tidb
执行以下命令,将
tidb ALL=(ALL) NOPASSWD: ALL
添加到文件末尾,即配置好 sudo 免密码。visudo
tidb ALL=(ALL) NOPASSWD: ALL
以
tidb
用户登录到中控机,执行以下命令。将172.16.10.61
替换成你的部署目标机器 IP,按提示输入部署目标机器tidb
用户密码,执行成功后即创建好 SSH 互信,其他机器同理。ssh-copy-id -i ~/.ssh/id_rsa.pub 172.16.10.61
以
tidb
用户登录中控机,通过ssh
的方式登录目标机器 IP。如果不需要输入密码并登录成功,即表示 SSH 互信配置成功。ssh 172.16.10.61
[tidb@172.16.10.61 ~]$
以
tidb
用户登录到部署目标机器后,执行以下命令,不需要输入密码并切换到root
用户,表示tidb
用户 sudo 免密码配置成功。sudo -su root
[root@172.16.10.61 tidb]#
请参照在中控机器上安装 TiDB Ansible 及其依赖 在中控机上通过
pip
安装 TiDB Ansible 及相关依赖的指定版本,默认会安装jmespath
。执行以下命令,验证
jmespath
是否安装成功:pip show jmespath
Name: jmespath
Version: 0.9.0
在中控机上 Python 交互窗口里执行
import jmespath
。- 如果没有报错,表示依赖安装成功。
如果有
ImportError: No module named jmespath
报错,表示未成功安装 Pythonjmespath
模块。python
Python 2.7.5 (default, Nov 6 2016, 00:28:07)
[GCC 4.8.5 20150623 (Red Hat 4.8.5-11)] on linux2
Type "help", "copyright", "credits" or "license" for more information.