在 GCP 上通过 Kubernetes 部署 TiDB 集群

    所包含的步骤如下:

    • 启动一个包含 3 个节点的 Kubernetes 集群(可选)
    • 部署 TiDB Operator 和 TiDB 集群
    • 访问 TiDB 集群
    • 扩容 TiDB 集群
    • 访问 Grafana 面板
    • 删除 Kubernetes 集群(可选)

    本教程会启动一个包含 3 个 类型节点的 Kubernetes 集群。价格信息可以参考 All pricing

    继续之前请选择一个项目:

    启用 API

    本教程需要使用计算和容器 API。继续之前请启用:

    配置 gcloud

    这一步配置 glcoud 默认访问你要用的项目和,可以简化后面用到的命令:

    启动 3 个节点的 Kubernetes 集群

    下面命令启动一个包含 3 个 n1-standard-1 类型节点的 Kubernetes 集群。

    命令执行需要几分钟时间:

    1. gcloud container clusters create tidb

    集群启动完成后,将其设置为默认集群:

    1. gcloud config set container/cluster tidb

    最后验证 kubectl 可以访问集群并且 3 个节点正常运行:

    1. kubectl get nodes

    如果所有节点状态为 Ready,恭喜你,你已经成功搭建你的第一个 Kubernetes 集群。

    是一个 Kubernetes 的包管理工具,确保安装的 Helm 版本为 >= 2.11.0 && < 3.0.0 && != 2.16.4。安装步骤如下:

    1. 参考安装 Helm 客户端
    2. 在集群中应用 Helm 服务端组件 tiller 所需的 RBAC 规则,并安装 tiller

      1. kubectl apply -f https://raw.githubusercontent.com/pingcap/tidb-operator/master/manifests/tiller-rbac.yaml && \
      2. helm init --service-account=tiller --upgrade

      通过下面命令确认 tiller Pod 进入 running 状态:

      1. kubectl get po -n kube-system -l name=tiller
    3. 通过下面的命令添加仓库:

      1. helm repo add pingcap https://charts.pingcap.org/

      添加完成后,可以使用 helm search 搜索 PingCAP 提供的 chart:

    部署 TiDB Operator

    TiDB Operator 使用 扩展 Kubernetes,所以要使用 TiDB Operator,必须先创建 TidbCluster 等各种自定义资源类型:

    1. kubectl apply -f https://raw.githubusercontent.com/pingcap/tidb-operator/master/manifests/crd.yaml && \
    2. kubectl get crd tidbclusters.pingcap.com

    创建 TidbCluster 自定义资源类型后,接下来在 Kubernetes 集群上安装 TiDB Operator。

    1. 获取你要安装的 tidb-operator chart 中的 values.yaml 文件:

      按需修改 values.yaml 文件中的配置。

    2. 安装 TiDB Operator

      1. helm install pingcap/tidb-operator --name=tidb-operator --namespace=tidb-admin --version=v1.1.0-rc.1 -f /home/tidb/tidb-operator/values-tidb-operator.yaml && \
      2. kubectl get po -n tidb-admin -l app.kubernetes.io/name=tidb-operator

    部署 TiDB 集群

    通过下面命令部署 TiDB 集群:

    1. 创建 Namespace

      1. kubectl create namespace demo
    2. 部署 TiDB 集群:

      1. kubectl apply -f https://raw.githubusercontent.com/pingcap/tidb-operator/master/examples/basic/tidb-cluster.yaml -n demo
    3. 部署 TiDB 集群监控:

      1. kubectl apply -f https://raw.githubusercontent.com/pingcap/tidb-operator/master/examples/basic/tidb-monitor.yaml -n demo
    4. 通过下面命令查看 Pod 状态:

    访问 TiDB 集群

    1. kubectl get svc -n demo --watch

    如果看到 basic-tidb 出现,说明服务已经可以访问,可以 Ctrl+C 停止。

    要访问 Kubernetes 集群中的 TiDB 服务,可以在 TiDB 服务和 Google Cloud Shell 之间建立一条隧道。建议这种方式只用于调试,因为如果 Google Cloud Shell 重启,隧道不会自动重新建立。要建立隧道:

    1. kubectl -n demo port-forward svc/basic-tidb 4000:4000 &>/tmp/port-forward.log &

    在 Cloud Shell 上运行:

    在 MySQL 终端中输入一条 MySQL 命令:

    1. select tidb_version();

    如果安装的过程中没有指定密码,现在可以设置:

    1. SET PASSWORD FOR 'root'@'%' = '<change-to-your-password>';

    注意:

    这条命令中包含一些特殊字符,Google Cloud Shell 无法自动填充,你需要手动复制、粘贴到控制台中。

    恭喜,你已经启动并运行一个兼容 MySQL 的分布式 TiDB 数据库!

    使用 kubectl 修改集群所对应的 TidbCluster 对象中的 spec.pd.replicasspec.tidb.replicasspec.tikv.replicas 至期望值进行水平扩容。

    1. kubectl -n demo edit tc basic

    访问 Grafana 面板

    要访问 Grafana 面板,可以在 Grafana 服务和 shell 之间建立一条隧道,可以使用如下命令:

    1. kubectl -n demo port-forward svc/basic-grafana 3000:3000 &>/dev/null &

    在 Cloud Shell 中,点击 Web Preview 按钮并输入端口 3000,将打开一个新的浏览器标签页访问 Grafana 面板。或者也可以在新浏览器标签或者窗口中直接访问 URL:。

    如果没有使用 Cloud Shell,可以在浏览器中访问 localhost:3000

    销毁 TiDB 集群

    要删除 TiDB 集群,执行以下命令:

    1. kubectl delete tc basic -n demo

    要删除监控组件,执行以下命令:

    1. kubectl delete tidbmonitor basic -n demo

    上面的命令只会删除运行的 Pod,但是数据还会保留。如果你不再需要那些数据,可以执行下面的命令清除数据和动态创建的持久化磁盘:

    1. kubectl delete pvc -n demo -l app.kubernetes.io/instance=basic,app.kubernetes.io/managed-by=tidb-operator && \

    删除 Kubernetes 集群

    1. gcloud container clusters delete tidb

    我们还提供基于 Terraform 的部署方案