不需要GCE及其他组件,你只需要有一个kubernetes集群即可。

如果你还没有kubernetes集群,可以参考kubernetes-handbook部署一个。

本文中使用的镜像、kubernetes应用的yaml配置来自我的另一个项目,请参考:

目录下包含一个简单的web测试应用。我们将其构建为docker镜像,在kubernetes中运行。你可以自己构建,也可以直接用这个我构建好的镜像index.tenxcloud.com/jimmy/k8s-sample-webapp:latest

在kubernetes上部署sample-webapp。

locust-masterlocust-work使用同样的docker镜像,修改cotnroller中spec.template.spec.containers.env字段中的value为你sample-webapp service的名字。

  1. - name: TARGET_HOST
  2. value: http://sample-webapp:8000

locust-masterlocust-work controller使用的都是 docker镜像。你可以直接下载gcr.io/cloud-solutions-images/locust-tasks,也可以自己编译。自己编译大概要花几分钟时间,镜像大小为820M。

每个controller的yaml的spec.template.spec.containers.image 字段指定的是我的镜像:

  1. image: index.tenxcloud.com/jimmy/locust-tasks:latest

Now deploy locust-worker-controller:

    你可以很轻易的给work扩容,通过命令行方式:

    当然你也可以通过WebUI:Dashboard - Workloads - Replication Controllers - ServiceName - Scale来扩容。

    参考kubernetes的traefik ingress安装,在ingress.yaml中加入如下配置:

    1. - host: traefik.locust.io
    2. http:
    3. paths:
    4. backend:
    5. servicePort: 8089

    然后执行kubectl replace -f ingress.yaml即可更新traefik。

    Traefik的UI

    打开http://traefik.locust.io页面,点击Edit输入伪造的用户数和用户每秒发送的请求个数,点击Start Swarming就可以开始测试了。

    在测试过程中调整sample-webapp的pod个数(默认设置了1个pod),观察pod的负载变化情况。

    Dashboard查看页面

    从一段时间的观察中可以看到负载被平均分配给了3个pod。

    在locust的页面中可以实时观察也可以下载测试结果。