不需要GCE及其他组件,你只需要有一个kubernetes集群即可。
如果你还没有kubernetes集群,可以参考kubernetes-handbook部署一个。
本文中使用的镜像、kubernetes应用的yaml配置来自我的另一个项目,请参考:
目录下包含一个简单的web测试应用。我们将其构建为docker镜像,在kubernetes中运行。你可以自己构建,也可以直接用这个我构建好的镜像index.tenxcloud.com/jimmy/k8s-sample-webapp:latest
。
在kubernetes上部署sample-webapp。
locust-master
和locust-work
使用同样的docker镜像,修改cotnroller中spec.template.spec.containers.env
字段中的value为你sample-webapp
service的名字。
- name: TARGET_HOST
value: http://sample-webapp:8000
locust-master
和locust-work
controller使用的都是 docker镜像。你可以直接下载gcr.io/cloud-solutions-images/locust-tasks
,也可以自己编译。自己编译大概要花几分钟时间,镜像大小为820M。
每个controller的yaml的spec.template.spec.containers.image
字段指定的是我的镜像:
image: index.tenxcloud.com/jimmy/locust-tasks:latest
Now deploy locust-worker-controller
:
你可以很轻易的给work扩容,通过命令行方式:
当然你也可以通过WebUI:Dashboard - Workloads - Replication Controllers - ServiceName - Scale来扩容。
参考kubernetes的traefik ingress安装,在ingress.yaml
中加入如下配置:
- host: traefik.locust.io
http:
paths:
backend:
servicePort: 8089
然后执行kubectl replace -f ingress.yaml
即可更新traefik。
打开http://traefik.locust.io
页面,点击Edit
输入伪造的用户数和用户每秒发送的请求个数,点击Start Swarming
就可以开始测试了。
在测试过程中调整sample-webapp
的pod个数(默认设置了1个pod),观察pod的负载变化情况。
从一段时间的观察中可以看到负载被平均分配给了3个pod。
在locust的页面中可以实时观察也可以下载测试结果。