• QingCloud 云平台块存储
    • QingStor NeonSAN
    • GlusterFS
    • NFS
    • NFS in Kubernetes (仅限 multi-node 部署测试使用)
    • Local Volume (仅限 all-in-one 部署测试使用)

    同时,Installer 集成了 和 QingStor NeonSAN CSI 插件,仅需在安装前简单配置即可对接 QingCloud 云平台块存储或 NeonSAN 作为存储服务,前提是需要有操作 资源的权限或已有 NeonSAN 服务端。Installer 也集成了 NFS、GlusterFS 或 Ceph RBD 这类存储的客户端,用户需提前准备相关的存储服务端,然后在 配置对应的参数即可对接相应的存储服务端。

    Installer 对接的开源存储服务端和客户端,以及 CSI 插件,已测试过的版本如下:

    准备了满足要求的存储服务端后,只需要参考以下表中的参数说明,在 conf/vars.yml 中,根据您存储服务端所支持的存储类型,首先在 conf/vars.yml 的相应部分参考示例或注释修改对应参数并保存,然后再执行安装程序,即可完成集群存储类型的配置。

    以下对 存储相关的参数配置做简要说明 (参数详解请参考 storage classes )。

    特别注意:vars.yml 中默认配置了 Local 类型的存储作为集群默认的存储类型,若配置其他类型的存储,则首先需要将 Local 相关的参数配置都修改为 false,然后再根据您的存储服务端类型,参考如下说明修改 vars.yml 中对应的存储相关部分的参数配置。

    块存储插件实现了 CSI 接口,并且支持 KubeSphere 使用 QingCloud 云平台的存储资源。块存储插件部署后,用户可创建访问模式 (Access Mode) 为 单节点读写(ReadWriteOnce) 的基于 QingCloud 的超高性能型 (超高性能型硬盘只能用在超高性能型主机)、性能型 (性能型硬盘只能用在性能型主机) 或容量型硬盘的存储卷并挂载至工作负载。在安装 KubeSphere 时配置 QingCloud-CSI 插件的参数说明如下。

    QingCloud-CSI Description
    qingcloud_csi_enabled 是否使用 QingCloud-CSI 作为持久化存储,是:true; 否:false
    qingcloud_csi_is_default_class 是否设定为默认的存储类型, 是:true;否:false
    注:系统中存在多种存储类型时,只能设定一种为默认的存储类型
    qingcloud_access_key_id ,
    qingcloud_secret_access_key
    通过QingCloud 云平台控制台 的右上角账户图标选择 API 密钥 创建密钥获得
    qingcloud_zone zone 应与 Kubernetes 集群所在区相同,CSI 插件将会操作此区的存储卷资源。例如:zone 可以设置为 sh1a(上海一区-A)、sh1b(上海1区-B)、 pek2(北京2区)、pek3a(北京3区-A)、gd1(广东1区)、gd2a(广东2区-A)、ap1(亚太1区)、ap2a(亚太2区-A)
    qingcloud_type QingCloud 云平台块存储的类型,0 代表性能型硬盘,1 或 2(根据集群所在区不同而参数不同)代表容量型硬盘,3 代表超高性能型硬盘,详情见
    qingcloud_maxSize, qingcloud_minSize 限制存储卷类型的存储卷容量范围,单位为 GiB
    qingcloud_stepSize 设置用户所创建存储卷容量的增量,单位为 GiB
    qingcloud_fsType 存储卷的文件系统,支持 ext3, ext4, xfs. 默认为 ext4

    QingStor NeonSAN

    NeonSAN-CSI 插件支持对接青云自研的企业级分布式存储 作为存储服务,若您准备好 NeonSAN 服务端后,即可在 conf/vars.yml 配置 NeonSAN-CSI 插件对接其存储服务端。详见 NeonSAN-CSI 参数释义

    是一个分布式存储系统,在 conf/vars.yml 配置的释义如下。

    Ceph_RBD Description
    ceph_rbd_enabled 是否使用 Ceph RBD 作为持久化存储,是:true;否:false
    ceph_rbd_storage_class 存储类型名称
    ceph_rbd_is_default_class 是否设定为默认存储类型, 是:true;否:false
    注:系统中存在多种存储类型时,只能设定一种为默认存储类型
    ceph_rbd_monitors 根据 Ceph RBD 服务端配置填写,可参考 Kubernetes 官方文档
    ceph_rbd_admin_id 能够在存储池中创建的客户端 ID ,默认: admin,可参考
    ceph_rbd_admin_secret Admin_id 的 secret,安装程序将会自动在 kube-system 项目内创建此 secret,可参考 Kubernetes 官方文档
    ceph_rbd_pool 可使用的 Ceph RBD 存储池,可参考
    ceph_rbd_user_id 用于映射 RBD 的 ceph 客户端 ID 默认: admin,可参考 Kubernetes 官方文档
    ceph_rbd_user_secret User_id 的 secret,需注意在所使用 rbd image 的项目内都需创建此 Secret,可参考
    ceph_rbd_fsType 存储卷的文件系统,kubernetes 支持 fsType,默认:ext4,可参考 Kubernetes 官方文档
    ceph_rbd_imageFormat Ceph RBD 格式,默认:”1”,可参考
    ceph_rbd_imageFeatures ceph_rbd_imageFormat 字段不为 1 时需填写此字段,可参考 Kubernetes 官方文档

    注: 存储类型中创建 secret 所需 ceph secret 如 ceph_rbd_admin_secretceph_rbd_user_secret 可在 ceph 服务端通过以下命令获得:

    GlusterFS

    GlusterFS 是一个开源的分布式文件系统,配置时需提供 heketi 所管理的 glusterfs 集群,在 配置的释义如下。

    1. $ heketi-cli cluster list

    注意:NFSNFS in Kubernetes 是两种不同类型的存储类型,在 vars.yml 中配置时仅需配置其中一种作为默认的存储类型即可。

    即网络文件系统,它允许网络中的计算机之间通过 TCP/IP 网络共享资源。需要预先准备 NFS 服务端,本方法可以使用 QingCloud 云平台 vNAS 作为 NFS 服务端。在 conf/vars.yml 配置的释义如下。

    关于在安装前如何配置 QingCloud vNas,本文档在 给出了一个详细的示例供参考。

    NFS Description
    nfs_client_enable 是否使用 NFS 作为持久化存储,是:true;否:false
    nfs_client_is_default_class 是否设定为默认存储类型,是:true;否:false
    注:系统中存在多种存储类型时,只能设定一种为默认存储类型
    nfs_server 允许其访问的 NFS 服务端地址,可以是 IP 或 Hostname
    nfs_path NFS 共享目录,即服务器上共享出去的文件目录,可参考 Kubernetes 官方文档

    NFS in Kubernetes(仅限 multi-node 部署测试使用)

    NFS 即网络文件系统,它允许网络中的计算机之间通过 TCP/IP 网络共享资源。本安装方法将会在 Kubernetes 集群内安装 容器化的 NFS 服务端,要求 Kubernetes 节点有足够的硬盘空间。在 conf/vars.yml 配置的释义如下。

    表示挂载的本地存储设备,如磁盘、分区或目录,仅支持在 all-in-one 模式安装时使用 Local Volume,由于该类型暂不支持动态分配,因此仅建议用于测试部署,方便初次安装和体验。在 conf/vars.yml 配置的释义如下。

    Local Volume Description
    local_volume_provisioner_enabled 是否使用 local volume 作为持久化存储, 是:true;否:false
    local_volume_provisioner_storage_class 存储类型的名称, 默认:local
    local_volume_is_default_class 是否设定为默认存储类型, 是:true;否:false
    注:系统中存在多种存储类型时,只能设定一种为默认的存储类型