Pod 拓扑分布约束

    拓扑分布约束依赖于节点标签来标识每个节点所在的拓扑域。 例如,某节点可能具有标签:

    假设你拥有具有以下标签的一个 4 节点集群:

    那么,从逻辑上看集群如下:

    graph TB subgraph “zoneB” n3(Node3) n4(Node4) end subgraph “zoneA” n1(Node1) n2(Node2) end classDef plain fill:#ddd,stroke:#fff,stroke-width:4px,color:#000; classDef k8s fill:#326ce5,stroke:#fff,stroke-width:4px,color:#fff; classDef cluster fill:#fff,stroke:#bbb,stroke-width:2px,color:#326ce5; class n1,n2,n3,n4 k8s; class zoneA,zoneB cluster;

    必须启用 JavaScript 才能查看此页内容

    你可以复用在大多数集群上自动创建和填充的, 而不是手动添加标签。

    API

    pod.spec.topologySpreadConstraints 字段定义如下所示:

    1. apiVersion: v1
    2. kind: Pod
    3. metadata:
    4. name: mypod
    5. spec:
    6. topologySpreadConstraints:
    7. - maxSkew: <integer>
    8. topologyKey: <string>
    9. whenUnsatisfiable: <string>
    10. labelSelector: <object>

    你可以定义一个或多个 topologySpreadConstraint 来指示 kube-scheduler 如何根据与现有的 Pod 的关联关系将每个传入的 Pod 部署到集群中。字段包括:

    • maxSkew 描述 Pod 分布不均的程度。这是给定拓扑类型中任意两个拓扑域中匹配的 Pod 之间的最大允许差值。它必须大于零。取决于 whenUnsatisfiable 的取值, 其语义会有不同。

      • whenUnsatisfiable 等于 “DoNotSchedule” 时,maxSkew 是目标拓扑域中匹配的 Pod 数与全局最小值(一个拓扑域中与标签选择器匹配的 Pod 的最小数量。例如,如果你有 3 个区域,分别具有 0 个、2 个 和 3 个匹配的 Pod,则全局最小值为 0。)之间可存在的差异。
      • whenUnsatisfiable 等于 “ScheduleAnyway” 时,调度器会更为偏向能够降低偏差值的拓扑域。
    • minDomains 表示符合条件的域的最小数量。域是拓扑的一个特定实例。 符合条件的域是其节点与节点选择器匹配的域。

      • 指定的 minDomains 的值必须大于 0。
      • 当符合条件的、拓扑键匹配的域的数量小于 minDomains 时,Pod 拓扑分布将“全局最小值” (global minimum)设为 0,然后进行 skew 计算。“全局最小值”是一个符合条件的域中匹配 Pod 的最小数量,如果符合条件的域的数量小于 minDomains,则全局最小值为零。
      • 当符合条件的拓扑键匹配域的个数等于或大于 minDomains 时,该值对调度没有影响。
      • minDomains 为 nil 时,约束的行为等于 minDomains 为 1。

      说明:

      minDomains 字段是在 1.24 版本中新增的 alpha 字段。你必须启用 MinDomainsInPodToplogySpread 才能使用它。

    • topologyKey 是节点标签的键。如果两个节点使用此键标记并且具有相同的标签值, 则调度器会将这两个节点视为处于同一拓扑域中。调度器试图在每个拓扑域中放置数量均衡的 Pod。

    • whenUnsatisfiable 指示如果 Pod 不满足分布约束时如何处理:

      • DoNotSchedule(默认)告诉调度器不要调度。
      • ScheduleAnyway 告诉调度器仍然继续调度,只是根据如何能将偏差最小化来对节点进行排序。
    • labelSelector 用于查找匹配的 Pod。匹配此标签的 Pod 将被统计, 以确定相应拓扑域中 Pod 的数量。 有关详细信息,请参考标签选择算符

    当 Pod 定义了不止一个 topologySpreadConstraint,这些约束之间是逻辑与的关系。 kube-scheduler 会为新的 Pod 寻找一个能够满足所有约束的节点。

    你可以执行 kubectl explain Pod.spec.topologySpreadConstraints 命令以了解关于 topologySpreadConstraints 的更多信息。

    假设你拥有一个 4 节点集群,其中标记为 foo:bar 的 3 个 Pod 分别位于 node1、node2 和 node3 中:

    graph BT subgraph “zoneB” p3(Pod) —> n3(Node3) n4(Node4) end subgraph “zoneA” p1(Pod) —> n1(Node1) p2(Pod) —> n2(Node2) end classDef plain fill:#ddd,stroke:#fff,stroke-width:4px,color:#000; classDef k8s fill:#326ce5,stroke:#fff,stroke-width:4px,color:#fff; classDef cluster fill:#fff,stroke:#bbb,stroke-width:2px,color:#326ce5; class n1,n2,n3,n4,p1,p2,p3 k8s; class zoneA,zoneB cluster;

    必须 JavaScript 才能查看此页内容

    如果希望新来的 Pod 均匀分布在现有的可用区域,则可以按如下设置其规约:

    pods/topology-spread-constraints/one-constraint.yaml

    topologyKey: zone 意味着均匀分布将只应用于存在标签键值对为 “zone:<任何值>” 的节点。 whenUnsatisfiable: DoNotSchedule 告诉调度器如果新的 Pod 不满足约束, 则让它保持悬决状态。

    如果调度器将新的 Pod 放入 “zoneA”,Pods 分布将变为 [3, 1],因此实际的偏差为 2(3 - 1)。这违反了 maxSkew: 1 的约定。此示例中,新 Pod 只能放置在 “zoneB” 上:

    必须 JavaScript 才能查看此页内容

    或者

    graph BT subgraph “zoneB” p3(Pod) —> n3(Node3) p4(mypod) —> n3 n4(Node4) end subgraph “zoneA” p1(Pod) —> n1(Node1) p2(Pod) —> n2(Node2) end classDef plain fill:#ddd,stroke:#fff,stroke-width:4px,color:#000; classDef k8s fill:#326ce5,stroke:#fff,stroke-width:4px,color:#fff; classDef cluster fill:#fff,stroke:#bbb,stroke-width:2px,color:#326ce5; class n1,n2,n3,n4,p1,p2,p3 k8s; class p4 plain; class zoneA,zoneB cluster;

    必须启用 JavaScript 才能查看此页内容

    你可以调整 Pod 规约以满足各种要求:

    • maxSkew 更改为更大的值,比如 “2”,这样新的 Pod 也可以放在 “zoneA” 上。
    • topologyKey 更改为 “node”,以便将 Pod 均匀分布在节点上而不是区域中。 在上面的例子中,如果 保持为 “1”,那么传入的 Pod 只能放在 “node4” 上。
    • whenUnsatisfiable: DoNotSchedule 更改为 whenUnsatisfiable: ScheduleAnyway, 以确保新的 Pod 始终可以被调度(假设满足其他的调度 API)。 但是,最好将其放置在匹配 Pod 数量较少的拓扑域中。 (请注意,这一优先判定会与其他内部调度优先级(如资源使用率等)排序准则一起进行标准化。)

    例子:多个 TopologySpreadConstraints

    下面的例子建立在前面例子的基础上。假设你拥有一个 4 节点集群,其中 3 个标记为 foo:bar 的 Pod 分别位于 node1、node2 和 node3 上:

    graph BT subgraph “zoneB” p3(Pod) —> n3(Node3) n4(Node4) end subgraph “zoneA” p1(Pod) —> n1(Node1) p2(Pod) —> n2(Node2) end classDef plain fill:#ddd,stroke:#fff,stroke-width:4px,color:#000; classDef k8s fill:#326ce5,stroke:#fff,stroke-width:4px,color:#fff; classDef cluster fill:#fff,stroke:#bbb,stroke-width:2px,color:#326ce5; class n1,n2,n3,n4,p1,p2,p3 k8s; class p4 plain; class zoneA,zoneB cluster;

    必须启用 JavaScript 才能查看此页内容

    可以使用 2 个 TopologySpreadConstraint 来控制 Pod 在 区域和节点两个维度上的分布:

    1. kind: Pod
    2. apiVersion: v1
    3. metadata:
    4. name: mypod
    5. labels:
    6. foo: bar
    7. spec:
    8. topologySpreadConstraints:
    9. - maxSkew: 1
    10. topologyKey: zone
    11. whenUnsatisfiable: DoNotSchedule
    12. labelSelector:
    13. matchLabels:
    14. foo: bar
    15. - maxSkew: 1
    16. topologyKey: node
    17. whenUnsatisfiable: DoNotSchedule
    18. labelSelector:
    19. matchLabels:
    20. foo: bar
    21. containers:
    22. - name: pause
    23. image: k8s.gcr.io/pause:3.1

    在这种情况下,为了匹配第一个约束,新的 Pod 只能放置在 “zoneB” 中;而在第二个约束中, 新的 Pod 只能放置在 “node4” 上。最后两个约束的结果加在一起,唯一可行的选择是放置在 “node4” 上。

    多个约束之间可能存在冲突。假设有一个跨越 2 个区域的 3 节点集群:

    graph BT subgraph “zoneB” p4(Pod) —> n3(Node3) p5(Pod) —> n3 end subgraph “zoneA” p1(Pod) —> n1(Node1) p2(Pod) —> n1 p3(Pod) —> n2(Node2) end classDef plain fill:#ddd,stroke:#fff,stroke-width:4px,color:#000; classDef k8s fill:#326ce5,stroke:#fff,stroke-width:4px,color:#fff; classDef cluster fill:#fff,stroke:#bbb,stroke-width:2px,color:#326ce5; class n1,n2,n3,n4,p1,p2,p3,p4,p5 k8s; class zoneA,zoneB cluster;

    必须启用 JavaScript 才能查看此页内容

    如果对集群应用 “two-constraints.yaml”,会发现 “mypod” 处于 Pending 状态。 这是因为:为了满足第一个约束,”mypod” 只能放在 “zoneB” 中,而第二个约束要求 “mypod” 只能放在 “node2” 上。Pod 调度无法满足两种约束。

    为了克服这种情况,你可以增加 maxSkew 或修改其中一个约束,让其使用 whenUnsatisfiable: ScheduleAnyway

    如果 Pod 定义了 spec.nodeSelectorspec.affinity.nodeAffinity, 调度器将在偏差计算中跳过不匹配的节点。

    示例:TopologySpreadConstraints 与 NodeAffinity

    假设你有一个跨越 zoneA 到 zoneC 的 5 节点集群:

    graph BT subgraph “zoneB” p3(Pod) —> n3(Node3) n4(Node4) end subgraph “zoneA” p1(Pod) —> n1(Node1) p2(Pod) —> n2(Node2) end classDef plain fill:#ddd,stroke:#fff,stroke-width:4px,color:#000; classDef k8s fill:#326ce5,stroke:#fff,stroke-width:4px,color:#fff; classDef cluster fill:#fff,stroke:#bbb,stroke-width:2px,color:#326ce5; class n1,n2,n3,n4,p1,p2,p3 k8s; class p4 plain; class zoneA,zoneB cluster;

    必须启用 JavaScript 才能查看此页内容

    graph BT subgraph “zoneC” n5(Node5) end classDef plain fill:#ddd,stroke:#fff,stroke-width:4px,color:#000; classDef k8s fill:#326ce5,stroke:#fff,stroke-width:4px,color:#fff; classDef cluster fill:#fff,stroke:#bbb,stroke-width:2px,color:#326ce5; class n5 k8s; class zoneC cluster;

    必须 JavaScript 才能查看此页内容

    而且你知道 “zoneC” 必须被排除在外。在这种情况下,可以按如下方式编写 YAML, 以便将 “mypod” 放置在 “zoneB” 上,而不是 “zoneC” 上。同样,spec.nodeSelector 也要一样处理。

    调度器不会预先知道集群拥有的所有区域和其他拓扑域。拓扑域由集群中存在的节点确定。 在自动伸缩的集群中,如果一个节点池(或节点组)的节点数量为零, 而用户正期望其扩容时,可能会导致调度出现问题。 因为在这种情况下,调度器不会考虑这些拓扑域信息,因为它们是空的,没有节点。

    这里有一些值得注意的隐式约定:

    • 只有与新的 Pod 具有相同命名空间的 Pod 才能作为匹配候选者。
    • 注意,如果新 Pod 的 topologySpreadConstraints[*].labelSelector 与自身的标签不匹配,将会发生什么。 在上面的例子中,如果移除新 Pod 上的标签,Pod 仍然可以调度到 “zoneB”,因为约束仍然满足。 然而,在调度之后,集群的不平衡程度保持不变。zoneA 仍然有 2 个带有 {foo:bar} 标签的 Pod, zoneB 有 1 个带有 {foo:bar} 标签的 Pod。 因此,如果这不是你所期望的,建议工作负载的 topologySpreadConstraints[*].labelSelector 与其自身的标签匹配。

    集群级别的默认约束

    为集群设置默认的拓扑分布约束也是可能的。 默认拓扑分布约束在且仅在以下条件满足时才会被应用到 Pod 上:

    • Pod 没有在其 .spec.topologySpreadConstraints 设置任何约束;
    • Pod 隶属于某个服务、副本控制器、ReplicaSet 或 StatefulSet。

    你可以在 中将默认约束作为 插件参数的一部分来设置。 约束的设置采用如前所述的 API,只是 labelSelector 必须为空。 选择算符是根据 Pod 所属的服务、副本控制器、ReplicaSet 或 StatefulSet 来设置的。

    配置的示例可能看起来像下面这个样子:

    1. apiVersion: kubescheduler.config.k8s.io/v1beta3
    2. kind: KubeSchedulerConfiguration
    3. profiles:
    4. - schedulerName: default-scheduler
    5. pluginConfig:
    6. - name: PodTopologySpread
    7. args:
    8. defaultConstraints:
    9. - maxSkew: 1
    10. topologyKey: topology.kubernetes.io/zone
    11. whenUnsatisfiable: ScheduleAnyway
    12. defaultingType: List

    说明:

    默认是被禁用的。 建议使用 PodTopologySpread 来实现类似的行为。

    内部默认约束

    特性状态: Kubernetes v1.24 [stable]

    如果你没有为 Pod 拓扑分布配置任何集群级别的默认约束, kube-scheduler 的行为就像你指定了以下默认拓扑约束一样:

    此外,原来用于提供等同行为的 SelectorSpread 插件默认被禁用。

    说明:

    对于分布约束中所指定的拓扑键而言,PodTopologySpread 插件不会为不包含这些主键的节点评分。 这可能导致在使用默认拓扑约束时,其行为与原来的 SelectorSpread 插件的默认行为不同,

    如果你的节点不会 同时 设置 kubernetes.io/hostnametopology.kubernetes.io/zone 标签,你应该定义自己的约束而不是使用 Kubernetes 的默认约束。

    如果你不想为集群使用默认的 Pod 分布约束,你可以通过设置 defaultingType 参数为 List 并将 PodTopologySpread 插件配置中的 defaultConstraints 参数置空来禁用默认 Pod 分布约束。

    1. apiVersion: kubescheduler.config.k8s.io/v1beta3
    2. kind: KubeSchedulerConfiguration
    3. profiles:
    4. - schedulerName: default-scheduler
    5. pluginConfig:
    6. - name: PodTopologySpread
    7. args:
    8. defaultConstraints: []
    9. defaultingType: List

    在 Kubernetes 中,与“亲和性”相关的指令控制 Pod 的调度方式(更密集或更分散)。

    • 对于 PodAffinity,你可以尝试将任意数量的 Pod 集中到符合条件的拓扑域中。
    • 对于 PodAntiAffinity,只能将一个 Pod 调度到某个拓扑域中。

    要实现更细粒度的控制,你可以设置拓扑分布约束来将 Pod 分布到不同的拓扑域下, 从而实现高可用性或节省成本。这也有助于工作负载的滚动更新和平稳地扩展副本规模。 有关详细信息,请参考 文档。

    • 当 Pod 被移除时,无法保证约束仍被满足。例如,缩减某 Deployment 的规模时, Pod 的分布可能不再均衡。 你可以使用 Descheduler 来重新实现 Pod 分布的均衡。

    • 具有污点的节点上匹配的 Pods 也会被统计。 参考 。