开启拓扑感知服务路由特性需同时启动ServiceTopology=true和EndpointSliceProxying=true的FeatureGate
环境
K8s版本:v1.18.3
EndpointSlices简介
FEATURE STATE: Kubernetes v1.17 [beta]
EndpointSlices提供了一种简单的方法来跟踪Kubernetes集群中的网络Endpoints。 它们为Endpoints提供了更可扩展和可扩展的替代方案。 Endpoints API提供了一种简单而直接的方式来跟踪Kubernetes中的网络Endpoints。 不幸的是,随着Kubernetes集群和服务能够处理更多流量并将其发送到更多后端Pod,该原始API的局限性变得更加明显。 最值得注意的是,这些挑战包括扩展到更多网络Endpoints的挑战。 由于服务的所有网络Endpoints都存储在单个Endpoints资源中,因此这些资源可能会变得很大。 这影响了Kubernetes组件(尤其是主控制平面)的性能,并在Endpoints更改时导致大量网络流量和处理。 EndpointSlices可帮助您减轻这些问题,并为诸如拓扑路由之类的其他功能提供可扩展的平台。
EndpointSlice resources
在Kubernetes中,EndpointSlice包含对一组网络Endpoints的引用。 控制平面会为指定了选择器的任何Kubernetes服务自动创建EndpointSlices。 这些EndpointSlice包含对与服务选择器匹配的所有Pod的引用。 EndpointSlices通过协议,端口号和服务名称的唯一组合将网络Endpoints组合在一起。 EndpointSlice对象的名称必须是有效的DNS子域名。
作为示例,这是示例Kubernetes服务的示例EndpointSlice资源。
apiVersion: discovery.k8s.io/v1beta1
kind: EndpointSlice
metadata:
name: example-abc
labels:
kubernetes.io/service-name: example
addressType: IPv4
ports:
- name: http
protocol: TCP
port: 80
endpoints:
- addresses:
- "10.1.2.3"
conditions:
ready: true
hostname: pod-1
topology:
kubernetes.io/hostname: node-1
topology.kubernetes.io/zone: us-west2-a
默认情况下,控制平面创建和管理EndpointSlices的每个Endpoints不超过100个。 您可以使用--max-endpoints-per-slice
kube-controller-manager标志对其进行配置,最大为1000。
当涉及如何路由内部流量时,EndpointSlices可以充当kube-proxy的真实来源。 启用后,它们应为具有大量Endpoints的服务提供性能改进。
Address types
EndpointSlice支持三种地址类型:
- IPv4
- IPv6
- FQDN
Topology information
EndpointSlice中的每个Endpoints都可以包含相关的拓扑信息。 这用于指示Endpoints在哪里,其中包含有关相应Node,zon和region的信息。 当设置了这种值时,控制平面为EndpointSlices设置以下拓扑标签:
- kubernetes.io/hostname - endpoint所在Node的名称
- topology.kubernetes.io/zone - endpoints所在的zone
- topology.kubernetes.io/region - endpoints所在的region
这些标签的值源自与片中每个Endpoints关联的资源。 Node名标签表示相应Pod上NodeName字段的值。 zone标签和region标签代表相应节点上具有相同名称的标签值。
Management
通常控制平面(特别是EndpointsSlice控制器)创建和管理EndpointSlice对象。 EndpointSlices还有许多其他用例,例如服务网格实现,可能导致其他实体或控制器管理其他EndpointSlices。
为了确保多个实体可以管理EndpointSlices而不互相干扰,Kubernetes定义了标签
endpointslice.kubernetes.io/managed-by
, 该标签指示管理EndpointSlice的实体。 EndpointsSlice控制器在其管理的所有EndpointSlice上将此标签的值设置为endpointslice.kubernetes.io/managed-by: endpointslice-controller.k8s.io
其他管理EndpointSlices的实体也应为此标签设置唯一值。
Ownership
在大多数使用情况下,EndpointSlices由endpoint slice对象跟踪其endpoints的服务拥有。 该所有权由每个EndpointSlice上的所有者引用以及
kubernetes.io/service-name
标签指示,该标签可对属于Service的所有EndpointSlice进行简单查找。
EndpointSlice mirroring
在某些情况下,应用程序会创建自定义的Endpoints资源。 为了确保这些应用程序不需要同时写入Endpoints和EndpointSlice资源,集群的控制平面将大多数Endpoints资源镜像到相应的EndpointSlices。
控制平面镜像的Endpoints资源,除非:
- Endpoints资源的
endpointslice.kubernetes.io/skip-mirror
标签设置为true。 - Endpoints资源具有
control-plane.alpha.kubernetes.io/leader
annotation。 - 相应的Service资源不存在。
- 相应的Service资源具有非空selector。
如果Endpoints资源具有多个subnet或包含具有多个IP栈(IPv4和IPv6)的endpoints,则会发生各个Endpoints资源可能会转换为多个EndpointSlice。 每个subnet最多1000个地址将镜像到EndpointSlices。
Distribution of EndpointSlices
每个EndpointSlice都有一组端口,适用于资源内的所有endpoints。 如果将命名端口用于服务,则Pod可能会为同一命名端口以不同的目标端口号结尾,从而需要不同的EndpointSlice。 这类似于subnets与Endpoints进行分组的背后逻辑。
控制平面尝试将EndpointSlices尽可能填满,但不会主动重新平衡它们。逻辑非常简单:
- 遍历现有的EndpointSlice,删除不再需要的endpoints,并更新已更改的匹配endpoints。
- 遍历上面一个步骤中已修改的EndpointSlice,并用所需的任何新endpoints填充它们。
- 如果还有新的endpoints要添加,请尝试将它们放入以前未更改的slice中或创建新的EndpointSlice。
重要的是,上面第三个步骤倾向于限制EndpointSlice更新,而不是完全分发EndpointSlices。 例如,如果要添加10个新endpoints,并有2个EndpointSlices,每个EndpointSlices可以容纳5个endpoints,则此方法将创建一个新EndpointSlice,而不是填充2个现有EndpointSlices。 换句话说,单个EndpointSlice创建优于多个EndpointSlice更新。
通过在每个节点上运行kube-proxy并Watch EndpointSlices,对EndpointSlice的每次更改都会变得相对开销很大,因为它将被传输到集群中的每个Node。 所以上述的这种方式旨在限制需要发送到每个节点的更改的数量,即使它可能导致多个EndpointSlices未满。
实际上,这种不理想的分布应该很少见。 EndpointSlice控制器处理的大多数更改都将足够小以适应现有的EndpointSlice,如果不是,则无论如何很快都将有必要使用新的EndpointSlice。 滚动式Deployment更新还提供了EndpointSlices的自然包装,其中所有Pod及其对应的endpoints均被替换。
Duplicate endpoints
由于EndpointSlice更改的性质,endpoints可能会同时在多个EndpointSlice中表示。 由于Kubernetes客户端watch/cache可以在不同的时刻对不同EndpointSlice对象进行更改,因此自然会发生这种情况。 使用EndpointSlice的实现必须能够使endpoint出现在多个slice中。 在kube-proxy的EndpointSliceCache实现中可以找到有关如何执行endpoint去重的参考实现。
Service Topology
Service Topology简介
服务拓扑使服务能够基于群集的节点拓扑来路由流量。 例如,服务可以指定将流量优先路由到与客户端位于同一节点上或位于同一可用性区域中的端点。
默认情况下,发送到ClusterIP或NodePort服务的流量可以路由到该服务的任何后端地址。从Kubernetes 1.7开始,可以将“外部”流量路由到在接收流量的节点上运行的Pod,但是ClusterIP Services不支持此功能,并且更复杂的拓扑(如分区路由)是不可能的。服务拓扑功能通过允许服务创建者基于源节点和目标节点的节点标签定义用于路由流量的策略来解决此问题。
通过使用源和目的地之间的节点标签匹配,操作员可以使用对那个操作员的要求有意义的任何度量来指定彼此“更近”和“更远”的一组节点。 例如,对于公共云中的许多运营商而言,倾向于将服务流量保持在同一区域内,因为区域间流量具有与其相关的成本,而区域内流量则没有。 其他常见需求包括能够将流量路由到由DaemonSet管理的本地Pod,或将流量保持到连接到同一机架顶部交换机的节点,以实现最低延迟。
使用Service Topology
如果您的集群启用了服务拓扑,则可以通过在服务规范上指定topologyKeys字段来控制服务流量路由。该字段是节点标签的优先顺序列表,将在访问此服务时用于对端点进行排序。流量将被定向到其第一个标签的值与该标签的始发节点的值匹配的节点。如果在匹配的节点上没有该服务的后端,则将考虑第二个标签,依此类推,直到没有标签剩余为止。
如果找不到匹配项,则流量将被拒绝,就像该服务根本没有后端一样。即,基于具有可用后端的第一个拓扑密钥选择端点。如果指定了此字段,并且所有条目都没有与客户端拓扑匹配的后端,则该服务没有该客户端的后端,因此连接将失败。特殊值“ *”可用于表示“任何拓扑”。如果使用此通用值,则仅作为列表中的最后一个值才有意义。
如果没有指定topologyKeys或为空,则不会应用拓扑约束。
考虑一个带有节点的群集,这些节点用其主机名,区域名称和区域名称标记。然后,您可以按如下所示设置服务的topologyKeys值以定向流量。
- 仅适用于同一节点上的端点,如果该节点上不存在端点,则失败:[“kubernetes.io/hostname”]。
- 优先使用同一节点上的端点,后退到同一区域中的端点,然后是相同区域,否则失败:[“kubernetes.io/hostname”、“topology.kubernetes.io/zone”、“topology.kubernetes.io/region”]。 例如,在数据局部性很关键的情况下,这可能很有用。
- 优先使用同一区域,但是如果该区域内没有可用端点,则回退到任何可用端点上:[“topology.kubernetes.io/zone”,"*"]。
验证测试
集群所有组件开启--feature-gates=ServiceTopology=true,EndpointSlice=true
,其中如果kube-proxy是以这种方式启动的话
containers:
- command:
- /usr/local/bin/kube-proxy
- --config=/var/lib/kube-proxy/config.conf
- --hostname-override=$(NODE_NAME)
kube-proxy加载配置文件的形式加载参数
以这种形式添加featureGates
# vim /var/lib/kube-proxy/config.conf
featureGates:
EndpointSlice: true
EndpointSliceProxying: true
ServiceTopology: true
因为命令行--feature-gates
会和--config
加载配置文件方式冲突,以后者为主
# k8s.io/kubernetes/cmd/kube-proxy/app/server.go
// Complete completes all the required options.
func (o *Options) Complete() error {
if len(o.ConfigFile) == 0 && len(o.WriteConfigTo) == 0 {
klog.Warning("WARNING: all flags other than --config, --write-config-to, and --cleanup are deprecated. Please begin using a config file ASAP.")
o.config.HealthzBindAddress = addressFromDeprecatedFlags(o.config.HealthzBindAddress, o.healthzPort)
o.config.MetricsBindAddress = addressFromDeprecatedFlags(o.config.MetricsBindAddress, o.metricsPort)
}
// Load the config file here in Complete, so that Validate validates the fully-resolved config.
// 如果--config的话,以这个配置文件中的参数为主
if len(o.ConfigFile) > 0 {
c, err := o.loadConfigFromFile(o.ConfigFile)
if err != nil {
return err
}
o.config = c
if err := o.initWatcher(); err != nil {
return err
}
}
// 仅支持命令行--hostname-override=xxx
if err := o.processHostnameOverrideFlag(); err != nil {
return err
}
return utilfeature.DefaultMutableFeatureGate.SetFromMap(o.config.FeatureGates)
}
创建一个2副本的应用
[root@localhost ~]# kubectl get pod -o wide
NAME READY STATUS RESTARTS AGE IP NODE NOMINATED NODE READINESS GATES
common-nginx-dfff6bd9f-56zt5 1/1 Running 0 21h 172.20.1.13 192.168.104.111 <none> <none>
common-nginx-dfff6bd9f-zh7wk 1/1 Running 0 21h 172.20.2.19 192.168.104.128 <none> <none>
对其service设置topologyKeys
[root@localhost ~]# kubectl get svc nginx -o yaml
apiVersion: v1
kind: Service
metadata:
labels:
app: common-nginx
name: nginx
namespace: default
spec:
ports:
- port: 80
protocol: TCP
targetPort: 80
selector:
app: common-nginx
topologyKeys:
- kubernetes.io/hostname
- '*'
type: ClusterIP
这里kube-proxy使用的mode是iptables,所以根据优先路由到本地节点的pod特性,上面pod所在的Node来看192.168.104.111和192.168.104.128上Chain KUBE-SVC-xxx 只会有一条KUBE-SEP-xxx规则,其它节点还是跟以往一样,有两条KUBE-SEP-xxx规则
# node 192.168.104.111
Chain KUBE-SVC-4N57TFCL4MD7ZTDA (1 references)
target prot opt source destination
KUBE-SEP-K6CY7KOJIC5FECTH all -- 0.0.0.0/0 0.0.0.0/0 /* default/nginx: */
# node 192.168.104.128
Chain KUBE-SVC-4N57TFCL4MD7ZTDA (1 references)
target prot opt source destination
KUBE-SEP-AAUL4QSIESCX3CKK all -- 0.0.0.0/0 0.0.0.0/0 /* default/nginx: */
# node 192.168.104.117(其它节点)
Chain KUBE-SVC-4N57TFCL4MD7ZTDA (1 references)
target prot opt source destination
KUBE-SEP-K6CY7KOJIC5FECTH all -- 0.0.0.0/0 0.0.0.0/0 /* default/nginx: */ statistic mode random probability 0.50000000000
KUBE-SEP-AAUL4QSIESCX3CKK all -- 0.0.0.0/0 0.0.0.0/0 /* default/nginx: */
代码分析
TopologyKeys Validate
if len(service.Spec.TopologyKeys) > 0 {
topoPath := specPath.Child("topologyKeys")
// topologyKeys is mutually exclusive with 'externalTrafficPolicy=Local'
// 与externalTrafficPolicy=Local冲突
if service.Spec.ExternalTrafficPolicy == core.ServiceExternalTrafficPolicyTypeLocal {
allErrs = append(allErrs, field.Forbidden(topoPath, "may not be specified when `externalTrafficPolicy=Local`"))
}
// TopologyKeys的键不能超过16
if len(service.Spec.TopologyKeys) > core.MaxServiceTopologyKeys {
allErrs = append(allErrs, field.TooMany(topoPath, len(service.Spec.TopologyKeys), core.MaxServiceTopologyKeys))
}
topoKeys := sets.NewString()
for i, key := range service.Spec.TopologyKeys {
keyPath := topoPath.Index(i)
if topoKeys.Has(key) {
allErrs = append(allErrs, field.Duplicate(keyPath, key))
}
topoKeys.Insert(key)
// "Any" must be the last value specified
// "*"的键要在最后的位置
if key == v1.TopologyKeyAny && i != len(service.Spec.TopologyKeys)-1 {
allErrs = append(allErrs, field.Invalid(keyPath, key, `"*" must be the last value specified`))
}
if key != v1.TopologyKeyAny {
for _, msg := range validation.IsQualifiedName(key) {
allErrs = append(allErrs, field.Invalid(keyPath, service.Spec.TopologyKeys, msg))
}
}
}
}
iptables/ipvs模式
iptables/ipvs下拓扑感知主要处理逻辑,把endpoint根据拓扑key设置重新再过滤一遍
# k8s.io/kubernetes/pkg/proxy/iptables/proxier.go
# k8s.io/kubernetes/pkg/proxy/ipvs/proxier.go
// Service Topology will not be enabled in the following cases:
// 1. externalTrafficPolicy=Local (mutually exclusive with service topology).// 2. ServiceTopology is not enabled.
// 3. EndpointSlice is not enabled (service topology depends on endpoint slice// to get topology information).
// 与k8s service externalTrafficPolicy=Local特性冲突,FeatureGate开启ServiceTopology和EndpointSliceProxying
if !svcInfo.OnlyNodeLocalEndpoints() && utilfeature.DefaultFeatureGate.Enabled(features.ServiceTopology) && utilfeature.DefaultFeatureGate.Enabled(features.EndpointSliceProxying) {
allEndpoints = proxy.FilterTopologyEndpoint(proxier.nodeLabels, svcInfo.TopologyKeys(), allEndpoints) hasEndpoints = len(allEndpoints) > 0
}
func FilterTopologyEndpoint(nodeLabels map[string]string, topologyKeys []string, endpoints []Endpoint) []Endpoint {
// Do not filter endpoints if service has no topology keys.
if len(topologyKeys) == 0 {
return endpoints
}
filteredEndpoint := []Endpoint{}
if len(nodeLabels) == 0 {
// 如果topologyKeys只有一个'*',直接返回
if topologyKeys[len(topologyKeys)-1] == v1.TopologyKeyAny {
// edge case: include all endpoints if topology key "Any" specified
// when we cannot determine current node's topology.
return endpoints
}
// edge case: do not include any endpoints if topology key "Any" is
// not specified when we cannot determine current node's topology.
return filteredEndpoint
}
for _, key := range topologyKeys {
if key == v1.TopologyKeyAny {
return endpoints
}
// 从节点标签中以该key获取对应的value
topologyValue, found := nodeLabels[key]
if !found {
continue
}
for _, ep := range endpoints {
topology := ep.GetTopology()
// endpointslices中同样的key获取的value和上述从从节点标签中获取的value做对比
if value, found := topology[key]; found && value == topologyValue {
filteredEndpoint = append(filteredEndpoint, ep)
}
}
if len(filteredEndpoint) > 0 {
return filteredEndpoint
}
}
return filteredEndpoint
}
应用场景
同一个交换机下的节点优先访问,这种场景就不说了。这里要说一种特殊的应用场景,k8s controller都知道,运行在k8s集群内部的话,可以使用in-cluster或out-cluster的认证方式, 一般都是使用in-cluster+rbac的授权方式,通过内部service跟apiserver通信,default命名空间下的kubernetes服务
[root@localhost ~]# kubectl get service kubernetes
NAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) AGE
kubernetes ClusterIP 11.1.252.1 <none> 443/TCP 28d
鉴于k8s controller高可用问题,实际上是在http2中,为了提高网络性能,一个主机只建立一个连接,所有的请求都通过该连接进行, 默认情况下,即使网络异常,他还是重用这个连接,直到操作系统将连接关闭,而操作系统关闭僵尸连接的时间默认是十几分钟,具体的时间可以调整系统参数
net.ipv4.tcp_retries2, net.ipv4.tcp_keepalive_time, net.ipv4.tcp_keepalive_probes, net.ipv4.tcp_keepalive_intvl
所有的controller运行在master节点(即kube-apiserver节点),同个node的controller优先访问本地的apiserver,这样可以大概率避免apiserver不可用, 导致大批量controller失效.
default命名空间下的endpoints默认没有带上nodeName的字段,进而导致endpointslices中也没有topology
[root@localhost kubernetes]# kubectl get endpoints kubernetes -o yaml
apiVersion: v1
kind: Endpoints
metadata:
creationTimestamp: "2020-09-21T01:32:42Z"
managedFields:
- apiVersion: v1
fieldsType: FieldsV1
fieldsV1:
f:subsets: {}
manager: kube-apiserver
operation: Update
time: "2020-09-21T01:36:34Z"
name: kubernetes
namespace: default
resourceVersion: "6345968"
selfLink: /api/v1/namespaces/default/endpoints/kubernetes
uid: bbff3c4f-c8b5-42c5-a52a-e43a62de4926
subsets:
- addresses:
- ip: 192.168.104.111
- ip: 192.168.104.117
ports:
- name: https
port: 6443
protocol: TCP
default命名空间下的kubernetes service和kubernetes endpoint是由apiserver自动生成,通过修改apiserver代码把endpoint的缺失字段nodeName补上
# k8s.io/kubernetes/pkg/master/reconcilers/lease.go
func (r *leaseEndpointReconciler) doReconcile(serviceName string, endpointPorts []corev1.EndpointPort, reconcilePorts bool) error {
......
if !formatCorrect || !ipCorrect {
// repopulate the addresses according to the expected IPs from etcd
e.Subsets[0].Addresses = make([]corev1.EndpointAddress, len(masterIPs))
for ind, ip := range masterIPs {
# 增加NodeName
e.Subsets[0].Addresses[ind] = corev1.EndpointAddress{IP: ip, NodeName: utilpointer.StringPtr(ip)}
}
// UpdateLease resets the TTL on a master IP in storage
func (s *storageLeases) UpdateLease(ip string) error {
key := path.Join(s.baseKey, ip)
return s.storage.GuaranteedUpdate(apirequest.NewDefaultContext(), key, &corev1.Endpoints{}, true, nil, func(input kruntime.Object, respMeta storage.ResponseMeta) (kruntime.Object, *uint64, error) {
// just make sure we've got the right IP set, and then refresh the TTL
existing := input.(*corev1.Endpoints)
existing.Subsets = []corev1.EndpointSubset{
{
# 增加NodeName
Addresses: []corev1.EndpointAddress{\{IP: ip, NodeName: utilpointer.StringPtr(ip)\}},
},
}
编译新镜像GO111MODULE=off KUBE_GIT_TREE_STATE=clean KUBE_GIT_VERSION=v1.18.3 KUBE_BUILD_PLATFORMS=linux/amd64 make release-images
为default/kubernetes service设置topologyKeys
# kubectl edit svc kubernetes
spec:
......
# 新增topologyKeys
topologyKeys:
- kubernetes.io/hostname
- '*'
default/kubernetes endpoint对应的endpointslices有生成topology出来
# kubectl get endpointslices.discovery.k8s.io kubernetes -o yaml
addressType: IPv4
apiVersion: discovery.k8s.io/v1beta1
endpoints:
- addresses:
- 192.168.104.111
conditions:
ready: true
topology:
kubernetes.io/hostname: 192.168.104.111
- addresses:
- 192.168.104.117
conditions:
ready: true
topology:
kubernetes.io/hostname: 192.168.104.117
kind: EndpointSlice
Issue
启用了EndpointSlice和ServiceTopology后,不支持service配置外部的endpoints,kube-proxy没有生成对应的iptables规则
示例yaml:
apiVersion: v1
kind: Service
metadata:
name: rgw
namespace: ceph
spec:
ports:
- name: rgw
nodePort: 9000
port: 9000
protocol: TCP
targetPort: 9000
sessionAffinity: None
type: NodePort
---
apiVersion: v1
kind: Endpoints
metadata:
name: rgw
namespace: ceph
subsets:
- addresses:
- ip: 1.1.1.1
- ip: 1.1.1.2
ports:
- name: rgw
port: 22
protocol: TCP
查阅代码,调用流程如下:
syncProxyRules -> proxier.endpointsMap.Update(proxier.endpointsChanges) ->
em.apply -> ect.checkoutChanges()
func (ect *EndpointChangeTracker) checkoutChanges() []*endpointsChange {
ect.lock.Lock()
defer ect.lock.Unlock()
metrics.EndpointChangesPending.Set(0)
//如果启用endpointSlices的话,在初始化EndpointChangeTracker对象的时候,endpointSliceCache就不会是nil了
if ect.endpointSliceCache != nil {
//返回一个[]*endpointsChange,外部的endpoints也包含在内
return ect.endpointSliceCache.checkoutChanges()
}
changes := []*endpointsChange{}
for _, change := range ect.items {
changes = append(changes, change)
}
ect.items = make(map[types.NamespacedName]*endpointsChange)
return changes
}
//初始化EndpointChangeTracker对象
// NewEndpointChangeTracker initializes an EndpointsChangeMap
func NewEndpointChangeTracker(hostname string, makeEndpointInfo makeEndpointFunc, isIPv6Mode *bool, recorder record.EventRecorder, endpointSlicesEnabled bool) *EndpointChangeTracker {
ect := &EndpointChangeTracker{
hostname: hostname,
items: make(map[types.NamespacedName]*endpointsChange),
makeEndpointInfo: makeEndpointInfo,
isIPv6Mode: isIPv6Mode,
recorder: recorder,
lastChangeTriggerTimes: make(map[types.NamespacedName][]time.Time),
}
//启用endpointSlices的话,就会初始化endpointSliceCache
if endpointSlicesEnabled {
ect.endpointSliceCache = NewEndpointSliceCache(hostname, isIPv6Mode, recorder, makeEndpointInfo)
}
return ect
}
进入ect.endpointSliceCache.checkoutChanges()
// checkoutChanges returns a list of all endpointsChanges that are
// pending and then marks them as applied.
func (cache *EndpointSliceCache) checkoutChanges() []*endpointsChange {
changes := []*endpointsChange{}
cache.lock.Lock()
defer cache.lock.Unlock()
for serviceNN, esTracker := range cache.trackerByServiceMap {
if len(esTracker.pending) == 0 {
continue
}
change := &endpointsChange{}
change.previous = cache.getEndpointsMap(serviceNN, esTracker.applied)
for name, sliceInfo := range esTracker.pending {
if sliceInfo.Remove {
delete(esTracker.applied, name)
} else {
esTracker.applied[name] = sliceInfo
}
delete(esTracker.pending, name)
}
change.current = cache.getEndpointsMap(serviceNN, esTracker.applied)
changes = append(changes, change)
}
return changes
}
会解析所有的endpointSliceCache,然后组装返回[]*endpointsChange,意思是需要手工创建EndpointSlice,才能够生成对应的iptables规则
---
addressType: IPv4
apiVersion: discovery.k8s.io/v1beta1
endpoints:
- addresses:
- 1.1.1.1
conditions:
ready: true
- addresses:
- 1.1.1.2
conditions:
ready: true
kind: EndpointSlice
metadata:
generateName: rgw-
generation: 3
labels:
endpointslice.kubernetes.io/managed-by: endpointslice-controller.k8s.io
kubernetes.io/service-name: rgw
name: rgw-k8fjf
namespace: ceph
ports:
- name: rgw
port: 22
protocol: TCP
参考链接
- https://kubernetes.io/docs/concepts/services-networking/endpoint-slices/
- https://www.cnblogs.com/gaorong/p/10925480.html
「真诚赞赏,手留余香」
真诚赞赏,手留余香
使用微信扫描二维码完成支付