k8s支持使用ssh隧道来保护从控制面到节点的通信路径。在这种配置下,apiserver建立一个到集群中各节点的ssh隧道并通过这个隧道传输所有到kubelet、节点、pod或服务的请求。然而ssh隧道目前已被弃用,Konnectivity是对此通信通道的替代品,它提供TCP层的代理,包括两部分:Konnectivity server和Konnectivity agent,分别运行在控制面网络和节点网络中。启动Konnectivity服务后,所有控制面到节点的通信都通过这些连接传输。
将用户发起的网络流量与 API 服务器发起的流量分开是一个有用的概念。云提供商希望控制 API 服务器到 Pod、节点和服务网络流量的实现方式。云提供商可以选择在隔离网络上运行他们的 API 服务器(控制网络)和集群节点(集群网络)。
目标: 允许将控制网络与集群网络隔离
值得注意的是: 节点网络可能与主网络完全脱节, 它可能具有与主网络或其他网络隔离方式重叠的IP地址.应假设集群和主网络之间的直接 IP 可路由性。以后的版本可能会放宽对所有节点的要求。
目前,支持三种KAS的出站请求类型: Master、Etcd、Cluster. 这三种网络被称为Network Context
type EgressType int
const (
// Master is the EgressType for traffic intended to go to the control plane.
Master EgressType = iota
// Etcd is the EgressType for traffic intended to go to Kubernetes persistence store.
Etcd
// Cluster is the EgressType for traffic intended to go to the system being managed by Kubernetes.
Cluster
)
// NetworkContext is the struct used by Kubernetes API Server to indicate where it intends traffic to be sent.
type NetworkContext struct {
// EgressSelectionName is the unique name of the
// EgressSelectorConfiguration which determines
// the network we route the traffic to.
EgressSelectionName EgressType
}整个项目中,server和agent是双向流模式的gRPC服务.这里需要了解gRPC服务的一些底层原理和使用.
proxy server是一个grpc服务器, 它对外一共提供两种服务: ProxyService和AgentService,都是双向流模式的gRPC服务.
service ProxyService {
rpc Proxy(stream Packet) returns (stream Packet) {}
}
service AgentService {
// Agent Identifier?
rpc Connect(stream Packet) returns (stream Packet) {}
}
message Packet {
PacketType type = 1;
oneof payload {
DialRequest dialRequest = 2;
DialResponse dialResponse = 3;
Data data = 4;
CloseRequest closeRequest = 5;
CloseResponse closeResponse = 6;
CloseDial closeDial = 7;
}
}从定义就可以看出,ProxyService是提供给apiserver等需要代理的客户端的,而AgentService是提供给agent来建立反向代理的.
PacketType一共有6种类型.
-
DialRequest: 发起对后端服务的访问请求(这个后端服务就是agent要代理的服务),该数据包字段有protocol、后端服务的地址address、一个客户端连接标识random.
-
DialResponse: 当proxy agent收到DialRequest数据包时,返回connectID和random. connectID是与后端服务建立的TCP连接的标识.
-
CloseRequest: 断开连接请求,数据包中只有一个connectID.
-
CloseReqspnse: 断开连接响应,数据包中有错误信息error和connectID.
-
CloseDial: 只有一个DialRequse中的random
-
Data: 这个是正常的数据包.
A gRPC proxy server, receives requests from the API server and forwards to the agent.
proxy server一共提供两种gRPC服务,一种是ProxyService,代理上游客户端连接,一种是AgentService,供下游proxy agent反向连接使用.
BackendManager是proxy server管理与proxy agent的gRPC连接的组件
Proxy server与proxy agent的gRPC连接被封装成一个backend结构体,它实现了Backend接口.
type Backend interface {
Send(p *client.Packet) error
Context() context.Context
}
type backend struct {
// TODO: this is a multi-writer single-reader pattern, it's tricky to
// write it using channel. Let's worry about performance later.
mu sync.Mutex // mu protects conn
conn agent.AgentService_ConnectServer
}可以看到,里面有一个AgentService服务Connect方法的流引用.所以可以把Backend当成一个proxy server和proxy agent的gRPC连接.
BackendManager的功能为: 根据proxy策略选择一个Backend,存储所有的Backend,检查Backend是否准备就绪.
根据不同的代理策略,一共有三种BackendManager实现,分别以不同的方式管理着Backend.
首先三种代理策略分别为:
- default: 这种策略下proxy server会随机选择一个健康的backend建立隧道(这个建立隧道是proxy agent到后端服务的TCP连接,而不是proxy server和proxy agent的gRPC连接, 这个gRPC连接是通过proxy agent反向建立的)
- destHost: 这种策略下,proxy server会选择一个主机名与request.Host相同的backend
- defaultRoute: 这种策略下,只会将流量转发到已通过agent identifier显式表明它们为默认路由提供服务的代理.
可以看到,不同的manager的唯一区别就是Backend方法的实现,即如何选择backend.而存储Backend的BackendStroage实现方式只有一种.
// DefaultBackendStorage is the default backend storage.
type DefaultBackendStorage struct {
mu sync.RWMutex //protects the following
// A map between agentID and its grpc connections.
// For a given agent, ProxyServer prefers backends[agentID][0] to send
// traffic, because backends[agentID][1:] are more likely to be closed
// by the agent to deduplicate connections to the same server.
backends map[string][]*backend
// agentID is tracked in this slice to enable randomly picking an
// agentID in the Backend() method. There is no reliable way to
// randomly pick a key from a map (in this case, the backends) in
// Golang.
agentIDs []string
// defaultRouteAgentIDs tracks the agents that have claimed the default route.
defaultRouteAgentIDs []string
random *rand.Rand
// idTypes contains the valid identifier types for this
// DefaultBackendStorage. The DefaultBackendStorage may only tolerate certain
// types of identifiers when associating to a specific BackendManager,
// e.g., when associating to the DestHostBackendManager, it can only use the
// identifiers of types, IPv4, IPv6 and Host.
idTypes []pkgagent.IdentifierType
}- backends: 存储着agentID到与它的gRPC连接的映射.可能觉得proxy agent可以拥有相同的agentID,所以这里backend为slice.但相同agentID的backend,proxy server只选择第一个去使用.
- agentIDs: 存储着已经建立连接的agentID
- defaultRouteAgentIDs: 存储着身份标识为defaultRoute的agentID.
- random: 随机数生成器.用来随机返回某个agentID下的backend供proxy server使用
- idTypes: 存储着该manager所能接受的合法的agent身份标识.比如DestHostBackendManager只能存储IPv4、IPv6、Host类型的agent.所以当创建DefaultBackendStorage的时候,只需要传入所能接受的idTypes集合就行了.
AddBackend、RemoveBackend和NumBackend方法的逻辑也很简单.
除了实现了BackendStorage接口中的三个方法外,DefaultBackendStorage还实现了一个GetRandomBackend()方法,用来随机返回已经存储的某一个agentID下的backend.
还有一个RedinessManager下的Ready()方法, 该方法就判断backend数量是否为0.
由前面得知,不同的BackendManager只是Backend()方法的实现逻辑不一样,即从Storage中获取Backend的方式不同.而他们后端的存储统一使用DefaultBackendManager.所以他们有统一的结构体定义,即: 内嵌一个DefaultBackendStorage结构体.
type XXXBackendManager struct {
*DefaultBackendStorae
}DefaultBackendManager是从DefaultBackendManager中随机获取一个backend.即:随机获取一个gRPC连接传递信息.它支持的IdentifierType只有UID类型.
他所支持的IdentifierType有IPv4、IPv6、Host.
DestHostBackendManager就是从context中获取k-v信息,然后去backends里面找.
他所支持的IdentifierType只有default-route.
而他获取backend的方式就是随机从defaultRouteAgentID里面获取一个agentID,返回该连接.以DefaultRoute方式代理的agentID单独存放在一个数组里.
ProxyClientConnection代表了逻辑上的一个客户端代理连接,即:真正客户端到proxy server之间的连接.后端服务的所有数据都要通过proxy server返回给客户端.
type ProxyClientConnection struct {
Mode string
Grpc client.ProxyService_ProxyServer
HTTP io.ReadWriter
CloseHTTP func() error
connected chan struct{}
connectID int64
agentID string
start time.Time
backend Backend
}Mode: 客户端连接proxy server的方式, 支持两种: grpc和http-connect.
Grpc: 客户端以gRPC方式连接到proxy server时的流引用.
HTTP: 如果Mode为http-connect, proxy server返回给客户端的数据通过此方法返回.本质就是就是一个TCP连接
CloseHTTP: 当proxy agent返回给proxy server一个CloseResponse时候,如果proxy server时http-connect的方式,将会调用此方法关闭http连接
connected: 用来通知隧道是否已经打通, 一般收到DialResponse时候会把该通道关闭,用来通知别人隧道已经打通.
backend: 前端连接对应的后端连接,客户端发送给proxy server的数据, proxy server要找到对应的后端连接才能把数据发送到正确的proxy agent.
该结构体只有一个send()方法,用来返回给客户端数据.
type PendingDialManager struct {
mu sync.RWMutex
pendingDial map[int64]*ProxyClientConnection
}
// ProxyServer
type ProxyServer struct {
// BackendManagers contains a list of BackendManagers
BackendManagers []BackendManager
// Readiness reports if the proxy server is ready, i.e., if the proxy
// server has connections to proxy agents (backends). Note that the
// proxy server does not check the healthiness of the connections,
// though the proxy agents do, so this readiness check might report
// ready but there is no healthy connection.
Readiness ReadinessManager
// fmu protects frontends.
fmu sync.RWMutex
// conn = Frontend[agentID][connID]
frontends map[string]map[int64]*ProxyClientConnection
PendingDial *PendingDialManager
serverID string // unique ID of this server
serverCount int // Number of proxy server instances, should be 1 unless it is a HA server.
// Allows a special debug flag which warns if we write to a full transfer channel
warnOnChannelLimit bool
// agent authentication
AgentAuthenticationOptions *AgentTokenAuthenticationOptions
proxyStrategies []ProxyStrategy
}BackendManagers: 不同代理类型的backendmanager,即: proxy server为不同的代理方式提供不同的backend存储和管理方式.
Readiness: 检查proxy server是否就绪,即是否和proxy agent有连接,而不检查连接是否正常(proxy agent会检查),所以proxy server可能就绪但连接不健康.
frontends: 存储着proxy server到真正客户端的连接.通过frontends[agentID][connID]来唯一确定一个真正客户端到proxy server的连接.connID是proxy agent与真正后端服务建立的tcp连接.
PendingDial: 已经发送DialRequest并等待响应的客户端连接,隧道成功建立后客户端连接将由frontends纳管.
AgentAuthenticationOptions: 用来进行身份验证的
proxyStrategies: 存储着该proxy server的代理方式, 不同的存储方式会有不同的BackendManager负责后端连接, 该字段在初始化时候会给出.
通过结构定义可以看到: proxy server同时管理着到后端代理proxy agent的gRPC连接和与真正前面的连接
proxy server和proxy agent之间的gRPC连接通过BackendManager管理着,proxy server实现的addBackend、getBackend和removeBackend方法也都是通过遍历这些manager然后调用他们底层的增删改方法实现的.
在proxy agent反向连接proxy server的时候,会在header传入agentID和identifiers字段,proxy server就是根据这些标识来把gRPC连接存储到对应的BackendManager中.
通过agentID和connID来唯一确定一个客户端和proxy server之间的连接,即: ProxyClientConneciton, 前端连接都存储在frontedns变量中.
我们知道多个客户端可以发送请求到同一个proxy server,所以前端连接和后端gRPC连接是 1:n 的关系.
通过ProxyClientConnection的backend字段可以拿到对应的后端连接
也可以给定agentID和backend查找所有对应的前端连接.
proxy server一共提供两种gRPC方法: 一个用于proxy agent的Connect方法,一个用于代理客户端的Proxy方法.
当proxy agent实例启动的时候,一开始就会建立与Proxy server的反向连接, 然后调用proxy server的connect服务.
-
该服务首先从gRPC流中拿到agentID
-
如果proxy server启动了认证agent的选项, 则会从gRPC流中拿到stream的context信息去进行认证.
-
然后把自己的serverID和serverCount信息通过stream发送给proxy agent,再把该gRPC流存储到BackendManager中
h := metadata.Pairs(header.ServerID, s.serverID, header.ServerCount, strconv.Itoa(s.serverCount)) if err := stream.SendHeader(h); err != nil { klog.ErrorS(err, "Failed to send server count back to agent", "agentID", agentID) return err } backend := s.addBackend(agentID, stream) defer s.removeBackend(agentID, stream)
-
此时gRPC连接已经准备就绪,开始异步处理来自proxy agent的数据.一个协程专门用来接受来自proxy agent的数据,一个协程专门来处理数据.因此每一个proxy agent连接到proxy server后,proxy server都会开启两个协程为其服务.
可以看到只要proxy agent与proxy server之间的gRPC连接建立, 它的关闭不由proxy server控制,而是由proxy agent决定,当proxy agent关闭数据流时候, 即err == io.EOF,这两个协程才会退出.协程退出后,针对该gRPC流的Connect服务结束,proxy server会从BackendManager中移除该流引用.
下面来看一下proxy server是怎么处理来自proxy agent的数据包的:
来自proxy agent的数据包一共有三种类型: DialResponse、Data、CloseResponse.
-
DialResponse数据包
首先从PendingDial中拿到等待连接响应的前端连接frontend
然后把数据包返回给客户端,并从PendingDial中移除该客户端连接,表示隧道已经打通
最后把前端连接由fronteds纳管,由agentID和ConnectID唯一标识.
-
Data数据包
该数据包就是普通的数据包,通过frontend返回给客户端即可.
-
CloseResponse数据包
如果是关闭连接的响应数据包,proxy server会返回给客户端响应并移除前端连接,注意此时只是移除了前端连接,proxy server和proxy agent的gRPC连接没有移除.为了后面的连接复用.而proxy agent收到关闭请求数据包后也只是移除与后端服务的tcp连接.
当proxy agent关闭数据流后,proxy server会把所有建立在此gRPC连接之上的前端连接都清除掉.
proxy服务提供给gRPC客户端使用,用来代理来自客户端的连接.连接准备过程和Connect服务很类似,只不过一个处理proxy agent的连接,一个是处理客户端的连接.
下面是如何proxy server如何处理来自客户端的数据的:
来自客户端的数据有四种: DialRequest、Data、CloseRequest、DialClose
-
DialRequest数据包
来自客户端的第一个数据包应该是DialRequest,因为需要首先建立到真正后端服务的连接,打通隧道,才可以进行数据的传输.
首先是根据Address获取到与proxy agent的连接backend
然后封装ProxyCLientConnection,并存储到PendingDial中,这里面存放都都是等待连接响应的前端连接.
最后把连接请求通过backend发送到特定的proxy agent取打通隧道.
-
Data数据包
这个数据包处理很简单,就是通过backend.Send()把数据包发送给proxy agent.(backend和connID会存放在局部变量中,再次使用backend时候不用每次从BackendManager中去get)
-
CloseRequest数据包
依旧是调用backend.Send()把数据包发送给proxy agent.
-
DialClose数据包
从PendingDial中移除给定的前端连接
当客户端关闭数据流后,Proxy服务到此结束,两个协程也关闭.
从代码可以看到,该服务没有像Connect服务一样结束后,清除相应的连接.这是因为该服务是双向gRPC流模式,客户端关闭连接后可能还有数据发送过来,所以没有相应的清除规则, 把清除动作交给了proxy agent.
前面讲的两个服务都是gRPC服务,也就是说proxy server只能代理gRPC客户端,而Tunnel就是为了支持HTTP客户端而设计的
// Tunnel implements Proxy based on HTTP Connect, which tunnels the traffic to
// the agent registered in ProxyServer.
type Tunnel struct {
Server *ProxyServer
}它实现了ServeHTTP方法,即Tunnel本质就是一个http server handler.
它主要实现的逻辑就是从客户端读取数据,封装成gRPC服务器所能识别的数据包后,调用backend发送给proxy agent,数据包返回给客户端的写回操作则在Connect服务中处理来自proxy agent数据包的逻辑中实现.
-
首先客户端发起的http请求,method必须为connect.
The HTTP CONNECT method is used to create an HTTP tunnel through a proxy server. By sending an HTTP CONNECT request, the client asks the proxy server to forward the TCP connection to the desired destination.connect的作用就是将服务器作为代理,让服务器代替用户取访问其他网页,之后将数据返回给用户.因为是http协议的一部分,所以connect报文也是通过TCP连接发送给代理服务器的,如果代理服务器响应200 Cnnection Established表示连接建立成功,之后就可以发送正常的http请求给代理服务器了.
-
然后通过http请求头部host信息找到对应backend,发送DialRequset数据包
当然在发送数据包之前,也要像Proxy服务那样在PendingDial中添加ProxyClientConnection,以供数据返回使用.
HTTP中的conn是劫持客户端到proxy server的tcp连接.该功能只支持HTTP/1.x版本.
这样http连接的管理将由handler,即Tunnel纳管.因此需要在适当时候主动关闭连接.
-
接下来开始处理数据
当隧道已经打通后,即收到监听到connected通道被关闭的信号后,开始读取客户端请求,封装成Data数据包,调用相应backend发送数据.
-
关闭连接
当客户端数据发送完毕后,在给proxy agent发送一个CloseRequest数据包,表示关闭相应连接.
整个流程和Proxy服务类似,只不过gRPC客户端的连接请求需要自己发送,而HTTP客户端需要发送http connect请求,代理服务器通过http头部信息发送连接请求,而且收到的客户端数据也需要代理服务器封装成相应数据包才能通过gRPC连接发送给proxy agent.
A gRPC proxy agent, connects to the proxy and then allows traffic to be forwarded to it.
client运行在节点网络中, 它主动与运行在控制网络中的proxy server建立连接.可以把Client想象成一条封装好的到proxy server实例的连接.
type Client struct {
nextConnID int64
connManager *connectionManager
cs *ClientSet // the clientset that includes this AgentClient.
stream agent.AgentService_ConnectClient
agentID string
agentIdentifiers string
serverID string // the id of the proxy server this client connects to.
// connect opts
address string
opts []grpc.DialOption
conn *grpc.ClientConn
stopCh chan struct{}
// locks
sendLock sync.Mutex
recvLock sync.Mutex
probeInterval time.Duration // interval between probe pings
// file path contains service account token.
// token's value is auto-rotated by kubernetes, based on projected volume configuration.
serviceAccountTokenPath string
warnOnChannelLimit bool
}几个关键字段:
-
nextConnID: 标记下一次连接的connectID,此ConnctID是client与后端服务建立的tcp连接标识.一个client建立一个与proxy server的反向gRPC连接,多个与同一子网下的后端服务的TCP连接.而代理的这些TCP连接同一由connManager管理.
-
connManager: 即管理着connectID到TCP连接的映射,只不过这里的TCP连接被connContext结构体包装了一下.
// connContext tracks a connection from agent to node network. type connContext struct { conn net.Conn connID int64 cleanFunc func() dataCh chan []byte cleanOnce sync.Once warnChLim bool } type connectionManager struct { mu sync.RWMutex connections map[int64]*connContext }
-
stream: 它是client与proxy server建立连接后返回的流引用,用来和控制网络中的proxy server通信.Client的Send和Recv方法用的就是stream的send和recv, 是真正收发数据的实体.
-
address: 通常是proxy server外部负载均衡器的地址.
-
stopCh: 用来指示关闭client,就是一个无缓冲Channle.
-
conn: 这个是grpc.Dial()方法返回的连接,他的作用:
用来创建grpc客户端
通过本身GetState()方法检查连接状态,如果连接不正常,就回Close掉,并在ClientSet中清除自己.
调用Close()方法关闭gRPC连接
当通过newAgentClient函数创建一个Client时候,Client会通过自己的Connect函数创建到proxy server实例的grpc流.
client在建立连接的过程中(就是调用远程grpc server的connect方法)会把自己的agentID和agentIdentifiers通过stream的context发送给server, 因为proxy server要在BanckendStorage中存储来自agent的连接,这些相当于标识.
然后在返回的流引用中拿到proxy server返回的serverID和serverCount.(proxy server会在header中返回serverID和serverCount),并把serverCount返回,以供ClientSet判断是否还需要建立连接,具体过程在ClientSet讲解.至此, 一条连接就建立成功了.
连接建立后,开始真正的代理来自proxy server的数据,这些都是Serve()函数完成的.
该函数不断的Recv()数据包,然后根据数据包的类型去做相应的处理.
接收的数据包一共有三种类型:DIAL_REQ、DATA 、CLOSE_REQ,分别对应来自proxy server的拨号请求、数据包、关闭请求.
-
DialRequst: 当收到此数据包时,client会根据数据包中的address和protocol来建立与后端服务的tcp连接,然后把连接交给自己的connManager管理, 并将connID返回给proxy server,由它来管理.
connContext中的cleanFunc是关闭与后端tcp的连接,然后做相应的清除工作: 从connManager中移除此connContext, 发送给proxy server CloseResponse数据包.
当与后端服务连接建立完毕后,开起两个协程,remoteToProxy是从tcp连接中读取数据,然后返回给proxy server.
proxyToRemote的作用正好相反, 它从connContext中的dataCh字段中读取数据,然后写入tcp连接中,因为agent从gRPC流中读取的数据都会存在connContext中的dataCh字段中.
这里写入的时候需要注意一点: 如果没有返回错误,证明成功写入, 如果有错误但是返回成功写入的字节数
0< n < len(d)证明只成功写入了部分数据,需要重新写入剩下的部分.不得不说这两个名字起的很有歧义,我觉得应该是proxyToLocal和localToProxy.
-
Data: 如果是正常的Data数据包, 就从connManager中拿到对应connID的connContext,把数据写入context的缓存dataCh字段中.然后由上文提到的proxyToRemote函数消费.
-
CloseRequset: 如果是关闭与后端服务连接的请求数据包,从connManager中拿到响应connID的connContext,执行connContext的cleanup函数进行清理.
一个Client里面维护着多种连接: 一个gRPC连接,和多个与后端服务的TCP连接.Client的Close()方法会关闭gRPC连接,并关闭stopCh通道,使得监听这个通道的协程关闭.
client所有功能的开启是通过Serve()函数,此函数开启了三个协程:probe、proxyToRemote、remoteToproxy.其中probe函数是周期性的检测gRPC连接的状态,如果连接不正常,就回调用ClientSet的RemoveClient函数,该函数就是调用Client的Close函数并把Client从ClientSet中清除掉.
当Serve()函数收到stopCh信号后,也会执行defer退出函数,首先会遍历connManager中的TCP连接,执行cleanup函数把这些连接清除掉,返回给proxy server CloseRespne信息,proxy server会清除前端连接,然后调用ClientSet的RemoveClient函数,将client彻底清除掉.
所以一旦调用Client的Close()函数,那么所有的gRPC和TCP连接都会清除掉.同时也会在ClientSet中清除掉自己.
而如果Client收到CloseRequst数据包时,只会清除对应的与后端服务的tcp连接,并不会清除gRPC连接.
ClientSet包含一组client集合.是逻辑意义上的一个agent客户端.
为了保证proxy server的高可用, 一般会部署多个server副本, 每个副本有一个具体的serverID, 然后通过一个负载均衡器管理.而Client是与某个具体server通信的实例,通过上面结构体也可以看到它里面是有一个与某个具体server创建连接后返回的流引用和grpc.ClientConn.而ClientSet可以理解为是逻辑上的一个agent,因为一个agent要与所有的server副本建立连接,也就会有多个Client实例,所以ClientSet就是所有这些连接的集合.
type ClientSet struct {
mu sync.Mutex //protects the clients.
clients map[string]*Client // map between serverID and the client
// connects to this server.
agentID string // ID of this agent
address string // proxy server address. Assuming HA proxy server
serverCount int // number of proxy server instances, should be 1
// unless it is an HA server. Initialized when the ClientSet creates
// the first client.
syncInterval time.Duration // The interval by which the agent
// periodically checks that it has connections to all instances of the
// proxy server.
probeInterval time.Duration // The interval by which the agent
// periodically checks if its connections to the proxy server is ready.
syncIntervalCap time.Duration // The maximum interval
// for the syncInterval to back off to when unable to connect to the proxy server
dialOptions []grpc.DialOption
// file path contains service account token
serviceAccountTokenPath string
// channel to signal shutting down the client set. Primarily for test.
stopCh <-chan struct{}
agentIdentifiers string // The identifiers of the agent, which will be used
// by the server when choosing agent
warnOnChannelLimit bool
}三个time.Duration作用:
- syncInterval: 定期检查它是否与所有server实例建立连接的间隔
- probeInterval: 定期检查与所有server实例连接是否就绪的间隔
- syncIntervalCap: 当无法连接到server时,syncInterval 回退的最大间隔
其他字段:
-
agentIdentifiers: 是proxy agent的身份标识, 被proxy server用来选择proxy agent.一共有6种身份标识
const ( IPv4 IdentifierType = "ipv4" IPv6 IdentifierType = "ipv6" Host IdentifierType = "host" CIDR IdentifierType = "cidr" UID IdentifierType = "uid" DefaultRoute IdentifierType = "default-route" )
我们使用proxy agent功能实际上就是建立一个ClientSet实例,然后调用它的Serve()方法就可以了.Serve方法会开启一个协程,开始进行连接建立的同步过程.
func (cs *ClientSet) Serve() {
go cs.sync()
}这个函数不断的调用syncOnce()函数,并监听退出信号.如果收到退出信号会调用shutdown方法,该方法会清除所有存储的Client实例.
注意ClientSet的退出信号是外部传进来的,和Client使用的退出信号不是同一个.
所以这个方法的核心功能就是syncOnce()函数的功能.
一次同步过程所做的工作如下:
- 检查已经建立的Client数量和serverCount字段的对比.如果数量不够,证明还没有与所有的proxy server建立连接,此时就会new一个新的Client去connect负载均衡器的地址,负载均衡器会随机选择一个proxy server副本建立连接,并返回serverID和集群中的serverCount数量.
- 调用AddClient把建立的Client实例纳管进来.因为是随机选择的proxy server副本,所以很有可能已经存在Client实例与它建立了连接,AddClient会去做检查,如果已经存在,会返回错误,此时就调用Client的Close函数清除掉gRPC连接.
- 如果纳管成功,调用Client的Serve()函数开始工作.
ClientSet会不断检查serverCount字段和已经创建的Client数量,必要时去创建连接,开启服务,直到收到外部终止信号后停止服务.








































