国产成人精品18p,天天干成人网,无码专区狠狠躁天天躁,美女脱精光隐私扒开免费观看

kubernetes中kube-proxy的工作原理是什么

發(fā)布時(shí)間:2021-08-17 12:35 來(lái)源:億速云 閱讀:0 作者:chen 欄目: 服務(wù)器 歡迎投稿:712375056

本篇內容主要講解“kubernetes中kube-proxy的工作原理是什么”,感興趣的朋友不妨來(lái)看看。本文介紹的方法操作簡(jiǎn)單快捷,實(shí)用性強。下面就讓小編來(lái)帶大家學(xué)習“kubernetes中kube-proxy的工作原理是什么”吧!

kube-proxy & service必要說(shuō)明

說(shuō)到kube-proxy,就不得不提到k8s中service,下面對它們兩做簡(jiǎn)單說(shuō)明:

  • kube-proxy其實(shí)就是管理service的訪(fǎng)問(wèn)入口,包括集群內Pod到Service的訪(fǎng)問(wèn)和集群外訪(fǎng)問(wèn)service。

  • kube-proxy管理sevice的Endpoints,該service對外暴露一個(gè)Virtual IP,也成為Cluster IP, 集群內通過(guò)訪(fǎng)問(wèn)這個(gè)Cluster IP:Port就能訪(fǎng)問(wèn)到集群內對應的serivce下的Pod。

  • service是通過(guò)Selector選擇的一組Pods的服務(wù)抽象,其實(shí)就是一個(gè)微服務(wù),提供了服務(wù)的LB和反向代理的能力,而kube-proxy的主要作用就是負責service的實(shí)現。

  • service另外一個(gè)重要作用是,一個(gè)服務(wù)后端的Pods可能會(huì )隨著(zhù)生存滅亡而發(fā)生IP的改變,service的出現,給服務(wù)提供了一個(gè)固定的IP,而無(wú)視后端Endpoint的變化。

服務(wù)發(fā)現

k8s提供了兩種方式進(jìn)行服務(wù)發(fā)現:

  • 環(huán)境變量: 當你創(chuàng )建一個(gè)Pod的時(shí)候,kubelet會(huì )在該Pod中注入集群內所有Service的相關(guān)環(huán)境變量。需要注意的是,要想一個(gè)Pod中注入某個(gè)Service的環(huán)境變量,則必須Service要先比該Pod創(chuàng )建。這一點(diǎn),幾乎使得這種方式進(jìn)行服務(wù)發(fā)現不可用。

    比如,一個(gè)ServiceName為-master的Service,對應的ClusterIP:Port為10.0.0.11:6379,則其對應的環(huán)境變量為:

    	REDIS_MASTER_SERVICE_HOST=10.0.0.11
    	REDIS_MASTER_SERVICE_PORT=6379
    	REDIS_MASTER_PORT=tcp://10.0.0.11:6379
    	REDIS_MASTER_PORT_6379_TCP=tcp://10.0.0.11:6379
    	REDIS_MASTER_PORT_6379_TCP_PROTO=tcp
    	REDIS_MASTER_PORT_6379_TCP_PORT=6379
    	REDIS_MASTER_PORT_6379_TCP_ADDR=10.0.0.11


  • :這也是k8s官方強烈推薦的方式??梢酝ㄟ^(guò)cluster add-on的方式輕松的創(chuàng )建KubeDNS來(lái)對集群內的Service進(jìn)行服務(wù)發(fā)現。更多關(guān)于KubeDNS的內容,請查看我的博文:Kubernetes DNS Service技術(shù)研究 ,在此不再贅述。

發(fā)布(暴露)服務(wù)

k8s原生的,一個(gè)Service的ServiceType決定了其發(fā)布服務(wù)的方式。

  • ClusterIP:這是k8s默認的ServiceType。通過(guò)集群內的ClusterIP在內部發(fā)布服務(wù)。

  • NodePort:這種方式是常用的,用來(lái)對集群外暴露Service,你可以通過(guò)訪(fǎng)問(wèn)集群內的每個(gè)NodeIP:NodePort的方式,訪(fǎng)問(wèn)到對應Service后端的Endpoint。

  • LoadBalancer: 這也是用來(lái)對集群外暴露服務(wù)的,不同的是這需要Cloud Provider的支持,比如AWS等。

  • ExternalName:這個(gè)也是在集群內發(fā)布服務(wù)用的,需要借助KubeDNS(version >= 1.7)的支持,就是用KubeDNS將該service和ExternalName做一個(gè)Map,KubeDNS返回一個(gè)CNAME記錄。

##kube-proxy內部原理

kube-proxy當前實(shí)現了兩種proxyMode:userspace和iptables。其中userspace mode是v1.0及之前版本的默認模式,從v1.1版本中開(kāi)始增加了iptables mode,在v1.2版本中正式替代userspace模式成為默認模式。

###userspace mode userspace是在用戶(hù)空間,通過(guò)kube-proxy來(lái)實(shí)現service的代理服務(wù)。廢話(huà)不多說(shuō),其原理如下如圖所示:

可見(jiàn),這種mode最大的問(wèn)題是,service的請求會(huì )先從用戶(hù)空間進(jìn)入內核iptables,然后再回到用戶(hù)空間,由kube-proxy完成后端Endpoints的選擇和代理工作,這樣流量從用戶(hù)空間進(jìn)出內核帶來(lái)的性能損耗是不可接受的。這也是k8s v1.0及之前版本中對kube-proxy質(zhì)疑最大的一點(diǎn),因此社區就開(kāi)始研究iptables mode。

####Example

$ kubectl get service
NAME             LABELS                                    SELECTOR              IP(S)            PORT(S)
kubernetes       component=apiserver,provider=kubernetes   <none>                10.254.0.1       443/TCP
ssh-service1     name=ssh,role=service                     ssh-service=true      10.254.132.107   2222/TCP

$ kubectl describe service ssh-service1 
Name:			ssh-service1
Namespace:		default
Labels:			name=ssh,role=service
Selector:		ssh-service=true
Type:			LoadBalancer
IP:			10.254.132.107
Port:			<unnamed>	2222/TCP
NodePort:		<unnamed>	30239/TCP
Endpoints:		<none>
Session Affinity:	None
No events.

NodePort的工作原理與ClusterIP大致相同,發(fā)送到某個(gè)NodeIP:NodePort的請求,通過(guò)iptables重定向到kube-proxy對應的端口(Node上的隨機端口)上,然后由kube-proxy再將請求發(fā)送到其中的一個(gè)Pod:TargetPort。

這里,假如Node的ip為10.0.0.5,則對應的iptables如下:

$ sudo iptables -S -t nat
...
-A KUBE-NODEPORT-CONTAINER -p tcp -m comment --comment "default/ssh-service1:" -m tcp --dport 30239 -j REDIRECT --to-ports 36463
-A KUBE-NODEPORT-HOST -p tcp -m comment --comment "default/ssh-service1:" -m tcp --dport 30239 -j DNAT --to-destination 10.0.0.5:36463
-A KUBE-PORTALS-CONTAINER -d 10.254.132.107/32 -p tcp -m comment --comment "default/ssh-service1:" -m tcp --dport 2222 -j REDIRECT --to-ports 36463
-A KUBE-PORTALS-HOST -d 10.254.132.107/32 -p tcp -m comment --comment "default/ssh-service1:" -m tcp --dport 2222 -j DNAT --to-destination 10.0.0.5:36463

可見(jiàn):訪(fǎng)問(wèn)10.0.0.5:30239端口會(huì )被轉發(fā)到node上的36463端口(隨機監聽(tīng)端口)。而且在訪(fǎng)問(wèn)clusterIP 10.254.132.107的2222端口時(shí),也會(huì )把請求轉發(fā)到本地的36463端口。 36463端口實(shí)際被kube-proxy所監聽(tīng),將流量進(jìn)行導向到后端的pod上。

###iptables mode 另一種mode是iptables,它完全利用內核iptables來(lái)實(shí)現service的代理和LB。是v1.2及之后版本默認模式,其原理圖如下所示:

iptables mode因為使用iptable NAT來(lái)完成轉發(fā),也存在不可忽視的性能損耗。另外,如果集群中存在上萬(wàn)的Service/Endpoint,那么Node上的iptables rules將會(huì )非常龐大,性能還會(huì )再打折扣。

這也導致,目前大部分企業(yè)用k8s上生產(chǎn)時(shí),都不會(huì )直接用kube-proxy作為服務(wù)代理,而是通過(guò)自己開(kāi)發(fā)或者通過(guò)Ingress Controller來(lái)集成HAProxy, Nginx來(lái)代替kube-proxy。

####Example iptables的方式則是利用了linux的iptables的nat轉發(fā)進(jìn)行實(shí)現。

apiVersion: v1
kind: Service
metadata:
  labels:
    name: 
    role: service
  name: mysql-service
spec:
  ports:
    - port: 3306
      targetPort: 3306
      nodePort: 30964
  type: NodePort
  selector:
    mysql-service: "true"

mysql-service對應的nodePort暴露出來(lái)的端口為30964,對應的cluster IP(10.254.162.44)的端口為3306,進(jìn)一步對應于后端的pod的端口為3306。

mysql-service后端代理了兩個(gè)pod,ip分別是192.168.125.129和192.168.125.131。先來(lái)看一下iptables。

$iptables -S -t nat
...
-A PREROUTING -m comment --comment "kubernetes service portals" -j KUBE-SERVICES
-A OUTPUT -m comment --comment "kubernetes service portals" -j KUBE-SERVICES
-A POSTROUTING -m comment --comment "kubernetes postrouting rules" -j KUBE-POSTROUTING
-A KUBE-MARK-MASQ -j MARK --set-xmark 0x4000/0x4000
-A KUBE-NODEPORTS -p tcp -m comment --comment "default/mysql-service:" -m tcp --dport 30964 -j KUBE-MARK-MASQ
-A KUBE-NODEPORTS -p tcp -m comment --comment "default/mysql-service:" -m tcp --dport 30964 -j KUBE-SVC-67RL4FN6JRUPOJYM
-A KUBE-SEP-ID6YWIT3F6WNZ47P -s 192.168.125.129/32 -m comment --comment "default/mysql-service:" -j KUBE-MARK-MASQ
-A KUBE-SEP-ID6YWIT3F6WNZ47P -p tcp -m comment --comment "default/mysql-service:" -m tcp -j DNAT --to-destination 192.168.125.129:3306
-A KUBE-SEP-IN2YML2VIFH5RO2T -s 192.168.125.131/32 -m comment --comment "default/mysql-service:" -j KUBE-MARK-MASQ
-A KUBE-SEP-IN2YML2VIFH5RO2T -p tcp -m comment --comment "default/mysql-service:" -m tcp -j DNAT --to-destination 192.168.125.131:3306
-A KUBE-SERVICES -d 10.254.162.44/32 -p tcp -m comment --comment "default/mysql-service: cluster IP" -m tcp --dport 3306 -j KUBE-SVC-67RL4FN6JRUPOJYM
-A KUBE-SERVICES -m comment --comment "kubernetes service nodeports; NOTE: this must be the last rule in this chain" -m addrtype --dst-type LOCAL -j KUBE-NODEPORTS
-A KUBE-SVC-67RL4FN6JRUPOJYM -m comment --comment "default/mysql-service:" -m statistic --mode random --probability 0.50000000000 -j KUBE-SEP-ID6YWIT3F6WNZ47P
-A KUBE-SVC-67RL4FN6JRUPOJYM -m comment --comment "default/mysql-service:" -j KUBE-SEP-IN2YML2VIFH5RO2T

首先如果是通過(guò)node的30964端口訪(fǎng)問(wèn),則會(huì )進(jìn)入到以下鏈:

-A KUBE-NODEPORTS -p tcp -m comment --comment "default/mysql-service:" -m tcp --dport 30964 -j KUBE-MARK-MASQ
-A KUBE-NODEPORTS -p tcp -m comment --comment "default/mysql-service:" -m tcp --dport 30964 -j KUBE-SVC-67RL4FN6JRUPOJYM

然后進(jìn)一步跳轉到KUBE-SVC-67RL4FN6JRUPOJYM的鏈:

-A KUBE-SVC-67RL4FN6JRUPOJYM -m comment --comment "default/mysql-service:" -m statistic --mode random --probability 0.50000000000 -j KUBE-SEP-ID6YWIT3F6WNZ47P
-A KUBE-SVC-67RL4FN6JRUPOJYM -m comment --comment "default/mysql-service:" -j KUBE-SEP-IN2YML2VIFH5RO2T

這里利用了iptables的–probability的特性,使連接有50%的概率進(jìn)入到KUBE-SEP-ID6YWIT3F6WNZ47P鏈,50%的概率進(jìn)入到KUBE-SEP-IN2YML2VIFH5RO2T鏈。

KUBE-SEP-ID6YWIT3F6WNZ47P的鏈的具體作用就是將請求通過(guò)DNAT發(fā)送到192.168.125.129的3306端口。

-A KUBE-SEP-ID6YWIT3F6WNZ47P -s 192.168.125.129/32 -m comment --comment "default/mysql-service:" -j KUBE-MARK-MASQ
-A KUBE-SEP-ID6YWIT3F6WNZ47P -p tcp -m comment --comment "default/mysql-service:" -m tcp -j DNAT --to-destination 192.168.125.129:3306

同理KUBE-SEP-IN2YML2VIFH5RO2T的作用是通過(guò)DNAT發(fā)送到192.168.125.131的3306端口。

-A KUBE-SEP-IN2YML2VIFH5RO2T -s 192.168.125.131/32 -m comment --comment "default/mysql-service:" -j KUBE-MARK-MASQ
-A KUBE-SEP-IN2YML2VIFH5RO2T -p tcp -m comment --comment "default/mysql-service:" -m tcp -j DNAT --to-destination 192.168.125.131:3306

分析完nodePort的工作方式,接下里說(shuō)一下clusterIP的訪(fǎng)問(wèn)方式。 對于直接訪(fǎng)問(wèn)cluster IP(10.254.162.44)的3306端口會(huì )直接跳轉到KUBE-SVC-67RL4FN6JRUPOJYM。

-A KUBE-SERVICES -d 10.254.162.44/32 -p tcp -m comment --comment "default/mysql-service: cluster IP" -m tcp --dport 3306 -j KUBE-SVC-67RL4FN6JRUPOJYM

接下來(lái)的跳轉方式同NodePort方式。

免責聲明:本站發(fā)布的內容(圖片、視頻和文字)以原創(chuàng )、來(lái)自本網(wǎng)站內容采集于網(wǎng)絡(luò )互聯(lián)網(wǎng)轉載等其它媒體和分享為主,內容觀(guān)點(diǎn)不代表本網(wǎng)站立場(chǎng),如侵犯了原作者的版權,請告知一經(jīng)查實(shí),將立刻刪除涉嫌侵權內容,聯(lián)系我們QQ:712375056,同時(shí)歡迎投稿傳遞力量。

无码无套少妇毛多18P| 亚洲国产精久久久久久久| 好男人在线影院官网WWW| 国产尤物AV尤物在线看| 开心久久婷婷综合中文字幕| 久久久国产精品|