Kubernetes K8S之CPU和記憶體資源限制詳解

 

Kubernetes K8S之CPU和記憶體資源限制詳解

 

Pod資源限制

備註:CPU單位換算:100m CPU,100 milliCPU 和 0.1 CPU 都相同;精度不能超過 1m。1000m CPU = 1 CPU。

官網地址:

1 https://kubernetes.io/zh/docs/tasks/configure-pod-container/assign-cpu-resource/
2 https://kubernetes.io/zh/docs/tasks/configure-pod-container/assign-memory-resource/

Kubernetes對資源的限制實際上是通過cgroup來控制的,cgroup是容器的一組用來控制內核如何運行進程的相關屬性集合。針對記憶體、CPU和各種設備都有對應的cgroup。

默認情況下,Pod運行沒有CPU和記憶體的限額。這意味著系統中的任何Pod將能夠像執行Pod所在節點機器一樣,可以消耗足夠多的CPU和記憶體。一般會針對某些應用的Pod資源進行資源限制,這個資源限制是通過resources的requests【要分配的資源】和limits【最大使用資源】來實現的

 

CPU資源限制示例
 1 # cat cpu-request-limit.yaml
 2 apiVersion: v1
 3 kind: Pod
 4 metadata:
 5   name: cpu-demo
 6   namespace: cpu-example
 7 spec:
 8   containers:
 9   - name: cpu-demo-ctr
10     image: vish/stress
11     resources:
12       limits:
13         cpu: "1"
14       requests:
15         cpu: "0.5"
16     args:
17     - -cpus
18     - "2"

配置文件的 args 部分提供了容器啟動時的參數。-cpus 「2」參數告訴容器嘗試使用 2 個 CPU。

 

記憶體資源限制示例
 1 # memory-request-limit.yaml
 2 apiVersion: v1
 3 kind: Pod
 4 metadata:
 5   name: memory-demo
 6   namespace: mem-example
 7 spec:
 8   containers:
 9   - name: memory-demo-ctr
10     image: polinux/stress
11     resources:
12       limits:
13         memory: "200Mi"
14       requests:
15         memory: "100Mi"
16     command: ["stress"]
17     args: ["--vm", "1", "--vm-bytes", "150M", "--vm-hang", "1"]

配置文件的 args 部分提供了容器啟動時的參數。 "--vm-bytes", "150M" 參數告知容器嘗試分配 150 MiB 記憶體。不允許args中的啟動記憶體大於limits限制記憶體

 

namespace資源限制

備註:CPU單位換算:100m CPU,100 milliCPU 和 0.1 CPU 都相同;精度不能超過 1m。1000m CPU = 1 CPU。

官網地址:

https://kubernetes.io/zh/docs/tasks/administer-cluster/manage-resources/

 

為命名空間配置記憶體和 CPU 配額

怎麼為命名空間設置容器可用的記憶體和 CPU 總量。你可以通過 ResourceQuota 對象設置配額,使用 ResourceQuota 限制命名空間中所有容器的記憶體請求總量、記憶體限制總量、CPU 請求總量和CPU 限制總量

如果你想對單個容器而不是所有容器進行限制,就請使用 LimitRange。

示例:

 1 # cat quota-mem-cpu.yaml
 2 apiVersion: v1
 3 kind: ResourceQuota
 4 metadata:
 5   name: mem-cpu-demo
 6 spec:
 7   hard:
 8     requests.cpu: "1"
 9     requests.memory: 1Gi
10     limits.cpu: "2"
11     limits.memory: 2Gi

 

應用如下【命名空間quota-mem-cpu-example已提前創建完畢】:

kubectl create -f quota-mem-cpu.yaml --namespace=quota-mem-cpu-example

 

查看 ResourceQuota 詳情:

kubectl get resourcequota mem-cpu-demo --namespace=quota-mem-cpu-example --output=yaml

 

輸出部分結果如下:

 1 spec:
 2   hard:
 3     limits.cpu: "2"
 4     limits.memory: 2Gi
 5     requests.cpu: "1"
 6     requests.memory: 1Gi
 7 status:
 8   hard:
 9     limits.cpu: "2"
10     limits.memory: 2Gi
11     requests.cpu: "1"
12     requests.memory: 1Gi
13   used:
14     limits.cpu: "0"
15     limits.memory: "0"
16     requests.cpu: "0"
17     requests.memory: "0"

ResourceQuota 在 quota-mem-cpu-example 命名空間中設置了如下要求:

  • 每個容器必須有記憶體請求和限制,以及 CPU 請求和限制。
  • 所有容器的記憶體請求總和不能超過1 GiB。
  • 所有容器的記憶體限制總和不能超過2 GiB。
  • 所有容器的 CPU 請求總和不能超過1 cpu。
  • 所有容器的 CPU 限制總和不能超過2 cpu。

 

為命名空間配置默認的記憶體請求和限制

示例:

 1 # cat memory-defaults.yaml
 2 apiVersion: v1
 3 kind: LimitRange
 4 metadata:
 5   name: mem-limit-range
 6 spec:
 7   limits:
 8   - default:
 9       memory: 512Mi
10     defaultRequest:
11       memory: 256Mi
12     type: Container

default類似於之前的limit;defaultRequest類似於之前的request。

應用如下:

kubectl create -f memory-defaults.yaml --namespace=default-mem-example

命名空間default-mem-example已提前創建完畢

現在,如果在 default-mem-example 命名空間創建容器,並且該容器沒有聲明自己的記憶體請求和限制值,那麼它將被指定一個默認的記憶體請求256 MiB和一個默認的記憶體限制512 Mib。

 

為命名空間配置默認的CPU請求和限制

示例:

 1 # cpu-defaults.yaml
 2 apiVersion: v1
 3 kind: LimitRange
 4 metadata:
 5   name: cpu-limit-range
 6 spec:
 7   limits:
 8   - default:
 9       cpu: 1
10     defaultRequest:
11       cpu: 0.5
12     type: Container

 

應用如下:

kubectl create -f cpu-defaults.yaml --namespace=default-cpu-example

其中default-cpu-example名稱空間已被提前創建

現在如果在 default-cpu-example 命名空間創建一個容器,該容器沒有聲明自己的 CPU 請求和限制時,那麼將會給它指定默認的 CPU 請求0.5和默認的 CPU 限制值1。

 

配置命名空間的最小和最大記憶體約束

示例:

 1 # cat memory-constraints.yaml
 2 apiVersion: v1
 3 kind: LimitRange
 4 metadata:
 5   name: mem-min-max-demo-lr
 6 spec:
 7   limits:
 8   - max:
 9       memory: 1Gi
10     min:
11       memory: 500Mi
12     type: Container

 

應用如下:

kubectl create -f memory-constraints.yaml --namespace=constraints-mem-example

 

其中constraints-mem-example名稱空間已被提前創建

查看 LimitRange 的詳情:

kubectl get limitrange mem-min-max-demo-lr --namespace=constraints-mem-example --output=yaml

 

輸出顯示預期的最小和最大記憶體約束。但請注意,即使您沒有在 LimitRange 的配置文件中指定默認值,默認值也會被自動創建

 1 limits:
 2 - default:
 3     memory: 1Gi
 4   defaultRequest:
 5     memory: 1Gi
 6   max:
 7     memory: 1Gi
 8   min:
 9     memory: 500Mi
10   type: Container

現在,只要在 constraints-mem-example 命名空間中創建容器,Kubernetes 就會執行下面的步驟:

  • 如果 Container 未指定自己的記憶體請求和限制,將為它指定默認的記憶體請求和限制。
  • 驗證 Container 的記憶體請求是否大於或等於500 MiB【超出範圍容器創建失敗】。
  • 驗證 Container 的記憶體限制是否小於或等於1 GiB【超出範圍容器創建失敗】。

 

配置命名空間的最小和最大CPU約束

示例:

 1 # cpu-constraints.yaml
 2 apiVersion: v1
 3 kind: LimitRange
 4 metadata:
 5   name: cpu-min-max-demo-lr
 6 spec:
 7   limits:
 8   - max:
 9       cpu: "800m"
10     min:
11       cpu: "200m"
12     type: Container

 

應用如下:

kubectl create -f cpu-constraints.yaml --namespace=constraints-cpu-example

 

其中constraints-cpu-example名稱空間已被提前創建

查看 LimitRange 詳情:

kubectl get limitrange cpu-min-max-demo-lr --output=yaml --namespace=constraints-cpu-example

 

輸出結果顯示 CPU 的最小和最大限制符合預期。但需要注意的是,儘管你在 LimitRange 的配置文件中你沒有聲明默認值,默認值也會被自動創建

 1 limits:
 2 - default:
 3     cpu: 800m
 4   defaultRequest:
 5     cpu: 800m
 6   max:
 7     cpu: 800m
 8   min:
 9     cpu: 200m
10   type: Container

現在不管什麼時候在 constraints-cpu-example 命名空間中創建容器,Kubernetes 都會執行下面這些步驟:

  • 如果容器沒有聲明自己的 CPU 請求和限制,將為容器指定默認 CPU 請求和限制。
  • 核查容器聲明的 CPU 請求確保其大於或者等於200 millicpu。
  • 核查容器聲明的 CPU 限制確保其小於或者等於800 millicpu。

 

配置命名空間下pod總數

示例:

1 # cat quota-pod.yaml
2 apiVersion: v1
3 kind: ResourceQuota
4 metadata:
5   name: pod-demo
6 spec:
7   hard:
8     pods: "2"

 

應用如下【命名空間quota-pod-example已提前創建完畢】:

kubectl apply -f quota-pod.yaml --namespace=quota-pod-example

 

查看資源配額的詳細資訊:

kubectl get resourcequota pod-demo --namespace=quota-pod-example --output=yaml

 

從輸出的資訊我們可以看到,該命名空間下pod的配額是2個,目前創建的pods數為0,配額使用率為0。

1 spec:
2   hard:
3     pods: "2"
4 status:
5   hard:
6     pods: "2"
7   used:
8     pods: "0"

 

相關閱讀

1、官網:Pod的CPU資源分配限制

2、官網:Pod的記憶體資源分配限制

3、官網:管理記憶體、CPU 和 API 資源

完畢!

 

 


 

———END———
如果覺得不錯就關注下唄 (-^O^-) !