ขณะนี้ฉันมี Managed Node Group ที่ให้บริการคลัสเตอร์ EKS ของฉันและได้เพิ่มอีก:
- NodeGroup1 [ปัจจุบัน - ดิสก์ 20gb ec2]
- NodeGroup2 [ใหม่ - ดิสก์ 80gb ec2]
ฉันต้องการย้ายพ็อดปัจจุบันของฉันจากโหนดกลุ่ม 1 ไปยังโหนดกลุ่ม 2 เพื่อให้มีขนาดดิสก์มากขึ้นสำหรับโหนดผู้ปฏิบัติงาน จากนั้นจึงหยุดใช้โหนดกลุ่ม 1
ฉันได้สร้างกลุ่มโหนดใหม่ดังนี้:
eksctl สร้าง nodegroup --cluster prod --name NodeGroup2 --node-type t3.medium --nodes 2 --nodes-min 0 --nodes-max 4 --enable-ssm --managed --node-volume-size 80
ฉันได้ตั้งค่างบประมาณสำหรับการหยุดชะงักของพ็อดแล้ว แต่ในขณะนี้ฉันสามารถทนต่อการหยุดทำงาน ตราบใดที่ทุกอย่างเปลี่ยนจากกลุ่มโหนดที่ได้รับการจัดการไปยังกลุ่มโหนดใหม่ ฉันมีความสุข
ฉันสามารถทำได้ eksctl ลบ nodegroup NodeGroup1
และมันจะย้ายทุกอย่างไปยังกลุ่มโหนดที่สองหรือไม่
นี่คือลักษณะของกลุ่มโหนด การปรับใช้ และพ็อดของฉัน:
~$ eksctl รับ nodegroups --cluster prod -o json
[
{
"ชื่อสแต็ก": "",
"คลัสเตอร์": "ผลิตภัณฑ์",
"ชื่อ": "NodeGroup2",
"สถานะ": "ใช้งาน",
"ขนาดสูงสุด": 4,
"ขนาดต่ำสุด": 0,
"ความจุที่ต้องการ": 2,
"ประเภทอินสแตนซ์": "t3.medium",
"ImageID": "AL2_x86_64",
"CreationTime": "2021-11-07T04:15:49.595Z",
"NodeInstanceRoleARN": "arn:aws:iam::redacted:role/eks-node-group",
"AutoScalingGroupName": "eks-...1d",
"เวอร์ชัน": "1.20"
},
{
"ชื่อสแต็ก": "",
"คลัสเตอร์": "ผลิตภัณฑ์",
"ชื่อ": "NodeGroup1",
"สถานะ": "ใช้งาน",
"ขนาดสูงสุด": 4,
"ขนาดต่ำสุด": 0,
"ความจุที่ต้องการ": 2,
"ประเภทอินสแตนซ์": "t3.medium",
"ImageID": "AL2_x86_64",
"CreationTime": "2021-05-25T06:52:25.437Z",
"NodeInstanceRoleARN": "arn:aws:iam::redacted:role/eks-node-group",
"AutoScalingGroupName": "eks-...01",
"เวอร์ชัน": "1.20"
}
~$ kubectl รับพ็อด -A
NAMESPACE NAME สถานะพร้อมเริ่มอายุใหม่
ตัวแทน grafana เริ่มต้น 1/1 ทำงาน 0 2d23h
เริ่มต้น promtail-2a23 1/1 กำลังทำงาน 0 3d
เริ่มต้น promtail-2vg2 1/1 กำลังทำงาน 0 3d
เริ่มต้น prod-application-34 1/1 กำลังทำงาน 0 3d
เริ่มต้น prod-applicationworker-6l 1/1 กำลังทำงาน 0 3d
kube-system aws-load-balancer-controller 1/1 ทำงาน 0 2d23h
kube-ระบบ aws-node-5rzk3 1/1 กำลังทำงาน 0 3d
ระบบ kube aws-node-keljg 1/1 กำลังทำงาน 0 3d
kube-system cluster-autoscaler 1/1 ทำงาน 0 2d23h
ระบบ kube coredns-3254s 1/1 กำลังทำงาน 0 3d
ระบบ kube coredns-48grd 1/1 ทำงาน 0 2d23h
ระบบ kube kube-proxy-6vx89 1/1 กำลังทำงาน 0 3d
ระบบ kube kube-proxy-rqb23 1/1 กำลังทำงาน 0 3d
kube-system metrics-server 1/1 ทำงาน 0 2d23h
kubernetes-dashboard dashboard-metrics-scraper 1/1 ทำงาน 0 2d23h
แดชบอร์ด kubernetes แดชบอร์ด kubernetes 1/1 ทำงาน 0 2d23h
~$ kubectl รับการปรับใช้ -A
NAMESPACE ชื่อพร้อม อายุที่ใช้ได้ล่าสุด
ตัวแทน grafana เริ่มต้น 1/1 1 1 5d23h
แอปพลิเคชันผลิตภัณฑ์เริ่มต้น 1/1 1 1 160d
prod-applicationworker เริ่มต้น 1/1 1 1 37d
ระบบ kube aws-load-balancer-controller 1/1 1 1 166d
kube-ระบบคลัสเตอร์-autoscaler 1/1 1 1 166d
ระบบ kube coredns 2/2 2 2 167d
เซิร์ฟเวอร์เมตริกระบบ kube 1/1 1 1 166d
kubernetes-dashboard dashboard-metrics-scraper 1/1 1 1 165d
แดชบอร์ด kubernetes แดชบอร์ด kubernetes 1/1 1 1 165d
หากมีวิธีที่ฉันสามารถปิดล้อมกลุ่มโหนดทั้งหมดชั่วคราวแล้วระบายออกไปยังกลุ่มโหนดอื่น (ก่อนที่ฉันจะลบโหนดกลุ่มแรก) นั่นจะน่าทึ่งมาก
ขออภัยหากเป็นคำถามง่ายๆ แต่ฉันได้อ่านเอกสารมากมายที่ขัดแย้งกันเล็กน้อย
ไชโยไมค์