เรามี NodePool สำหรับตัวแทน CI โดยเฉพาะ เมื่อทุกอย่างทำงานได้อย่างถูกต้อง ตัวควบคุม CI ของเราจะสร้างพ็อดสำหรับตัวแทน CI และ NodePool จะถูกปรับขนาดโดยอัตโนมัติโดยตัวปรับขนาดอัตโนมัติของ GCP ซึ่งหมายความว่าพ็อดจะมีเหตุการณ์ต่อไปนี้โดยบอกว่าไม่มีโหนดใดที่ตรงกับความเกี่ยวข้อง:
มี 0/3 โหนด: 3 โหนดไม่ตรงกับความสัมพันธ์/ตัวเลือกโหนดของ Pod
และโหนดใหม่จะออนไลน์ในที่สุดหลังจากนั้นไม่นาน อย่างไรก็ตาม ส่วนใหญ่แล้ว ตัวปรับขนาดอัตโนมัติจะล้มเหลวโดยแจ้งว่า:
พ็อดไม่ทริกเกอร์การเพิ่มสเกล: 3 พื้นที่เก็บข้อมูลชั่วคราวไม่เพียงพอ 6 โหนดไม่ตรงกับความสัมพันธ์/ตัวเลือกโหนดของพ็อด
เมื่อสิ่งนี้เกิดขึ้น ฉันต้องปรับขนาด NodePool ด้วยตนเองผ่าน UI ของ GCP ในส่วน NodePool ซึ่งใช้งานได้ทันที
ฉันค่อนข้างมั่นใจว่ามีข้อผิดพลาดบางอย่างระหว่าง Kubernetes และโครงสร้างพื้นฐานของ GCP ซึ่งอาจจะเป็นตัวปรับขนาดอัตโนมัติ คุณคิดอย่างไร?
นี่คือการกำหนดค่าของ NodePool หากสามารถช่วยได้:
การปรับขนาดอัตโนมัติ:
เปิดใช้งาน: จริง
maxNodeCount: 3
การกำหนดค่า:
ขนาดดิสก์Gb: 100
diskType: pd-มาตรฐาน
การกำหนดค่าการจัดเก็บชั่วคราว:
localSsdCount: 2
ประเภทภาพ: COS_CONTAINERD
ป้ายกำกับ:
_redacted_: 'จริง'
ประเภทเครื่อง: c2-standard-16
ข้อมูลเมตา:
ปิดใช้งานปลายทางดั้งเดิม: 'จริง'
oauthScopes:
- https://www.googleapis.com/auth/cloud-platform
ยึดไว้ก่อน: จริง
บัญชีบริการ: _redacted_
ShieldedInstanceConfig:
enableIntegrityMonitoring: จริง
แท็ก:
- gke-หลัก
มลทิน:
- เอฟเฟกต์: NO_SCHEDULE
คีย์: _redacted_
ค่า: 'จริง'
workloadMetadataConfig:
โหมด: GKE_METADATA
initialNodeCount: 1
instanceGroupUrls:
- _redacted_
สถานที่:
- ยุโรป-ตะวันตก1-ค
- ยุโรป-ตะวันตก1-ข
- Europe-west1-d
การจัดการ:
ซ่อมรถยนต์: จริง
อัปเกรดอัตโนมัติ: จริง
ข้อจำกัด maxPods:
maxPodsPerNode: '110'
ชื่อ:ก๊ะ
การกำหนดค่าเครือข่าย:
podIpv4CidrBlock: 10.0.0.0/17
podRange: main-europe-west1-pods
podIpv4Cidrขนาด: 24
selfLink: _redacted_
สถานะ: กำลังทำงาน
อัพเกรดการตั้งค่า:
แม็กซ์กระชาก: 1
รุ่น: 1.21.11-gke.900
ขอบคุณ!