ฉันกำลังพยายามทำความเข้าใจกระบวนการฟื้นตัวของโปรโมชัน
ทรัพยากรหลังจาก "คลัสเตอร์ pcs หยุด --all" และการปิดทั้งสองโหนด
ฉันมีสองโหนด + ควอรัม qdevice พร้อมทรัพยากร DRBD
นี่คือสรุปทรัพยากรก่อนการทดสอบของฉัน ทุกๆสิ่งคือ
ทำงานได้ดีและ server2 เป็นเจ้านายของ DRBD
 * เซิร์ฟเวอร์เซิร์ฟเวอร์ 1 (stonith:fence_vmware_rest): เริ่มเซิร์ฟเวอร์ 2
 * เซิร์ฟเวอร์เซิร์ฟเวอร์ 2 (stonith:fence_vmware_rest): เริ่มเซิร์ฟเวอร์ 1
 * ชุดโคลน: DRBDData-clone [DRBDData] (โปรโมตได้):
   * ผู้เชี่ยวชาญ: [ server2 ]
   * ทาส: [ server1 ]
 * กลุ่มทรัพยากร: nfs:
   * drbd_fs (ocf::heartbeat:Filesystem): เริ่มเซิร์ฟเวอร์ 2
จากนั้นฉันก็ออก "pcs cluster stop --all" คลัสเตอร์จะหยุดทำงาน
ทั้งสองโหนดตามที่คาดไว้
ตอนนี้ฉันรีสตาร์ท server1 (ก่อนหน้านี้เป็นทาส) และปิดเซิร์ฟเวอร์ 2 (
ผู้เป็นนายก่อน). เมื่อเซิร์ฟเวอร์ 1 รีสตาร์ท มันจะรั้วเซิร์ฟเวอร์ 2
และฉันเห็นว่า server2 กำลังเริ่มต้นที่ vcenter แต่ฉันเพิ่งกด
คีย์ใด ๆ บน grub เพื่อให้แน่ใจว่า server2 จะไม่รีสตาร์ท แทนที่จะเป็น
จะถูก "หยุดชั่วคราว" บนหน้าจอด้วง
SSH'ing to server1 และกำลังรันสถานะ pcs ฉันได้รับ:
ชื่อคลัสเตอร์: cluster1
สรุปคลัสเตอร์:
  * สแต็ค: corosync
  * DC ปัจจุบัน: server1 (เวอร์ชัน 2.1.0-8.el8-7c3f660707) - พาร์ติชันที่มีองค์ประชุม
  * ปรับปรุงล่าสุด: วันจันทร์ที่ 2 พฤษภาคม 09:52:03 น. 2022
  * แก้ไขล่าสุด: จันทร์ 2 พฤษภาคม 09:39:22 2022 โดยรูทผ่าน cibadmin บนเซิร์ฟเวอร์ 1
  * กำหนดค่า 2 โหนด
  * กำหนดค่าอินสแตนซ์ทรัพยากร 11 รายการ
รายการโหนด:
  * ออนไลน์: [ เซิร์ฟเวอร์1 ]
  * ออฟไลน์: [ server2 ]
รายการทรัพยากรทั้งหมด:
  * เซิร์ฟเวอร์เซิร์ฟเวอร์ 1 (stonith:fence_vmware_rest): หยุดทำงาน
  * เซิร์ฟเวอร์เซิร์ฟเวอร์ 2 (stonith:fence_vmware_rest): เริ่มเซิร์ฟเวอร์ 1
  * ชุดโคลน: DRBDData-clone [DRBDData] (โปรโมตได้):
    * ทาส: [ server1 ]
    * หยุด: [ server2 ]
  * กลุ่มทรัพยากร: nfs:
    * drbd_fs (ocf::heartbeat:Filesystem): หยุดทำงาน
นี่คือข้อห้าม:
# ข้อ จำกัด ชิ้น
ข้อจำกัดด้านสถานที่:
  ทรัพยากร: เซิร์ฟเวอร์รั้ว 1
    ปิดใช้งานเมื่อ:
      โหนด: server1 (คะแนน:-INFINITY)
  ทรัพยากร: เซิร์ฟเวอร์รั้ว 2
    ปิดใช้งานเมื่อ:
      โหนด: server2 (คะแนน:-INFINITY)
ข้อจำกัดในการสั่งซื้อ:
  เลื่อนระดับ DRBDData-clone จากนั้นเริ่ม nfs (ชนิด: บังคับ)
ข้อจำกัดของโคโลเคชั่น:
  nfs พร้อม DRBDData-clone (คะแนน:INFINITY) (rsc-role:Started)
(กับบทบาท rsc:Master)
ข้อ จำกัด ของตั๋ว:
# sudo crm_mon -1A
...
คุณสมบัติของโหนด:
  * โหนด: server2:
    * มาสเตอร์-DRBDData : 10,000
ดังนั้นฉันจึงเห็นว่าครบองค์ประชุม แต่เซิร์ฟเวอร์ 1 ไม่เคยเลื่อนระดับเป็น
DRBD master ดังนั้นทรัพยากรที่เหลือจะหยุดทำงานจนถึงเซิร์ฟเวอร์ 2
กลับมา.
- ต้องทำยังไงถึงจะบังคับโปรแล้วกู้ไม่ผ่าน
รีสตาร์ทเซิร์ฟเวอร์ 2 หรือไม่
 
- ทำไมถ้าแทนที่จะรีบูตเซิร์ฟเวอร์ 1 และปิดเซิร์ฟเวอร์ 2 ฉันจะรีบูต
server2 และ poweroff server1 คลัสเตอร์กู้คืนเองได้ไหม?
 
- หมายความว่าด้วยเหตุผลบางอย่างระหว่าง "cluster stop --all" ข้อมูล drbd ไม่ตรงกันหรือไม่