ขึ้นอยู่กับประเภทของการเข้าถึงข้อมูล: Ceph สามารถจัดเก็บข้อมูลเป็นอุปกรณ์บล็อก (RBD) เป็นที่เก็บวัตถุ S3 (RGW) หรือเป็นระบบไฟล์ (CephFS) ฉันถือว่า CephFS ที่นี่ตามที่คุณพูดถึงและ Gluster ซึ่งทั้งสองอย่างนี้เป็นนามธรรมของระบบไฟล์
ในการกำหนดค่าแบบสามโหนด Ceph จะมี OSD daemons หนึ่งตัวขึ้นไปที่ทำงานในแต่ละไซต์ (หนึ่งตัวต่อหนึ่งดิสก์ไดร์ฟ) ข้อมูลจะถูกสไตรค์ข้าม OSD ในคลัสเตอร์ และไคลเอนต์ CephFS ของคุณ (เคอร์เนล, FUSE หรือ Windows) จะเข้าถึงโหนดที่ถูกต้องเพื่อจัดเก็บข้อมูลโดยไม่จำเป็นต้องมีเกตเวย์ วิธีการดำเนินการนี้ใช้เวลานานในการอธิบาย แต่โดยพื้นฐานแล้วเป็นการแมปตารางแฮชแบบกระจายพร้อมข้อมูลเพิ่มเติมที่เก็บไว้ฝั่งเซิร์ฟเวอร์ใน MON daemons
เส้นทางข้อมูลของ CephFS เป็นเส้นทางตรงจากไคลเอ็นต์ของคุณไปยัง OSD โดยไม่มีเกตเวย์คั่นกลาง
ระบบไฟล์ใช้ประโยชน์จากประเภท daemon เพิ่มเติม นั่นคือ MDS ซึ่งเก็บข้อมูลเมตาของระบบไฟล์ของคุณ หากการทำงานของระบบไฟล์ของคุณทำการเปลี่ยนแปลงระบบไฟล์ (เช่น สร้างไดเร็กทอรี) ระบบจะเข้าถึง MDS แทน OSD
อย่างไรก็ตาม Ceph เป็นระบบจัดเก็บข้อมูลแบบซิงโครนัสโดยเฉพาะสำหรับกรณีการใช้งานที่คุณต้องการ และประสิทธิภาพของมันจะลดลงเมื่อคุณยืดระยะห่างระหว่างโหนดให้ไกลออกไป โดยทั่วไปแล้ว ขอแนะนำให้คุณคงการกำหนดค่าแบบขยายไว้ภายใน 10 มิลลิวินาทีของเวลาแฝงไป-กลับระหว่างโหนดต่างๆ กล่าวอีกนัยหนึ่ง คลัสเตอร์ Ceph ชอบอยู่ในดาต้าเซ็นเตอร์แห่งเดียว แต่คุณสามารถขยายคลัสเตอร์ข้ามเมืองหรือประเทศเล็กๆ ได้หากคุณมีการเชื่อมโยงที่ดี