ขณะนี้ฉันมีเซิร์ฟเวอร์ Ubuntu 18.04.6 LTS พร้อมการตั้งค่า 2 6TB HDs ใน RAID1 ดังนี้:
~$ cat /proc/mdstat
บุคลิก : [raid1] [linear] [multipath] [raid0] [raid6] [raid5] [raid4] [raid10]
md0 : ใช้งานการจู่โจม 1 sdd2[0] sdb2[1]
5859412992 บล็อกซุปเปอร์ 1.2 [2/2] [UU]
บิตแมป: 1/44 หน้า [4KB], ก้อน 65536KB
พื้นที่ในไดรฟ์จะหมดเร็วๆ นี้ ดังนั้นฉันจึงซื้อ HD 16TB จำนวน 2 เครื่องที่ฉันต้องการเพิ่ม (เชื่อมต่อกับเซิร์ฟเวอร์แล้ว แต่ไม่ได้ตั้งค่า) จากสิ่งที่ฉันเข้าใจ ฉันไม่สามารถเพิ่มสิ่งเหล่านี้เป็นการกำหนดค่า Raid1 แยกต่างหาก (การมิเรอร์ 16TB + การมิเรอร์ 6TB) และจำเป็นต้องย้ายไปที่ Raid 10 จริงหรือไม่ ฉันไม่สามารถมี 16TB สองตัวใน RAID1 และติดตั้งเป็นโฟลเดอร์อื่นไม่ได้หรือ
ฉันสามารถใช้ HD 2x 16TB ร่วมกับ 2x 6TB ใน RAID 10 ได้หรือไม่ หรือต้องใช้ขนาดเท่ากันทั้งหมด
ฉันจะเพิ่ม 2 HDs และโอนย้ายไปยังการตั้งค่า RAID ใหม่โดยไม่สูญเสียข้อมูลที่มีอยู่ได้อย่างไร
ข้อกำหนดทางธุรกิจ:
- ความซ้ำซ้อน / ความทนทานต่อความผิดพลาด
- อ่าน/เขียนเร็ว (ข้อมูลขนาดใหญ่)
- เพิ่มพื้นที่ HD ไม่จำเป็นต้องทำหน้าที่เป็นไดรฟ์เดียว (สามารถเป็นจุดเชื่อมต่อ / โฟลเดอร์ใหม่ได้หากง่ายกว่า)
อัปเดต:
ทำตามคำแนะนำที่ลิงก์ด้านล่าง ฉันเพิ่มไดรฟ์ทั้งสองเป็น Raid1 เพิ่มเติมโดยใช้คำสั่งต่อไปนี้ รีบูตเครื่องคอมพิวเตอร์ และตอนนี้ไม่สามารถ ssh เข้าไปได้
https://www.digitalocean.com/community/tutorials/how-to-create-raid-arrays-with-mdadm-on-ubuntu-18-04#creating-a-raid-1-array
~$ lsblk -o NAME,SIZE,FSTYPE,TYPE,MOUNTPOINT
ชื่อ ขนาด FSTYPE ประเภท MOUNTPOINT
ดิสก์ sda 14.6T
ดิสก์ sdb 5.5T
ââsdb1 953M ส่วน vfat
ââsdb2 5.5T ส่วน linux_raid_member
ââmd0 5.5T LVM2_member จู่โจม 1
ââvg-swap 186.3G สลับ lvm [สลับ]
ââvg-รูท 93.1G ext4 lvm /
ââvg-tmp 46.6G ต่อ 4 lvm /tmp
ââvg-var 23.3G ต่อ 4 lvm /var
ââvg-บ้าน 5.1T ต่อ 4 lvm /บ้าน
ดิสก์ sdc 14.6T
ดิสก์ sdd 5.5T
ââsdd1 953M ส่วน vfat /boot/efi
ââsdd2 5.5T ส่วน linux_raid_member
ââmd0 5.5T LVM2_member จู่โจม 1
ââvg-swap 186.3G สลับ lvm [สลับ]
ââvg-รูท 93.1G ext4 lvm /
ââvg-tmp 46.6G ต่อ 4 lvm /tmp
ââvg-var 23.3G ต่อ 4 lvm /var
ââvg-บ้าน 5.1T ต่อ 4 lvm /บ้าน
~$ sudo mdadm --create --verbose /dev/md1 --level=1 --raid-devices=2 /dev/sda /dev/sdc
sudo mkfs.ext4 -F /dev/md1
sudo mkdir -p /mnt/md1
sudo เมานต์ /dev/md1 /mnt/md1
~$ df -h -x devtmpfs -x tmpfs
ขนาดระบบไฟล์ที่ใช้ Avail Use% Mounted on
/dev/mapper/vg-root 92G 7.5G 79G 9% /
/dev/sdd1 952M 4.4M 947M 1% /บูต/efi
/dev/mapper/vg-var 23G 6.0G 16G 28% /var
/dev/mapper/vg-tmp 46G 54M 44G 1% /tmp
/dev/mapper/vg-home 5.1T 2.5T 2.4T 51% /บ้าน
/dev/md1 15T 19M 14T 1% /mnt/md1
~$ sudo mdadm --detail --scan | sudo tee -a /etc/mdadm/mdadm.conf
ARRAY /dev/md/0 ข้อมูลเมตา=1.2 ชื่อ=mypc:0 UUID=someweirdhash
ARRAY /dev/md1 ข้อมูลเมตา=1.2 ชื่อ=mypc:1 UUID=someweirdhash
~$ sudo update-initramfs -u
update-initramfs: กำลังสร้าง /boot/initrd.img-4.15.0-166-generic
~ $ sudo รีบูต
ไม่สามารถ ssh เข้าสู่เซิร์ฟเวอร์หลังจากรีบูต
ไม่ได้ทำสิ่งนี้: (เลขศูนย์สองตัวสุดท้ายด้านล่างคืออะไร) ฉันไม่แน่ใจว่าคำสั่งนี้ทำอะไรและคิดว่ามันสามารถตั้งค่าอาร์เรย์ใหม่ให้เป็นบูทได้
~$ echo '/dev/md1 /mnt/md1 ext4 ค่าเริ่มต้น,nofail,ละทิ้ง 0 0' | sudo tee -a /etc/fstab