Score:2

วิธีเพิ่มความเร็วของ RAID 5 ด้วย mdadm + luks + lvm

ธง cn

ฉันคิดว่าฉันหลงทางกับการตั้งค่าเซิร์ฟเวอร์ปัจจุบันของฉัน มันเป็น HP Proliant dl160 gen 6 และฉันใส่ดิสก์หมุน 4 แผ่นพร้อมการตั้งค่าที่มี mdmadm + luks + lvm และ btrfs ด้านบน (บางทีฉันอาจไปไกลเกินไป?) และมันทรมานมากกับความเร็ว IO ที่อ่านได้รอบ ๆ 50MB/s และเขียนประมาณ 2MB/s และฉันรู้สึกว่าฉันทำอะไรผิดพลาด

สิ่งหนึ่งที่ฉันสังเกตคือฉันตั้งค่า mdadm บนอุปกรณ์บล็อก (sbd) และไม่ได้อยู่ในพาร์ติชัน (sdb1) นั่นจะส่งผลต่อบางสิ่งหรือไม่

ที่นี่คุณสามารถดูผลลัพธ์ของ fio fio --name=randwrite --rw=randwrite --direct=1 --bs=16k --numjobs=128 --size=200M --runtime=60 --group_reporting เมื่อแทบไม่มีการใช้งานบนเครื่อง

randwrite: (groupid=0, job=128): err= 0: pid=54290: อ. 26 ต.ค. 16:21:50 น. 2564
  เขียน: IOPS=137, BW=2193KiB/s (2246kB/s)(131MiB/61080msec); 0 โซนรีเซ็ต
    ชุด (มิลลิวินาที): นาที=180, สูงสุด=2784, เฉลี่ย=924.48, stdev=318.02
     lat (มิลลิวินาที): min=180, max=2784, avg=924.48, stdev=318.02
    เปอร์เซ็นไทล์ลิ่ม (มิลลิวินาที):
     | 1.00th=[ 405], 5.00th=[ 542], 10.00th=[ 600], 20.00=[ 693],
     | 30.00th=[ 760], 40.00th=[ 818], 50.00th=[ 860], 60.00th=[ 927],
     | 70.00th=[ 1011], 80.00th=[ 1133], 90.00th=[ 1267], 95.00th=[ 1452],
     | 99.00th=[ 2165], 99.50th=[ 2232], 99.90th=[ 2635], 99.95th=[ 2769],
     | 99.99th=[ 2769]
   bw ( KiB/s): ต่ำสุด= 3972, สูงสุด= 4735, ต่อ=100.00%, เฉลี่ย=4097.79, stdev= 1.58, ตัวอย่าง=8224
   iops : นาที= 132, สูงสุด= 295, เฉลี่ย=248.40, stdev= 0.26, ตัวอย่าง=8224
  lat (มิลลิวินาที) : 250=0.04%, 500=2.82%, 750=25.96%, 1,000=40.58%, 2000=28.67%
  lat (มิลลิวินาที) : >=2000=1.95%
  ซีพียู : usr=0.00%, sys=0.01%, ctx=18166, majf=0, minf=1412
  ความลึก IO : 1=100.0%, 2=0.0%, 4=0.0%, 8=0.0%, 16=0.0%, 32=0.0%, >=64=0.0%
     ส่ง : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0%
     สมบูรณ์ : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0%
     ออก rwts: รวม = 0,8372,0,0 สั้น = 0,0,0,0 ลดลง = 0,0,0,0
     เวลาแฝง : เป้าหมาย = 0, หน้าต่าง = 0, เปอร์เซ็นต์ไทล์ = 100.00%, ความลึก = 1

รันสถานะกลุ่ม 0 (งานทั้งหมด):
  เขียน: bw=2193KiB/s (2246kB/s), 2193KiB/s-2193KiB/s (2246kB/s-2246kB/s), io=131MiB (137MB), run=61080-61080msec

อัปเดต 1 การเขียนตามลำดับด้วย dd

root@hp-proliant-dl160-g6-1:~# dd if=/dev/zero of=disk-test oflag=direct bs=512k count=100
100+0 บันทึกใน 100+0 บันทึกออก 52428800 ไบต์ (52 MB, 50 MiB) คัดลอก 5.81511 วินาที 9.0 MB/วินาที

เคอร์เนล: 5.4.0-89-ทั่วไป

ระบบปฏิบัติการ: อูบุนตู 20.04.3

mdadm: 4.1-5ubuntu1.2

lvm2: 2.03.07-1ubuntu1

เอาต์พุต blkid

/dev/mapper/dm_crypt-0: UUID="r7TBdk-1GZ4-zbUh-007u-BfuP-dtis-bTllYi" TYPE="LVM2_member"
/dev/sda2: UUID="64528d97-f05c-4f34-a238-f7b844b3bb58" UUID_SUB="263ae70e-d2b8-4dfe-bc6b-bbc2251a9f32" TYPE="btrfs" PARTUUID="494be592-3dad-4600-b901b1b1b84-e"
/dev/sdb: UUID="478e8132-7783-1fb1-936a-358d06dbd871" UUID_SUB="4aeb4804-6380-5421-6aea-d090e6aea8a0" LABEL="ubuntu-server:0" TYPE="linux_raid_member"
/dev/sdc: UUID="478e8132-7783-1fb1-936a-358d06dbd871" UUID_SUB="9d5a4ddd-bb9e-bb40-9b21-90f4151a5875" LABEL="ubuntu-server:0" TYPE="linux_raid_member"
/dev/sdd: UUID="478e8132-7783-1fb1-936a-358d06dbd871" UUID_SUB="f08b5e6d-f971-c622-cd37-50af8ff4b308" LABEL="ubuntu-server:0" TYPE="linux_raid_member"
/dev/sde: UUID="478e8132-7783-1fb1-936a-358d06dbd871" UUID_SUB="362025d4-a4d2-8727-6853-e503c540c4f7" LABEL="ubuntu-server:0" TYPE="linux_raid_member"
/dev/md0: UUID="a5b5bf95-1ff1-47f9-b3f6-059356e3af41" TYPE="crypto_LUKS"
/dev/mapper/vg0-lv--0: UUID="6db4e233-5d97-46d2-ac11-1ce6c72f5352" TYPE="สลับ"
/dev/mapper/vg0-lv--1: UUID="4e1a5131-cb91-48c4-8266-5b165d9f5071" UUID_SUB="e5fc407e-57c2-43eb-9b66-b00207ea6d91" TYPE="btrfs"
/dev/loop0: TYPE="สควอช"
/dev/loop1: TYPE="สควอช"
/dev/loop2: TYPE="สควอช"
/dev/loop3: TYPE="สควอช"
/dev/loop4: TYPE="สควอช"
/dev/loop5: TYPE="สควอช"
/dev/loop6: TYPE="สควอช"
/dev/loop7: TYPE="สควอช"
/dev/loop8: TYPE="สควอช"
/dev/loop9: TYPE="สควอช"
/dev/loop10: TYPE="สควอช"
/dev/sda1: PARTUUID="fa30c3f5-6952-45f0-b844-9bfb46fa0224"

แมว /proc/mdstat

บุคลิก : [raid6] [raid5] [raid4] [linear] [multipath] [raid0] [raid1] [raid10]
md0 : ใช้งาน Raid5 sdb[0] sdc[1] sdd[2] sde[4]
      5860147200 บล็อก super 1.2 ระดับ 5 ก้อน 512k อัลกอริทึม 2 [4/4] [UUUU]
      บิตแมป: 2/15 หน้า [8KB], ก้อน 65536KB

อุปกรณ์ที่ไม่ได้ใช้: <ไม่มี>

ดิสก์ lshw -c

  *-ดิสก์
       คำอธิบาย: ดิสก์ SCSI
       สินค้า: DT 101 G2
       ผู้ขาย: Kingston
       รหัสทางกายภาพ: 0.0.0
       ข้อมูลรถบัส: scsi@0:0.0.0
       ชื่อตรรกะ: /dev/sda
       รุ่น: 1.00
       อนุกรม: xxxxxxxxxxxxxxxxxxxx
       ขนาด: 7643MiB (8015MB)
       ความสามารถ: ถอดออกได้
       การกำหนดค่า: anversion=4 โลจิคัลเซกเตอร์ไซส์=512 เซกเตอร์ไซส์=512
     *-ปานกลาง
          รหัสทางกายภาพ: 0
          ชื่อตรรกะ: /dev/sda
          ขนาด: 7643MiB (8015MB)
          ความสามารถ: gpt-1.00 แบ่งพาร์ติชั่นแล้ว:gpt
          การกำหนดค่า: guid=6c166e3e-27c9-4edf-9b0d-e21892cbce41
  *-ดิสก์
       คำอธิบาย: ดิสก์ ATA
       สินค้า: ST2000DM008-2FR1
       รหัสทางกายภาพ: 0.0.0
       ข้อมูลรถบัส: scsi@1:0.0.0
       ชื่อตรรกะ: /dev/sdb
       รุ่น: 0001
       อนุกรม: xxxxxxxxxxxxxxxxxxxx
       ขนาด: 1863GiB (2TB)
       ความสามารถ: ถอดออกได้
       การกำหนดค่า: anversion=5 โลจิคัลเซกเตอร์ไซส์=512 เซกเตอร์ไซส์=4096
     *-ปานกลาง
          รหัสทางกายภาพ: 0
          ชื่อตรรกะ: /dev/sdb
          ขนาด: 1863GiB (2TB)
  *-ดิสก์
       คำอธิบาย: ดิสก์ ATA
       สินค้า: ST2000DM008-2FR1
       รหัสทางกายภาพ: 0.0.0
       ข้อมูลรถบัส: scsi@2:0.0.0
       ชื่อตรรกะ: /dev/sdc
       รุ่น: 0001
       อนุกรม: xxxxxxxxxxxxxxxxxxxx
       ขนาด: 1863GiB (2TB)
       ความสามารถ: ถอดออกได้
       การกำหนดค่า: anversion=5 โลจิคัลเซกเตอร์ไซส์=512 เซกเตอร์ไซส์=4096
     *-ปานกลาง
          รหัสทางกายภาพ: 0
          ชื่อตรรกะ: /dev/sdc
          ขนาด: 1863GiB (2TB)
  *-ดิสก์
       คำอธิบาย: ดิสก์ ATA
       สินค้า: WDC WD20EZBX-00A
       ผู้ขาย: Western Digital
       รหัสทางกายภาพ: 0.0.0
       ข้อมูลรถบัส: scsi@3:0.0.0
       ชื่อตรรกะ: /dev/sdd
       รุ่น: 1A01
       อนุกรม: xxxxxxxxxxxxxxxxxxxx
       ขนาด: 1863GiB (2TB)
       ความสามารถ: ถอดออกได้
       การกำหนดค่า: anversion=5 โลจิคัลเซกเตอร์ไซส์=512 เซกเตอร์ไซส์=4096
     *-ปานกลาง
          รหัสทางกายภาพ: 0
          ชื่อตรรกะ: /dev/sdd
          ขนาด: 1863GiB (2TB)
  *-ดิสก์
       คำอธิบาย: ดิสก์ ATA
       สินค้า: WDC WD20EZBX-00A
       ผู้ขาย: Western Digital
       รหัสทางกายภาพ: 0.0.0
       ข้อมูลรถบัส: scsi@4:0.0.0
       ชื่อตรรกะ: /dev/sde
       รุ่น: 1A01
       อนุกรม: xxxxxxxxxxxxxxxxxxxx
       ขนาด: 1863GiB (2TB)
       ความสามารถ: ถอดออกได้
       การกำหนดค่า: anversion=5 โลจิคัลเซกเตอร์ไซส์=512 เซกเตอร์ไซส์=4096
     *-ปานกลาง
          รหัสทางกายภาพ: 0
          ชื่อตรรกะ: /dev/sde
          ขนาด: 1863GiB (2TB)

คุณเห็นสิ่งใดที่อาจผิดพลาดในการตั้งค่าหรือไม่ คุณคิดว่าการเพิ่ม nvme ด้วยการ์ด PCI และใช้สำหรับการแคชจะมีประโยชน์หรือไม่

us flag
คุณไม่ควรใช้ RAID5 หากคุณต้องการความน่าเชื่อถือ เมื่อไดร์ฟหนึ่งพัง โอกาสที่ไดร์ฟที่สองจะพังระหว่างการคืนค่าค่อนข้างสูง เมื่อไดรฟ์ที่สองพัง ข้อมูลทั้งหมดของคุณจะสูญหาย
br flag
+1 ถึง Tero - R5 ตายไปแล้วกว่าทศวรรษแล้ว - เพื่อนๆ ไม่ยอมให้เพื่อนใช้ R5 :)
cn flag
สวัสดีทุกคน คุณจะแนะนำอะไรเกี่ยวกับการเข้าถึงที่เร็วขึ้น ขนาดใหญ่ขึ้น และยังซ้ำซ้อน ฉันเต็มใจใช้ฮาร์ดไดรฟ์ 1 ตัวเพื่อให้ได้ 6TB และยังปลอดภัยอีกด้วย
Score:1
ธง ca

การแสดงที่ไม่ดีเกิดจากปัจจัยต่างๆ:

  • ดิสก์เชิงกลนั้นแย่มากที่การอ่าน / เขียน IO แบบสุ่ม ที่จะค้นพบ แย่แค่ไหน พวกเขาสามารถเพียงแค่ต่อท้าย --ซิงค์=1 ของคุณ ฟิโอ คำสั่ง (เรื่องสั้น: พวกเขาเป็น เหลือเชื่อ แย่ อย่างน้อยก็เมื่อเทียบกับคอนโทรลเลอร์ BBU RAID ที่เหมาะสมหรือ SSD ที่ป้องกันการสูญเสียพลังงาน)

  • RAID5 มีบทลงโทษในการเขียนเนื่องจากแถบอ่าน/แก้ไข/เขียน นอกจากนี้ยังขอแนะนำอย่างยิ่งให้ หลีกเลี่ยง บนดิสก์เชิงกลหลาย TB เนื่องจากเหตุผลด้านความปลอดภัย มีดิสก์ 4 แผ่น โปรดพิจารณาใช้ RAID10 แทนอย่างจริงจัง

  • LUKS ซึ่งให้บริการการเข้ารหัสทั้งดิสก์โดยใช้ซอฟต์แวร์ มีค่าใช้จ่าย (สำคัญ) ทั้งการอ่านและเขียนอย่างหลีกเลี่ยงไม่ได้

  • การใช้ BTRFS ทำให้ LVM นั้นไม่จำเป็นเลย แม้ว่าโวลุ่มที่ใช้ LVM ในปริมาณมากจะไม่ทำให้ประสิทธิภาพลดลงแต่อย่างใด แต่คุณยังใส่เลเยอร์ IO อื่นและทำให้ตัวเองต้องเจอกับปัญหาการจัดตำแหน่ง (เพิ่มเติม)

  • ในที่สุด BTRFS เองก็ไม่ได้เร็วเป็นพิเศษ โดยเฉพาะอย่างยิ่งการอ่านตามลำดับที่ช้าของคุณสามารถติดตามไปยังการกระจายตัวที่น่ากลัวของ BTRFS (เนื่องจากเป็น CoW และ การบังคับใช้ความละเอียด 4K - ในการเปรียบเทียบเพื่อให้ได้ประสิทธิภาพที่ดีจาก ZFS โดยทั่วไปควรเลือกเรคคอร์ด 64K-128K เมื่อใช้ดิสก์เชิงกล)

หากต้องการเปรียบเทียบประสิทธิภาพพื้นฐาน เราขอแนะนำเป็นอย่างยิ่งให้ทำซ้ำ IO stack ของคุณโดยวัดความเร็วในการอ่าน/เขียนแบบสุ่มและตามลำดับในแต่ละขั้นตอน กล่าวอีกนัยหนึ่ง:

  • สร้างอาร์เรย์ RAID10 และเรียกใช้ วว และ ฟิโอ บนอาร์เรย์ดิบ (ไม่มีระบบไฟล์);

  • หากจำเป็นต้องมีการเข้ารหัสทั้งดิสก์จริงๆ ให้ใช้ LUKS เพื่อสร้างอุปกรณ์ที่เข้ารหัสแล้วรันใหม่ วว + ฟิโอ บนอุปกรณ์ที่เข้ารหัสดิบ (อีกครั้งโดยไม่มีระบบไฟล์) เปรียบเทียบกับผลลัพธ์ก่อนหน้าเพื่อให้เข้าใจความหมายของประสิทธิภาพการทำงาน

  • พยายาม ทั้งสอง XFS และ BTRFS (ทำงานตามปกติ วว + ฟิโอ ม้านั่งด่วน) เพื่อทำความเข้าใจว่าระบบไฟล์สองระบบทำงานอย่างไร หาก BTRFS ช้าเกินไป ให้ลองแทนที่ด้วย lvmthin และ XFS (แต่โปรดจำไว้ว่าในกรณีนี้ คุณจะสูญเสียการตรวจสอบข้อมูลผู้ใช้ ซึ่งคุณต้องการอีกชั้นหนึ่ง - ความซื่อสัตย์ - ตัวเองสั่งตีประสิทธิภาพที่สำคัญ)

ถ้าทั้งหมดนี้ดูเหมือนยุ่งเหยิง มันก็เป็นเช่นนั้นจริงๆ การดำเนินการทั้งหมดข้างต้นคุณเป็นเพียงการขีดข่วนประสิทธิภาพของพื้นที่เก็บข้อมูล: คุณต้องพิจารณาพฤติกรรมของแอปพลิเคชันจริง (แทนที่จะเป็นลำดับทั้งหมด วว หรือสุ่มบริสุทธิ์ ฟิโอ ผลลัพธ์), อัตราส่วนการเข้าถึงแคช, การจัดแนวรูปแบบ IO ฯลฯ แต่เดี๋ยวก่อน - น้อย ดีกว่ามาก ไม่มีอะไรดังนั้นมาเริ่มกันที่สิ่งพื้นฐาน

cn flag
คุณจะพูดอะไรเกี่ยวกับการมี luks จากนั้น lvm ด้วย ext4 แบบเก่าธรรมดาและลบความเพ้อฝันทั้งหมด มันจะดีกว่าไหมในการเขียนและอ่านตามลำดับ ฉันมีแอปพลิเคชั่นสองสามตัวที่ใช้ฐานข้อมูล sqlite และเขียนไฟล์ข้อมูลเมตาในเครื่องด้วย เช่น radarr, sonarr, readarr และ plex แต่การอ่านทั้งหมดนี้ทำให้ทั้งระบบต้องทนทุกข์ทรมานมาก ฉันยังมีปัญหามากมายในการเรียกใช้คำสั่งเช่น kubectl get pod เนื่องจากมันสร้างไฟล์ขนาดเล็กจำนวนมากสำหรับแคช ดังนั้นสำหรับสิ่งนี้ ฉันเพิ่งติดตั้ง tmpfs ในโฟลเดอร์นั้น แต่ทำ ดังนั้นในที่สุดฉันก็จะหน่วยความจำไม่เพียงพอแม้จะทำงานกับประเภทนี้ ชั่วคราว
cn flag
ฉันไม่รู้ว่าทำไมฉันถึงใช้ lvm เมื่อก่อนฉันเคยใช้ luks กับ mdadm และ ext 4
shodanshok avatar
ca flag
หากไม่มี LVM คุณจะสูญเสียภาพรวมระดับบล็อก หากระบบไฟล์ของคุณไม่รองรับโดยกำเนิด (เช่น ext3/4, xfs ฯลฯ) คุณจะไม่สามารถถ่ายภาพสแน็ปช็อตใดๆ ได้ มีเพียงคุณเท่านั้นที่สามารถประเมินได้ว่าสแนปชอตที่สูญเสียไปมีความสำคัญมากน้อยเพียงใด (หรือไม่) ในอีกด้านหนึ่ง btrfs มีสแน็ปช็อตในตัวดังนั้นจึงไม่ต้องการ LVM แต่ฉันพบว่าประสิทธิภาพค่อนข้างต่ำสำหรับสิ่งที่แตกต่างจากเซิร์ฟเวอร์ไฟล์ทั่วไป
cn flag
ขอบคุณมาก ๆ! ฉันได้เปลี่ยนเป็น Raid 10 และใช้ luks + lvm + ext และเขียนได้ถึง 150MB/s
Score:1
ธง ng

เวอร์ชันย่อ: ฉันคิดว่าเป็นไปได้ว่าปัญหาของคุณคือการใช้เกณฑ์มาตรฐานของคุณ การเขียนแบบสุ่มที่มีขนาดเล็กกว่าขนาดก้อน RAID ของคุณมาก.

ปัญหาด้านประสิทธิภาพเป็นสิ่งที่คุณสังเกตเห็นขณะใช้ระบบหรือไม่? หรือเป็นเพียงว่าผลการวัดประสิทธิภาพดูแย่? เกณฑ์มาตรฐานการเขียนแบบสุ่ม 16K นั้นกำลังเข้าใกล้กรณีที่เลวร้ายที่สุดสำหรับ RAID 5 นั้นด้วยก้อนใหญ่ 512K

RAID 5 มี parity chunk ที่ต้องอัปเดตควบคู่ไปกับข้อมูล หากคุณมีเวิร์กโหลดตามลำดับที่เคอร์เนลสามารถตัดเป็น 512K เขียนได้ คุณก็เพียงแค่คำนวณข้อมูลพาริตีใหม่ จากนั้นจึงเขียนกลุ่มข้อมูลและพาริตี้อันที่แยกออกมา หนึ่งเขียนในแปลเป็นสองเขียนออก

แต่ด้วยการเขียน 16K ที่เล็กกว่าขนาดก้อนมาก คุณต้องอ่านข้อมูลเก่าและพาริตีเก่าก่อน จากนั้นจึงคำนวณข้อมูลพาริตีใหม่ แล้วจึงเขียนข้อมูลใหม่และพาริตีใหม่ นั่นคือ อ่าน-อ่าน-เขียน-เขียน หนึ่งการเขียนแปลเป็นสี่ I/O ด้วยการเขียนแบบสุ่ม ไม่มีทางที่แม้แต่ตัวควบคุม RAID ที่ดีที่สุดในโลกจะคาดเดาได้ว่าชิ้นใดที่ควรแคช

หากคุณใช้อาร์เรย์เพื่อจัดเก็บไฟล์ขนาดใหญ่ แสดงว่าคุณโชคดีแล้ว เพราะคุณใช้เกณฑ์มาตรฐานที่ไม่ถูกต้องในการประเมินประสิทธิภาพ ถ้าคุณเปลี่ยนไป เขียนสุ่ม เพียงแค่ เขียน ในเกณฑ์มาตรฐานของคุณ เพื่อให้การเขียนเรียงตามลำดับ มันควรจะดีขึ้นมาก!

แต่ถ้าภาระงานของคุณเกิดจากการสุ่มเขียนข้อมูลเล็กๆ น้อยๆ คุณจะต้องเปลี่ยนแปลงบางอย่างเกี่ยวกับอาร์เรย์ คุณควรจะได้รับบริการที่ดีกว่าด้วยดิสก์ 4 RAID 10 แต่ถึงกระนั้นสื่อก็หมุนได้ มันจะไม่เขย่าโลกของคุณ ฉันคิดว่าประสิทธิภาพของ RAID 10 ควรเป็น 2x ถึง 3x สิ่งที่คุณมีอยู่ตอนนี้ เช่น 275 ถึง 400 IOPS อาจจะเป็น 4MiB/s ถึง 6MiB/s ในเกณฑ์มาตรฐานนั้น

สำหรับการใช้ SSD เพื่อแคช บางทีด้วย bcache คุณจะต้องกำจัดความซ้ำซ้อนของคุณ ลองพิจารณาใช้ RAID 1 จากสอง SSD สำหรับการแคชหรือไม่ คุณไม่จำเป็นต้องใช้ NVMe ที่นี่อย่างแน่นอน เนื่องจากความเร็วของไดรฟ์เหล่านี้ SATA น่าจะดี

(BTW อย่าใช้พาร์ติชันกับอุปกรณ์ดิบ มันไม่สร้างความแตกต่าง ส่วนตัวฉันไม่ใช้พาร์ติชัน)

cn flag
สวัสดี ไมค์ ขอบคุณมากสำหรับคำตอบของคุณ! ปัญหาด้านประสิทธิภาพที่ฉันสังเกตเห็นคือขณะใช้ระบบ ก่อนอื่นฉันทำการทดสอบ dd อย่างง่ายโดยเขียนลำดับ 0 เขียนและถึงกระนั้นมันก็ไม่ได้ใกล้เคียงกับความเร็วของ sata นั้น เพื่อแสดงให้คุณเห็นว่าฉันได้ทำใหม่และใช้ไซต์บล็อกของการจู่โจมเพื่อให้คุณเห็นว่ามันเป็นอย่างไร ``` root@hp-proliant-dl160-g6-1:~# dd if=/dev/zero of=disk-test oflag=direct bs=512k count=100 100+0 บันทึกใน 100+0 บันทึกออก คัดลอก 52428800 ไบต์ (52 MB, 50 MiB), 5.81511 วินาที, 9.0 MB/วินาที ``` ฉันต้องการ Raid 5 เพื่อที่ฉันจะได้ใช้ spc มากขึ้นและยังมีความปลอดภัยในกรณีที่เกิดความล้มเหลว
Nikita Kipriyanov avatar
za flag
... ความซ้ำซ้อนของแคช SSD สามารถกู้คืนได้อย่างง่ายดายโดยใช้ *2* SSD สร้างอาร์เรย์ RAID1 จากพวกมันและใช้ *อาร์เรย์นั้น* เป็นอุปกรณ์แคช
Mike Andrews avatar
ng flag
@JaysonReis ว้าว... มันช้า แนวคิด 2-3 ประการ: ประการแรก เพื่อตรวจสุขภาพที่ดี ตัดความเป็นไปได้ที่ไดรฟ์จะหมุนลง เมื่อคุณทำแบบทดสอบนั้น ให้ลอง "dd" แล้วทำซ้ำทันทีหลังจากนั้น ใช้เวลาจากการวิ่งครั้งที่ 2 นอกจากนี้ สิ่งที่ @shodanshok อธิบายด้านล่างเป็นคำแนะนำที่ดี: สร้างโปรไฟล์ RAID โดยตรง จากนั้นเพิ่มเลเยอร์ ดูว่าคุณสามารถระบุได้ว่าเลเยอร์ใดเป็นสาเหตุของปัญหา

โพสต์คำตอบ

คนส่วนใหญ่ไม่เข้าใจว่าการถามคำถามมากมายจะปลดล็อกการเรียนรู้และปรับปรุงความสัมพันธ์ระหว่างบุคคล ตัวอย่างเช่น ในการศึกษาของ Alison แม้ว่าผู้คนจะจำได้อย่างแม่นยำว่ามีคำถามกี่ข้อที่ถูกถามในการสนทนา แต่พวกเขาไม่เข้าใจความเชื่อมโยงระหว่างคำถามและความชอบ จากการศึกษาทั้ง 4 เรื่องที่ผู้เข้าร่วมมีส่วนร่วมในการสนทนาด้วยตนเองหรืออ่านบันทึกการสนทนาของผู้อื่น ผู้คนมักไม่ตระหนักว่าการถามคำถามจะมีอิทธิพลหรือมีอิทธิพลต่อระดับมิตรภาพระหว่างผู้สนทนา