Setup RAID Level 6 (Striping dengan Double Distributed Parity) di Linux - Bagian 5


RAID 6 adalah versi RAID 5 yang ditingkatkan, yang memiliki dua paritas terdistribusi yang memberikan toleransi kesalahan bahkan setelah dua drive gagal. Sistem kritis misi masih beroperasi jika terjadi kegagalan dua disk secara bersamaan. Mirip dengan RAID 5, namun lebih tangguh karena menggunakan satu disk lagi untuk paritas.

Pada artikel kami sebelumnya, kami telah melihat paritas terdistribusi di RAID 5, namun dalam artikel ini kita akan melihat RAID 6 dengan paritas terdistribusi ganda. Jangan mengharapkan performa ekstra dibandingkan RAID lainnya, jika iya kita harus menginstall RAID Controller khusus juga. Di sini, di RAID 6 bahkan jika kita kehilangan 2 disk, kita bisa mendapatkan datanya kembali dengan mengganti drive cadangan dan membangunnya dari paritas.

Untuk menyiapkan RAID 6, diperlukan minimal 4 jumlah disk atau lebih dalam satu set. RAID 6 memiliki banyak disk bahkan dalam beberapa set mungkin memiliki beberapa banyak disk, saat membaca, ia akan membaca dari semua drive, jadi membaca akan lebih cepat sedangkan menulis akan buruk karena harus stripe pada beberapa disk.

Sekarang, banyak dari kita yang sampai pada kesimpulan, mengapa kita perlu menggunakan RAID 6, padahal kinerjanya tidak seperti RAID lainnya. Hmm… mereka yang mengajukan pertanyaan ini perlu tahu bahwa, jika mereka membutuhkan toleransi kesalahan yang tinggi pilih RAID 6. Di setiap lingkungan yang lebih tinggi dengan ketersediaan database yang tinggi, mereka menggunakan RAID 6 karena database adalah yang paling penting dan harus aman dengan cara apa pun, juga dapat berguna untuk lingkungan streaming video.

Pro dan Kontra RAID 6

  1. Performanya bagus.
  2. RAID 6 mahal karena memerlukan dua drive independen yang digunakan untuk fungsi paritas.
  3. Akan kehilangan kapasitas dua disk untuk menggunakan informasi paritas (paritas ganda).
  4. Tidak ada data yang hilang, bahkan setelah dua disk gagal. Kita dapat membangun kembali dari paritas setelah mengganti disk yang gagal.
  5. Membaca akan lebih baik daripada RAID 5, karena membaca dari banyak disk, Namun kinerja penulisan akan sangat buruk tanpa Pengontrol RAID khusus.

Persyaratan

Diperlukan minimal 4 jumlah disk untuk membuat RAID 6. Jika Anda ingin menambahkan lebih banyak disk, Anda bisa, tetapi Anda harus memiliki pengontrol serangan khusus. Dalam perangkat lunak RAID, kita tidak akan mendapatkan kinerja yang lebih baik di RAID 6. Jadi kita memerlukan pengontrol RAID fisik.

Bagi Anda yang baru mengenal pengaturan RAID, kami sarankan untuk membaca artikel RAID di bawah.

  1. Konsep Dasar RAID di Linux – Bagian 1
  2. Membuat Software RAID 0 (Stripe) di Linux – Bagian 2
  3. Menyiapkan RAID 1 (Mirroring) di Linux – Bagian 3
Pengaturan Server Saya
Operating System :	CentOS 6.5 Final
IP Address	 :	192.168.0.228
Hostname	 :	rd6.tecmintlocal.com
Disk 1 [20GB]	 :	/dev/sdb
Disk 2 [20GB]	 :	/dev/sdc
Disk 3 [20GB]	 :	/dev/sdd
Disk 4 [20GB]	 : 	/dev/sde

Artikel ini adalah Bagian 5 dari 9 seri RAID tutorial, di sini kita akan melihat bagaimana kita dapat membuat dan mengatur Perangkat Lunak RAID 6 atau Striping dengan Double Distributed Parity di Sistem atau server Linux menggunakan empat disk 20GB bernama /dev/sdb, /dev/sdc, /dev/sdd dan /dev/sde.

Langkah 1: Menginstal Alat mdadm dan Periksa Drive

1. Jika Anda mengikuti dua artikel Raid terakhir kami (Bagian 2 dan Part 3), di mana kami telah menunjukkan caranya pasang alat 'mdadm'. Jika Anda baru mengenal artikel ini, izinkan saya menjelaskan bahwa 'mdadm' adalah alat untuk membuat dan mengelola Raid di sistem Linux, mari instal alat tersebut menggunakan perintah berikut sesuai dengan distribusi Linux Anda.

yum install mdadm		[on RedHat systems]
apt-get install mdadm 	[on Debain systems]

2. Setelah menginstal alat tersebut, sekarang saatnya memverifikasi empat drive terpasang yang akan kita gunakan untuk pembuatan serangan menggunakan perintah 'fdisk' berikut.

fdisk -l | grep sd

3. Sebelum membuat drive RAID, selalu periksa drive disk kami apakah ada RAID yang sudah dibuat pada disk tersebut.

mdadm -E /dev/sd[b-e]
mdadm --examine /dev/sdb /dev/sdc /dev/sdd /dev/sde

Catatan: Pada gambar di atas menggambarkan bahwa tidak ada super-block yang terdeteksi atau tidak ada RAID yang ditentukan dalam empat disk drive. Kami mungkin melangkah lebih jauh untuk mulai membuat RAID 6.

Langkah 2: Mendorong Partisi untuk RAID 6

4. Sekarang buat partisi untuk serangan di '/dev/sdb', '/dev/sdc', '/dev/ sdd' dan '/dev/sde' dengan bantuan perintah fdisk berikut. Di sini, kami akan menunjukkan cara membuat partisi pada drive sdb dan langkah-langkah yang sama selanjutnya yang harus diikuti untuk drive lainnya.

Buat Partisi /dev/sdb
fdisk /dev/sdb

Silakan ikuti instruksi seperti yang ditunjukkan di bawah ini untuk membuat partisi.

  1. Tekan 'n' untuk membuat partisi baru.
  2. Kemudian pilih 'P' untuk partisi Primer.
  3. Selanjutnya pilih nomor partisi sebagai 1.
  4. Tentukan nilai default hanya dengan menekan tombol Enter dua kali.
  5. Selanjutnya tekan 'P' untuk mencetak partisi yang ditentukan.
  6. Tekan 'L' untuk mencantumkan semua jenis yang tersedia.
  7. Ketik 't' untuk memilih partisi.
  8. Pilih 'fd' untuk serangan otomatis Linux dan tekan Enter untuk menerapkan.
  9. Kemudian gunakan kembali 'P' untuk mencetak perubahan yang telah kita buat.
  10. Gunakan 'w' untuk menulis perubahan.

Buat Partisi /dev/sdb
fdisk /dev/sdc

Buat Partisi /dev/sdd
fdisk /dev/sdd

Buat Partisi /dev/sde
fdisk /dev/sde

5. Setelah membuat partisi, merupakan kebiasaan baik untuk memeriksa drive untuk mencari super-blok. Jika super-blok tidak ada maka kita dapat membuat pengaturan RAID baru.

mdadm -E /dev/sd[b-e]1


or

mdadm --examine /dev/sdb1 /dev/sdc1 /dev/sdd1 /dev/sde1

Langkah 3: Membuat perangkat md (RAID)

6. Sekarang saatnya membuat perangkat Raid 'md0' (yaitu /dev/md0) dan menerapkan level serangan pada semua partisi dan partisi yang baru dibuat. konfirmasikan serangan itu menggunakan perintah berikut.

mdadm --create /dev/md0 --level=6 --raid-devices=4 /dev/sdb1 /dev/sdc1 /dev/sdd1 /dev/sde1
cat /proc/mdstat

7. Anda juga dapat memeriksa proses penyerbuan saat ini menggunakan perintah tonton seperti yang ditunjukkan pada gambar di bawah.

watch -n1 cat /proc/mdstat

8. Verifikasi perangkat penyerbuan menggunakan perintah berikut.

mdadm -E /dev/sd[b-e]1

Catatan:: Perintah di atas akan menampilkan informasi dari keempat disk, yang cukup panjang sehingga tidak memungkinkan untuk memposting output atau tangkapan layar di sini.

9. Selanjutnya, verifikasi susunan RAID untuk mengonfirmasi bahwa sinkronisasi ulang telah dimulai.

mdadm --detail /dev/md0

Langkah 4: Membuat FileSystem di Perangkat Raid

10. Buat sistem file menggunakan ext4 untuk '/dev/md0' dan pasang di bawah /mnt/raid6. Di sini kami menggunakan ext4, tetapi Anda dapat menggunakan jenis sistem file apa pun sesuai pilihan Anda.

mkfs.ext4 /dev/md0

11. Pasang sistem file yang dibuat di bawah /mnt/raid6 dan verifikasi file di bawah titik pemasangan, kita dapat melihat direktori hilang+ditemukan.

mkdir /mnt/raid6
mount /dev/md0 /mnt/raid6/
ls -l /mnt/raid6/

12. Buat beberapa file di bawah titik mount dan tambahkan beberapa teks di salah satu file untuk memverifikasi konten.

touch /mnt/raid6/raid6_test.txt
ls -l /mnt/raid6/
echo "tecmint raid setups" > /mnt/raid6/raid6_test.txt
cat /mnt/raid6/raid6_test.txt

13. Tambahkan entri di /etc/fstab untuk memasang perangkat secara otomatis saat startup sistem dan menambahkan entri di bawah ini, titik pemasangan mungkin berbeda sesuai dengan lingkungan Anda.

vim /etc/fstab

/dev/md0                /mnt/raid6              ext4    defaults        0 0

14. Selanjutnya, jalankan perintah 'mount -a' untuk memverifikasi apakah ada kesalahan dalam entri fstab.

mount -av

Langkah 5: Simpan Konfigurasi RAID 6

15. Harap diperhatikan bahwa secara default RAID tidak memiliki file konfigurasi. Kita harus menyimpannya secara manual menggunakan perintah di bawah ini dan kemudian memverifikasi status perangkat '/dev/md0'.

mdadm --detail --scan --verbose >> /etc/mdadm.conf
mdadm --detail /dev/md0

Langkah 6: Menambahkan Drive Cadangan

16. Sekarang memiliki 4 disk dan tersedia dua informasi paritas. Dalam beberapa kasus, jika salah satu disk gagal kita bisa mendapatkan datanya, karena ada paritas ganda di RAID 6.

Mungkin jika disk kedua gagal, kita dapat menambahkan yang baru sebelum kehilangan disk ketiga. Dimungkinkan untuk menambahkan drive cadangan saat membuat set RAID kami, Tapi saya belum menentukan drive cadangan saat membuat set serangan kami. Namun, kita dapat menambahkan drive cadangan setelah terjadi kegagalan drive atau saat membuat kumpulan RAID. Sekarang kita telah membuat kumpulan RAID, sekarang izinkan saya menambahkan drive cadangan untuk demonstrasi.

Untuk tujuan demonstrasi, saya telah memasang disk HDD baru (yaitu /dev/sdf), mari kita verifikasi disk yang terpasang.

ls -l /dev/ | grep sd

17. Sekarang konfirmasikan lagi bahwa disk baru yang terpasang untuk serangan apa pun sudah dikonfigurasi atau belum menggunakan perintah mdadm yang sama.

mdadm --examine /dev/sdf

Catatan: Seperti biasa, seperti kita telah membuat partisi untuk empat disk sebelumnya, kita juga harus membuat partisi baru pada disk yang baru dicolokkan menggunakan fdisk perintah.

fdisk /dev/sdf

18. Sekali lagi setelah membuat partisi baru di /dev/sdf, konfirmasikan penggerebekan pada partisi tersebut, sertakan drive cadangan ke /dev/md0 razia perangkat dan verifikasi perangkat yang ditambahkan.

mdadm --examine /dev/sdf
mdadm --examine /dev/sdf1
mdadm --add /dev/md0 /dev/sdf1
mdadm --detail /dev/md0

Langkah 7: Periksa Toleransi Kesalahan Raid 6

19. Sekarang, mari kita periksa apakah drive cadangan berfungsi secara otomatis, jika ada disk yang gagal dalam Array kita. Untuk pengujian, saya pribadi telah menandai salah satu drive gagal.

Di sini, kami akan menandai /dev/sdd1 sebagai drive gagal.

mdadm --manage --fail /dev/md0 /dev/sdd1

20. Izinkan saya mendapatkan detail kumpulan RAID sekarang dan memeriksa apakah cadangan kami mulai disinkronkan.

mdadm --detail /dev/md0

Hore! Di sini, kita dapat melihat suku cadang diaktifkan dan memulai proses pembangunan kembali. Di bagian bawah kita dapat melihat drive yang rusak /dev/sdd1 terdaftar sebagai rusak. Kita dapat memantau proses pembangunan menggunakan perintah berikut.

cat /proc/mdstat

Kesimpulan:

Di sini, kita telah melihat cara menyiapkan RAID 6 menggunakan empat disk. Tingkat RAID ini adalah salah satu pengaturan mahal dengan redundansi tinggi. Kita akan melihat cara menyiapkan RAID 10 Bersarang dan banyak lagi di artikel berikutnya. Sampai saat itu tiba, tetaplah terhubung dengan TECMINT.