mdadm raid logiciel niveau 1

Avatar de l’utilisateur
159645
Messages : 23
Inscription : 23 janvier 2010, 22:49

mdadm raid logiciel niveau 1

Message par 159645 » 03 mars 2015, 11:02

Bonjour à tous,

Je souhaite installer deux disques durs en raid 1 pour sécuriser mes données. Pas de soucis pour installer la machine en raid tout fonctionne bien.

Ci dessous /proc/mdstat

Code : Tout sélectionner

Personalities : [raid1]
md121 : active raid1 vdb5[1] vda5[0]
      4095936 blocks super 1.2 [2/2] [UU]
      bitmap: 0/1 pages [0KB], 65536KB chunk

md122 : active raid1 vda8[0] vdb8[1]
      22177664 blocks super 1.2 [2/2] [UU]
      bitmap: 0/1 pages [0KB], 65536KB chunk

md123 : active raid1 vdb6[1] vda6[0]
      2047936 blocks super 1.2 [2/2] [UU]
      bitmap: 1/1 pages [4KB], 65536KB chunk

md124 : active raid1 vdb7[1] vda7[0]
      1024448 blocks super 1.2 [2/2] [UU]
      bitmap: 1/1 pages [4KB], 65536KB chunk

md125 : active raid1 vdb3[1] vda3[0]
      511936 blocks super 1.0 [2/2] [UU]

md126 : active raid1 vdb2[1] vda2[0]
      2047936 blocks super 1.2 [2/2] [UU]

md127 : active raid1 vdb1[1] vda1[0]
      20479872 blocks super 1.2 [2/2] [UU]
      bitmap: 0/1 pages [0KB], 65536KB chunk
Ci dessous: parted /dev/vda print

Code : Tout sélectionner

Numéro  Début   Fin     Taille  Type      Système de fichiers  Fanions
 1      1049kB  21,0GB  21,0GB  primary                        raid
 2      21,0GB  23,1GB  2098MB  primary                        raid
 3      23,1GB  23,6GB  524MB   primary   ext2                 démarrage, raid
 4      23,6GB  53,7GB  30,1GB  extended
 5      23,6GB  27,8GB  4196MB  logical                        raid
 6      27,8GB  29,9GB  2098MB  logical                        raid
 7      29,9GB  31,0GB  1050MB  logical                        raid
 8      31,0GB  53,7GB  22,7GB  logical                        raid
Ci dessous: parted /dev/vdb print

Code : Tout sélectionner

Numéro  Début   Fin     Taille  Type      Système de fichiers  Fanions
 1      1049kB  21,0GB  21,0GB  primary                        raid
 2      21,0GB  23,1GB  2098MB  primary                        raid
 3      23,1GB  23,6GB  524MB   primary   ext2                 démarrage, raid
 4      23,6GB  53,7GB  30,1GB  extended
 5      23,6GB  27,8GB  4196MB  logical                        raid
 6      27,8GB  29,9GB  2098MB  logical                        raid
 7      29,9GB  31,0GB  1050MB  logical                        raid
 8      31,0GB  53,7GB  22,7GB  logical                        raid
Contenu de /etc/fstab

Code : Tout sélectionner

UUID=510f2331-8c17-4ebc-a5af-f6b7537c7cc3 /                       xfs     defaults        1 1
UUID=efffa9a7-764b-48b7-a4d6-cd1fea45ee5d /boot                   ext2    defaults        1 2
UUID=6a090c08-4f88-437e-b558-889d8fd0039e /home                   xfs     defaults        1 2
UUID=cf27ec5b-5df8-4046-b44d-acee1461ceaf /tmp                    xfs     nodev,nosuid,noexec 1 2
UUID=4e601193-a2c2-4093-a8b0-c021495e0ab4 /var/tmp                xfs     nodev,nosuid,noexec 1 2
UUID=c1343e03-aee3-45bd-9db5-d712326dbbb1 /work                   xfs     defaults        1 2
UUID=80288024-e2ab-4ac1-a273-dea3158b9663 swap                    swap    defaults        0 0
sortie de la commande blkid

Code : Tout sélectionner

/dev/vda1: UUID="f9b35290-1481-7c21-04a3-dcaf5813a1fe" UUID_SUB="84d34ec4-e46c-c36f-edae-0a8c4a8bb61f" LABEL="localhost:root" TYPE="linux_raid_member"
/dev/vda2: UUID="5407d8f8-e6b1-f290-2970-19fa29205476" UUID_SUB="faa42267-3de9-3e3b-b4da-b5f45bca48fb" LABEL="localhost:swap" TYPE="linux_raid_member"
/dev/vda3: UUID="f7a3830a-b752-4880-1bfa-fb34bd73dd44" UUID_SUB="0eb060ef-7c23-6fce-1138-3872bb006a24" LABEL="localhost:boot" TYPE="linux_raid_member"
/dev/vda5: UUID="754b3184-40b8-057c-c779-0337d121b405" UUID_SUB="f6ce31e6-7ba4-e1cb-b467-3ccf9540badc" LABEL="localhost:home" TYPE="linux_raid_member"
/dev/vda6: UUID="115c860a-e412-17c9-5695-43ec727b9ad8" UUID_SUB="297be438-d001-5a47-8ebd-f04c77d1cb50" LABEL="localhost:tmp" TYPE="linux_raid_member"
/dev/vda7: UUID="e869a963-dc4a-3b58-b77c-baf203970f2a" UUID_SUB="06de4283-f2ad-685c-b2f0-7981d09f2ad8" LABEL="localhost:var_tmp" TYPE="linux_raid_member"
/dev/vda8: UUID="9a098ae1-5b29-23a3-3bd3-13649f2c9114" UUID_SUB="f059b0ff-9acc-676f-fa1d-f2bd19ef63fb" LABEL="localhost:work" TYPE="linux_raid_member"
/dev/vdb1: UUID="f9b35290-1481-7c21-04a3-dcaf5813a1fe" UUID_SUB="afe63412-5adb-41a2-bc33-42bee67483a4" LABEL="localhost:root" TYPE="linux_raid_member"
/dev/vdb2: UUID="5407d8f8-e6b1-f290-2970-19fa29205476" UUID_SUB="8564c4cf-90e4-e17f-93f9-e1d40f9f9e64" LABEL="localhost:swap" TYPE="linux_raid_member"
/dev/vdb3: UUID="f7a3830a-b752-4880-1bfa-fb34bd73dd44" UUID_SUB="ade391a4-c539-8108-06c7-4c70d8bdcb69" LABEL="localhost:boot" TYPE="linux_raid_member"
/dev/vdb5: UUID="754b3184-40b8-057c-c779-0337d121b405" UUID_SUB="9cd94497-9e20-c5b9-8a52-081f86ccb942" LABEL="localhost:home" TYPE="linux_raid_member"
/dev/vdb6: UUID="115c860a-e412-17c9-5695-43ec727b9ad8" UUID_SUB="ea8a1959-4490-f13b-96ee-8c01c085a3b2" LABEL="localhost:tmp" TYPE="linux_raid_member"
/dev/vdb7: UUID="e869a963-dc4a-3b58-b77c-baf203970f2a" UUID_SUB="9b25f6d6-5bcf-d0ed-f27b-4b35872f897d" LABEL="localhost:var_tmp" TYPE="linux_raid_member"
/dev/vdb8: UUID="9a098ae1-5b29-23a3-3bd3-13649f2c9114" UUID_SUB="19e0928d-86fa-345b-0fc4-3e7233d7a162" LABEL="localhost:work" TYPE="linux_raid_member"
/dev/md127: UUID="510f2331-8c17-4ebc-a5af-f6b7537c7cc3" TYPE="xfs"
/dev/md126: UUID="80288024-e2ab-4ac1-a273-dea3158b9663" TYPE="swap"
/dev/md125: UUID="efffa9a7-764b-48b7-a4d6-cd1fea45ee5d" TYPE="ext2"
/dev/md124: UUID="4e601193-a2c2-4093-a8b0-c021495e0ab4" TYPE="xfs"
/dev/md123: UUID="cf27ec5b-5df8-4046-b44d-acee1461ceaf" TYPE="xfs"
/dev/md122: UUID="c1343e03-aee3-45bd-9db5-d712326dbbb1" TYPE="xfs"
/dev/md121: UUID="6a090c08-4f88-437e-b558-889d8fd0039e" TYPE="xfs"
Enfin le contenu de /etc/mdadm.conf

Code : Tout sélectionner

# mdadm.conf written out by anaconda
MAILADDR root
AUTO +imsm +1.x -all
ARRAY /dev/md/boot level=raid1 num-devices=2 UUID=f7a3830a:b7524880:1bfafb34:bd73dd44
ARRAY /dev/md/home level=raid1 num-devices=2 UUID=754b3184:40b8057c:c7790337:d121b405
ARRAY /dev/md/root level=raid1 num-devices=2 UUID=f9b35290:14817c21:04a3dcaf:5813a1fe
ARRAY /dev/md/swap level=raid1 num-devices=2 UUID=5407d8f8:e6b1f290:297019fa:29205476
ARRAY /dev/md/tmp level=raid1 num-devices=2 UUID=115c860a:e41217c9:569543ec:727b9ad8
ARRAY /dev/md/var_tmp level=raid1 num-devices=2 UUID=e869a963:dc4a3b58:b77cbaf2:03970f2a
ARRAY /dev/md/work level=raid1 num-devices=2 UUID=9a098ae1:5b2923a3:3bd31364:9f2c9114
Par contre si je retire un des disques dur (je test sur une machine virtuelle kvm/qemu), la machine semble redémarrer normalement trouve bien la partition /boot grub se charge puis centos démarre.
Mais le démarrage se fait en mode emergency

Lors du demarrage de systemd j'obtient un timeout

[ TIME ] Timed out waiting for device dev-disk-by\x2duuid-c13...device.
[DEPEND] Dependency failed for /work.
[DEPEND] Dependency failed for Local File Systems.
[DEPEND] Dependency failed for Relabell all filesystems, if necessary.
[DEPEND] Dependency failed for Mark the need to relabel after reboot.
Welcome to emergency mode!

et /proc/mdstat ressemble a ca:

Code : Tout sélectionner

Personalities : [raid1]
md121 : inactive raid1 vda7[0](S)
             1024512 blocks super 1.2

md122 : inactive raid1 vda8[0](S)
             22177792 blocks super 1.2

md123 : inactive raid1 vda5[0](S)
             4096000 blocks super 1.2

md124 : inactive raid1 vda6[0](S)
            2048000 blocks super 1.2

md125 : active raid1 vda1[0]
            20479872 blocks super 1.0 [2/1] [U_]
            bitmap: 1/1 pages [4KB], 65536KB chunk

md126 : active raid1 vda3[0]
          511936 blocks super 1.2 [2/1] [U_]

md127 : active raid1 vda2[0]
      2047936 blocks super 1.2 [2/1] [U_]
Je ne comprend pas pourquoi /dev/md121-124 sont inactifs après le redémarrage.
Si je remet le disque manquant le poste redémarre toujours en mode emergency, mais je peux redémarrer le raid en ajoutant les partitions du deuxieme disque et ensuite redémarrer normalement.

Si vous avez une explication je suis prenneur.
Merci,
Bonne journée.

Répondre