QNAP Crash disque de démarrage et Raid 10 en reconstruction

megakroug

Padawan
30 Octobre 2016
78
0
11
Bonjour,

Suite à la mise à jour de mon NAS TS453A et à son non redémarrage automatique j'ai du l'éteindre de manière forcée via le bouton power.
Lorsque le NAS a redémarré il m'a indiqué un problème sur le disque dur 1 qui est à priori celui du système, j'ai fait plusieurs tests rapides qui n'ont pas révélé de panne cependant maintenant il m'indique que des erreurs de lecture/écriture irrécupérables ont été détectées :confused:.
J'ai tenté de changer le disque à chaud mais le Nas a un peu perdu les pédales car je pense que c'était le disque système, après redémarrage avec le disque 1 originel j'ai pu de nouveau accéder à mes données mais le disque a l'air HS :mad:(cf screenshot). Mais j'ai quand même pu lancer une sauvegarde de tout ce que j'avais dessus :)
Par ailleurs, le Nas tente désespérément de reconstruire le RAID 10, c'est la 2ème fois que je relance l'opération mais j'ai l'impression que le Pool de stockage n'arrive pas à se remettre dans un état nominal surement à cause du disque 1 (cf capture).
Du coup j'ai plusieurs questions :
  • Est-ce possible de remettre le système en état en remplaçant le disque 1 si c'est le disque système ou c'est mort ?
  • Est-ce possible de s'en tirer s'en avoir à tout réinstaller ?
  • Si je dois réinstaller from scratch, quelles est la façon la + simple de procéder : dois-je sortir les disques de leur emplacement et redémarrer le Nas puis réinsérer les disques lorsq'il me le demande ?

D'avance merci pour vos retours !

Aurélien
 

Pièces jointes

  • Screenshot 2024-11-18 at 21-37-28 QNAP.png
    Screenshot 2024-11-18 at 21-37-28 QNAP.png
    178.7 KB · Affichages: 6
  • Capture d’écran 2024-11-18 à 21.43.47.png
    Capture d’écran 2024-11-18 à 21.43.47.png
    72.2 KB · Affichages: 6
Est-ce possible de remettre le système en état en remplaçant le disque 1 si c'est le disque système ou c'est mort ?

Il faut voir s'il n'y a pas eu corruption du pool, mais si tu as pu récupérer tes données c'est deja bien !

Pourrai tu partager les informations SMART du disque 1 ?

Il faut s'avoir que sur un QNAP il n'y a pas de disque Systeme. Uniquement un volume Systeme. Tu semble avoir un seul Volume et 4 disques, donc si tes en RAID10. Tu as une tolérance a la panne d'un disque dans chaque groupe. Donc la reconstruction devrait etre possible. A voir si l'arret forcé n'a pas fait de dégât.

Est-ce possible de s'en tirer s'en avoir à tout réinstaller ?
Pourrait tu te connecter en SSH, et nous donner quelques infos.

En admin, donne nous le résultat des commandes suivantes :

Code:
qcli_storage -d
Code:
md_checker
Code:
pvs -a
Code:
lvs -a
Code:
ls -alh /dev/mapper/
 
Merci pour le retour, voici les informations demandées.
C'est grave docteur :cry: ?
 

Pièces jointes

  • Capture d’écran 2024-11-19 à 12.58.26.png
    Capture d’écran 2024-11-19 à 12.58.26.png
    63.3 KB · Affichages: 3
  • Screenshot 2024-11-19 at 13-02-04 QNAP.png
    Screenshot 2024-11-19 at 13-02-04 QNAP.png
    60.8 KB · Affichages: 4
  • Capture d’écran 2024-11-19 à 13.00.56.png
    Capture d’écran 2024-11-19 à 13.00.56.png
    102.1 KB · Affichages: 4
  • Capture d’écran 2024-11-19 à 13.00.32.png
    Capture d’écran 2024-11-19 à 13.00.32.png
    106.7 KB · Affichages: 3
  • Capture d’écran 2024-11-19 à 13.00.10.png
    Capture d’écran 2024-11-19 à 13.00.10.png
    115.8 KB · Affichages: 3
  • Capture d’écran 2024-11-19 à 12.59.35.png
    Capture d’écran 2024-11-19 à 12.59.35.png
    32 KB · Affichages: 3
Le HDD1 n'est pas en forme. md_checker n'a pas fonctionné car tu n'est pas admin.

Si tu te connecte en SSH avec un compte autre que admin, il faut faire la commande sudo -i pour prendre les droits admin ( et valider son mot de passe, puis passer la fenêtre avec Y et Q )

Apres avoir validé cela, refait md_checker et donne nous aussi le résultat de cat /proc/mdstat
 
Voici les résultats :)
 

Pièces jointes

  • Capture d’écran 2024-11-19 à 15.43.58.png
    Capture d’écran 2024-11-19 à 15.43.58.png
    117 KB · Affichages: 3
  • Capture d’écran 2024-11-19 à 15.44.26.png
    Capture d’écran 2024-11-19 à 15.44.26.png
    124.8 KB · Affichages: 3
D’après les screens, tout semble en ordre contrairement a ce que tu dit l'interface. je pense qu'il y a un probleme de remonté d'information.

Le disque 1 est problématique, mais le RAID est bien fonctionnel.

Si je comprend bien, tu as un disque de remplacement pour ce disque 1 ? Pourrai tu sortir le disque 1, et placer le nouveau disque de remplacement ?

Attend 5min et ensuite, toujours depuis la connexion SSH, redonne nous les résultats de :

Code:
qcli_storage
Code:
qcli_storage -d
Code:
cat /proc/mdstat
Code:
md_checker
Code:
pvs -a
Code:
lvs -a
Code:
ls -alh /dev/mapper/
 
[admin@QNAP ~]# qcli_storage
Enclosure Port Sys_Name Size Type RAID RAID_Type Pool TMeta VolType VolName
NAS_HOST 1 /dev/sdb 3.64 TB data /dev/md1(!) RAID 10,512 1(!) 64 GB flexible DataVol1(!)
NAS_HOST 2 /dev/sda 3.64 TB data /dev/md1(!) RAID 10,512 1(!) 64 GB flexible DataVol1(!)
NAS_HOST 3 /dev/sdc 3.64 TB data /dev/md1(!) RAID 10,512 1(!) 64 GB flexible DataVol1(!)
NAS_HOST 4 /dev/sdd 3.64 TB data /dev/md1(!) RAID 10,512 1(!) 64 GB flexible DataVol1(!)

Error info :
/dev/md1 : is degraded/rebuilding/migrating.

[admin@QNAP ~]# qcli_storage -d
Enclosure Port Sys_Name Type Size Alias Signature Partitions Model
NAS_HOST 1 /dev/sdb HDD:data 3.64 TB 3.5" SATA HDD 1 QNAP FLEX 5 WDC WD40EFZX-68AWUN0
NAS_HOST 2 /dev/sda HDD:data 3.64 TB 3.5" SATA HDD 2 QNAP FLEX 5 WDC WD40EFZX-68AWUN0
NAS_HOST 3 /dev/sdc HDD:data 3.64 TB 3.5" SATA HDD 3 QNAP FLEX 5 WDC WD40EFRX-68N32N0
NAS_HOST 4 /dev/sdd HDD:data 3.64 TB 3.5" SATA HDD 4 QNAP FLEX 5 WDC WD40EFRX-68N32N0

[admin@QNAP ~]# cat /proc/mdstat
Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [multipath]
md1 : active raid10 sdb3[6] sdd3[3] sdc3[5] sda3[4]
7794126848 blocks super 1.0 512K chunks 2 near-copies [4/3] [_UUU]
[>....................] recovery = 0.9% (36646848/3897063424) finish=383.1min speed=167918K/sec

md322 : active raid1 sdb5[4](S) sdd5[3] sdc5[2](S) sda5[1]
6702656 blocks super 1.0 [2/2] [UU]
bitmap: 0/1 pages [0KB], 65536KB chunk

md256 : active raid1 sdb2[4](S) sdd2[3] sdc2[2](S) sda2[1]
530112 blocks super 1.0 [2/2] [UU]
bitmap: 0/1 pages [0KB], 65536KB chunk

md13 : active raid1 sdb4[66] sdd4[3] sda4[64] sdc4[65]
458880 blocks super 1.0 [64/4] [UUUU____________________________________________________________]
bitmap: 1/1 pages [4KB], 65536KB chunk

md9 : active raid1 sdb1[65] sdd1[3] sdc1[2] sda1[64]
530048 blocks super 1.0 [64/4] [UUUU____________________________________________________________]
bitmap: 1/1 pages [4KB], 65536KB chunk

unused devices: <none>

[admin@QNAP ~]# md_checker

Welcome to MD superblock checker (v2.0) - have a nice day~

Scanning system...


RAID metadata found!
UUID: 86f220f5:dfb26e4f:1da09dc2:b3da27f7
Level: raid10
Devices: 4
Name: md1
Chunk Size: 512K
md Version: 1.0
Creation Time: Jun 10 19:01:30 2020
Status: ONLINE (md1) [_UUU]
===============================================================================================
Enclosure | Port | Block Dev Name | # | Status | Last Update Time | Events | Array State
===============================================================================================
NAS_HOST 1 /dev/sdb3 0 Rebuild Nov 19 17:30:28 2024 1695901 AAAA
NAS_HOST 2 /dev/sda3 1 Active Nov 19 17:30:29 2024 1695902 AAAA
NAS_HOST 3 /dev/sdc3 2 Active Nov 19 17:30:29 2024 1695902 AAAA
NAS_HOST 4 /dev/sdd3 3 Active Nov 19 17:30:29 2024 1695902 AAAA
===============================================================================================

[admin@QNAP ~]# pvs -a
WARNING: duplicate PV dvDWOUCxgF5lJ64CvnPSS3Q35U6PDbGq is being used from both devices /dev/drbd1 and /dev/md1
Found duplicate PV dvDWOUCxgF5lJ64CvnPSS3Q35U6PDbGq: using /dev/drbd1 not /dev/md1
Using duplicate PV /dev/drbd1 from subsystem DRBD, ignoring /dev/md1
WARNING: duplicate PV dvDWOUCxgF5lJ64CvnPSS3Q35U6PDbGq is being used from both devices /dev/drbd1 and /dev/md1
Found duplicate PV dvDWOUCxgF5lJ64CvnPSS3Q35U6PDbGq: using /dev/drbd1 not /dev/md1
Using duplicate PV /dev/drbd1 from subsystem DRBD, ignoring /dev/md1
PV VG Fmt Attr PSize PFree
/dev/drbd1 vg1 lvm2 a-- 7.26t 0
/dev/md1 vg1 lvm2 a-- 7.26t 0
/dev/md13 --- 0 0
/dev/md256 --- 0 0
/dev/md322 --- 0 0
/dev/md9 --- 0 0

[admin@QNAP ~]# lvs -a
WARNING: duplicate PV dvDWOUCxgF5lJ64CvnPSS3Q35U6PDbGq is being used from both devices /dev/drbd1 and /dev/md1
Found duplicate PV dvDWOUCxgF5lJ64CvnPSS3Q35U6PDbGq: using /dev/drbd1 not /dev/md1
Using duplicate PV /dev/drbd1 from subsystem DRBD, ignoring /dev/md1
LV VG Attr LSize Pool Origin Data% Meta% Move Log Cpy%Sync Convert
lv1 vg1 Vwi-aot--- 7.12t tp1 22.57
lv1312 vg1 -wi-ao---- 760.00m
lv544 vg1 -wi------- 73.59g
tp1 vg1 twi-aot--- 7.12t 22.57 0.21
[tp1_tierdata_0] vg1 vwi-aov--- 4.00m
[tp1_tierdata_1] vg1 vwi-aov--- 4.00m
[tp1_tierdata_2] vg1 Twi-ao---- 7.12t
[tp1_tmeta] vg1 ewi-ao---- 64.00g
[admin@QNAP ~]# ls -alh /dev/mapper/
total 0
drwxr-xr-x 2 admin administrators 240 2024-11-19 13:21 ./
drwxr-xr-x 16 admin administrators 21K 2024-11-19 17:26 ../
brw-rw---- 1 admin administrators 253, 8 2024-11-19 13:21 cachedev1
crw------- 1 admin administrators 10, 236 2024-11-19 13:26 control
brw-rw---- 1 admin administrators 253, 6 2024-11-19 13:21 vg1-lv1
brw-rw---- 1 admin administrators 253, 7 2024-11-19 13:21 vg1-lv1312
brw-rw---- 1 admin administrators 253, 5 2024-11-19 13:21 vg1-tp1
brw-rw---- 1 admin administrators 253, 1 2024-11-19 13:21 vg1-tp1_tierdata_0
brw-rw---- 1 admin administrators 253, 2 2024-11-19 13:21 vg1-tp1_tierdata_1
brw-rw---- 1 admin administrators 253, 3 2024-11-19 13:21 vg1-tp1_tierdata_2
brw-rw---- 1 admin administrators 253, 0 2024-11-19 13:21 vg1-tp1_tmeta
brw-rw---- 1 admin administrators 253, 4 2024-11-19 13:21 vg1-tp1-tpool
[admin@QNAP ~]#
Message automatiquement fusionné :

Le RAID est en train de se reconstruire, je le laisse terminer pour voir s'il retombe sur ses pieds.
 
Ici tout semble bien, environ 6,5h de reconstruction estimé
Laisse le faire, quand c'est fini redémarre

Si il y a encore des problèmes reviens ici je te donnerai une commande pour forcer qts a réinitialiser la configuration du stockage
 
Dernière édition:
Ça a l'air d'être bon après changement du disque 1 et reconstruction du RAID c'est ok.

Merci pour le coup de pouce @EVO :) !