Synology Synology DS220J erreurs systèmes

lacouelle

Apprenti
15 Novembre 2024
73
15
13
Bonjour

DSM 7.2.2-72806 Update 3
2x Disque Seagate de 3,6TO

j'ai depuis quelques temps un avertissement sur la santé du système sur le volume 1.
Ca a commencé à merdouiller suite à plusieurs coupures de courant.
Dans le gestionnaire de stockage j'ai cet avertissement, bien les disques 1 et 2 soient en état SAIN dans gestionnaire de stockage / groupe de stockage 1.

Quand je sélectionne la vérification du système de fichiers, ca se met à jour et la santé du système revient à SAIN ....mais le lendemain , belotte et rebelotte.

Hier en regardant sur ce forum j'ai vu un post dans lequel, il faillait lancer un test SMART complet avant de faire quoique ce soit, c'est à dire ce que préconise l'écran par défaut soit sauvegarder mes données , supprimer ce volume et d'en créer un nouveau.

Donc j'ai lancé ce test qui a duré pas mal d'heure et comme seule info j'au sur l'écran "attention requise, continuez à surveiller l'état de vos disques" ....sans blague !
mais le détail , je le trouve ou ?

Que dois je faire pour retrouver un état normal/sain, d'autant que je fais une sauvegarde hebdo sur un NAS distant et que j'aimerai éviter que celle ci soit "contaminée" ?

Merci
 
gestionnaire de stockage ---> hdd/ssd ----> clique sur un des disques ----> info sur la santé ---> historique ---> information clé des disques

il y a 3 avertissement : secteurs défectueux, nombre de reconnexions du disque et nombres de réidentifications des disque

Pour en avoir plus, il faut installer sous Container Manager le container scrutiny
 
il faut remplacer le disque défectueux rapidement. regarde smart de chaque disque pour savoir celui à remplacer
Capture d’écran 2025-04-26 à 18.24.48.png
 
@bliz @Frank-Pomme

Merci pour vos réponses
C'est le disque 1, j'ai des que des infos sur secteurs defectueux
 

Pièces jointes

  • Capture d’écran 2025-04-26 à 21.41.02.png
    Capture d’écran 2025-04-26 à 21.41.02.png
    49.8 KB · Affichages: 5
ce qui est curieux , c'est quand je regarde sur le pic d'aout je suis à 32 , puis 16 en décembre et 0 en avril le dernier point .

J'ai installé scrutiny mais je ne sais pas quelles options cocher. Lorsque je le lance sans rien modifier des parametres par défaut, il plante.

je suis en train de regarder ce que je dois changer sur le GitHub de scrutiny , mais si vous pouvez me guider, je suis preneur d'infos ;)
merci

C'est bon j'ai trouvé sur le site de Cachem
 

Pièces jointes

Dernière édition:
alors, le mieux est de le mettre en cumulatif au lieu de mois par mois, en mois par mois, c'est le nombre de secteurs défectueux ce jours là

Pour scrutiny, tout dépend du nas que l'on a, les variables changent en fonction du nas, exemple :

1.jpg

pour voir la variable à mettre, regardez en ssh dans le dossier /dev les variables utilisées
 
Attention à bien configurer le fichier collector.yaml en fonction de la configuration de tes disques. Parfois le premier lancement de Scrutiny se passe mal et il n'affiche aucune statistique.

Dans ce cas, pour lancer la 1ère analyse (5 minutes après le démarrage du container dans Container Manager ou Portainer) il faut se connecter en SSH :
sudo docker exec scrutiny scrutiny-collector-metrics run (merci EVO)
 
Hello
Merci
Je galere :D
J'ai bien essayé de lancer le scrutiny comme décrit sur Cachem mais bon ce n'est pas probant.

Dans le fichier compose.yml, on est d'accord que je peux changer A, B et C par ce que je veux ?
SCRUTINY_WEB_INFLUXDB_TOKEN=A
SCRUTINY_WEB_INFLUXDB_INIT_USERNAME=B
SCRUTINY_WEB_INFLUXDB_INIT_PASSWORD=C

j'ai bien téléchargé le fichier collector.yml et pas .yaml dans /docker/scrutiny , en ne gardant que les 2 premiers devices comme indiqué.
mais bon j'arrive à la fin, avec un affichage noir, toutefois sans avoir le "Exitcode : 0".


Quand je crée le projet, je dois paramétrer le portail web ou pas ?
j'imagine que oui
 
Quand je crée le projet, je dois paramétrer le portail web ou pas ?
pas obligé

si ça peut t'aider, voici les miens, différents entre les deux nas :

ds923+
Code:
services:
  scrutiny:
    container_name: scrutiny
    image: ghcr.io/analogj/scrutiny:master-omnibus
    cap_add:
      - SYS_RAWIO
      - SYS_ADMIN
    ports:
      - "6070:8080" # webapp
      - "8086:8086" # influxDB admin
    volumes:
      - /run/udev:/run/udev:ro
      - /volume1/docker/scrutiny:/opt/scrutiny/config
      - /volume1/docker/scrutiny/influxdb:/opt/scrutiny/influxdb
    devices:
      - /dev/nvme0n1:/dev/nvme0
      - /dev/nvme1n1:/dev/nvme1
      - /dev/sata1:/dev/sata1
      - /dev/sata2:/dev/sata2
      - /dev/sata3:/dev/sata3
      - /dev/sata4:/dev/sata4
#      - /dev/usb1:/dev/usb1
#     - /dev/sata5:/dev/sata5
#     - /dev/sata6:/dev/sata6
#     - /dev/sata7:/dev/sata7
#     - /dev/sata8:/dev/sata8
    environment:
      - SCRUTINY_WEB_INFLUXDB_TOKEN=TOKENPOUR SECURISER
      - SCRUTINY_WEB_INFLUXDB_INIT_USERNAME=pseudo
      - SCRUTINY_WEB_INFLUXDB_INIT_PASSWORD=PASSWORD
      - TIMEZONE=Europe/Paris
    restart: unless-stopped

ds1817+

Code:
services:
  scrutiny:
    container_name: scrutiny
    image: ghcr.io/analogj/scrutiny:master-omnibus
    cap_add:
      - SYS_RAWIO
      - SYS_ADMIN
    ports:
      - "6070:8080" # webapp
      - "8086:8086" # influxDB admin
    volumes:
      - /run/udev:/run/udev:ro
      - /volume1/docker/scrutiny:/opt/scrutiny/config
      - /volume1/docker/scrutiny/influxdb:/opt/scrutiny/influxdb
    devices:
#     - /dev/nvme0n1:/dev/nvme0n1
#     - /dev/nvme1n1:/dev/nvme1n1
      - /dev/sda1:/dev/sda
      - /dev/sdb1:/dev/sdb
      - /dev/sdc1:/dev/sdc
      - /dev/sdd1:/dev/sdd
      - /dev/sde1:/dev/sde
      - /dev/sdf1:/dev/sdf
      - /dev/sdg1:/dev/sdg
      - /dev/sdh1:/dev/sdh
#      pour les disques usb
      - /dev/sdr1:/dev/sdr
      - /dev/sds1:/dev/sds
      - /dev/sdq1:/dev/sdq

    environment:
 #     - SCRUTINY_WEB_INFLUXDB_TOKEN=TOKENPOUR  SECURISER
      - PUID=1030
      - PGID=100
      - SCRUTINY_WEB_INFLUXDB_INIT_USERNAME=pseudo
      - SCRUTINY_WEB_INFLUXDB_INIT_PASSWORD=password
      - TIMEZONE=Europe/Paris
    restart: unless-stopped

le # permet de mettre la ligne en commentaire, donc ne fontionnera pas en tant que programme
Message automatiquement fusionné :

regarde bien sue le ds923+ le disque 1 est appelé /dev/sata1 et sur le ds1817+, il est appelé /dev/sda
 
Ok , merci
J'ai essayé sans le portail web et ca a été bien plus vite.
ceci étant j'en suis toujours à attendre que ce truc termine depuis pas loin de 30minutes

Je me demande si ce n'est pas le 2FA qui fait bloquer le process et donc quid si je les mets en # ?
Capture d’écran 2025-04-27 à 12.24.55.png
 
je viens d'essayer la commande via le SSH, et j'ai une erreur
> sudo docker exec scrutiny scrutiny-collector-metrics run
return : Error response from daemon: Container 8342dbc417db9246307715f1a5b18f5680f663a4da4eb163b9b26fc4528f665d is not running
Message automatiquement fusionné :

ça commence à en faire pas mal
et donc il faut que je change le disque c'est ca ?
 
en ligne de commande

Code:
connexion ssh
peudo admin
passsword
sudo -i
remettre le password admin
cd ..  ----> pour aller à la racine
cd dev
dir

puis regarder les variables qui corresponddent
 
je viens de réessayer l'installation via SSH
en ligne de commande

Code:
connexion ssh
peudo admin
passsword
sudo -i
remettre le password admin
cd ..  ----> pour aller à la racine
cd dev
dir

puis regarder les variables qui corresponddent

Ok merci, je tente aussi .

Sino, je viens d'essayer d'installer à nouveau scrutiny via ssh, après avoir supprimé tout ce que j'vais essayé de faire via le DSM (container/projet/image)
C'est deja mieux je download et pull en completed.
Network scrutiny_default Created 23.0s
⠿ Container scrutiny Starting
Puis toujours cette histoire de 'Error starting userland proxy: listen tcp4 0.0.0.0:6070: bind: address already in use'
 
drwxr-xr-x 2 root root 900 Apr 26 11:39 block
drwxr-xr-x 2 root root 80 Apr 26 11:38 bsg
drwxr-xr-x 3 root root 60 Apr 26 11:38 bus
drwxr-xr-x 2 root root 1180 Apr 27 09:16 char
crw------- 1 root root 5, 1 Apr 26 11:39 console
crw------- 1 root root 10, 61 Apr 26 11:39 cpu_dma_latency
brw------- 1 root root 250, 0 Apr 26 11:39 dm-0
lrwxrwxrwx 1 root root 13 Apr 26 11:38 fd -> /proc/self/fd
crw-rw-rw- 1 root root 1, 7 Apr 26 11:39 full
crw-rw-rw- 1 root users 10, 229 Apr 26 11:41 fuse
crw------- 1 root root 89, 0 Apr 26 11:39 i2c-0
crw------- 1 root root 89, 1 Apr 26 11:39 i2c-1
crw------- 1 root root 89, 2 Apr 26 11:39 i2c-2
crw------- 1 root root 1, 2 Apr 26 11:39 kmem
crw-r--r-- 1 root root 1, 11 Apr 26 11:39 kmsg
lrwxrwxrwx 1 root root 28 Apr 26 11:38 log -> /run/systemd/journal/dev-log
brw------- 1 root root 7, 0 Apr 26 11:39 loop0
brw------- 1 root root 7, 1 Apr 26 11:39 loop1
brw------- 1 root root 7, 2 Apr 26 11:39 loop2
brw------- 1 root root 7, 3 Apr 26 11:39 loop3
brw------- 1 root root 7, 4 Apr 26 11:39 loop4
brw------- 1 root root 7, 5 Apr 26 11:39 loop5
brw------- 1 root root 7, 6 Apr 26 11:39 loop6
brw------- 1 root root 7, 7 Apr 26 11:39 loop7
crw------- 1 root root 10, 237 Apr 26 11:39 loop-control
drwxr-xr-x 2 root root 80 Apr 26 11:39 mapper
brw------- 1 root root 9, 0 Apr 26 11:39 md0
brw------- 1 root root 9, 1 Apr 26 11:39 md1
brw------- 1 root root 9, 2 Apr 26 11:39 md2
crw------- 1 root root 1, 1 Apr 26 11:39 mem
crw------- 1 root root 10, 63 Apr 26 11:39 memalloc
crw------- 1 root root 10, 58 Apr 26 11:39 memory_bandwidth
crw------- 1 root root 90, 0 Apr 26 11:39 mtd0
crw------- 1 root root 90, 1 Apr 26 11:39 mtd0ro
crw------- 1 root root 90, 2 Apr 26 11:39 mtd1
crw------- 1 root root 90, 3 Apr 26 11:39 mtd1ro
crw------- 1 root root 90, 4 Apr 26 11:39 mtd2
crw------- 1 root root 90, 5 Apr 26 11:39 mtd2ro
crw------- 1 root root 90, 6 Apr 26 11:39 mtd3
crw------- 1 root root 90, 7 Apr 26 11:39 mtd3ro
crw------- 1 root root 90, 8 Apr 26 11:39 mtd4
crw------- 1 root root 90, 9 Apr 26 11:39 mtd4ro
crw------- 1 root root 90, 10 Apr 26 11:39 mtd5
crw------- 1 root root 90, 11 Apr 26 11:39 mtd5ro
crw------- 1 root root 90, 12 Apr 26 11:39 mtd6
crw------- 1 root root 90, 13 Apr 26 11:39 mtd6ro
brw------- 1 root root 31, 0 Apr 26 11:39 mtdblock0
brw------- 1 root root 31, 1 Apr 26 11:39 mtdblock1
brw------- 1 root root 31, 2 Apr 26 11:39 mtdblock2
brw------- 1 root root 31, 3 Apr 26 11:39 mtdblock3
brw------- 1 root root 31, 4 Apr 26 11:39 mtdblock4
brw------- 1 root root 31, 5 Apr 26 11:39 mtdblock5
brw------- 1 root root 31, 6 Apr 26 11:39 mtdblock6
drwxr-xr-x 2 root root 60 Apr 26 11:40 net
crw------- 1 root root 10, 60 Apr 26 11:39 network_latency
crw------- 1 root root 10, 59 Apr 26 11:39 network_throughput
crw-rw-rw- 1 root root 1, 3 Apr 26 11:39 null
crw------- 1 root root 1, 4 Apr 26 11:39 port
crw-rw-rw- 1 root root 5, 2 Apr 27 15:04 ptmx
drwxr-xr-x 2 root root 0 Jan 1 1970 pts
brw------- 1 root root 1, 0 Apr 26 11:39 ram0
brw------- 1 root root 1, 1 Apr 26 11:39 ram1
brw------- 1 root root 1, 10 Apr 26 11:39 ram10
brw------- 1 root root 1, 11 Apr 26 11:39 ram11
brw------- 1 root root 1, 12 Apr 26 11:39 ram12
brw------- 1 root root 1, 13 Apr 26 11:39 ram13
brw------- 1 root root 1, 14 Apr 26 11:39 ram14
brw------- 1 root root 1, 15 Apr 26 11:39 ram15
brw------- 1 root root 1, 2 Apr 26 11:39 ram2
brw------- 1 root root 1, 3 Apr 26 11:39 ram3
brw------- 1 root root 1, 4 Apr 26 11:39 ram4
brw------- 1 root root 1, 5 Apr 26 11:39 ram5
brw------- 1 root root 1, 6 Apr 26 11:39 ram6
brw------- 1 root root 1, 7 Apr 26 11:39 ram7
brw------- 1 root root 1, 8 Apr 26 11:39 ram8
brw------- 1 root root 1, 9 Apr 26 11:39 ram9
crw-rw-rw- 1 root root 1, 8 Apr 26 11:39 random
crw-rw-rw- 1 root root 240, 0 Apr 26 11:39 rpc0
crw-rw-rw- 1 root root 240, 1 Apr 26 11:39 rpc1
crw-rw-rw- 1 root root 240, 100 Apr 26 11:39 rpc100
crw-rw-rw- 1 root root 240, 2 Apr 26 11:39 rpc2
crw-rw-rw- 1 root root 240, 3 Apr 26 11:39 rpc3
crw-rw-rw- 1 root root 240, 4 Apr 26 11:39 rpc4
crw-rw-rw- 1 root root 240, 5 Apr 26 11:39 rpc5
crw-rw-rw- 1 root root 240, 6 Apr 26 11:39 rpc6
crw-rw-rw- 1 root root 240, 7 Apr 26 11:39 rpc7
crw------- 1 root root 254, 0 Apr 26 11:39 rtc0
crw------- 1 root root 10, 62 Apr 26 11:39 rtk_lockapi
brw------- 1 root root 8, 0 Apr 26 11:39 sda
brw------- 1 root root 8, 1 Apr 26 11:39 sda1
brw------- 1 root root 8, 2 Apr 26 11:39 sda2
brw------- 1 root root 8, 5 Apr 26 11:39 sda5
brw------- 1 root root 8, 16 Apr 26 11:39 sdb
brw------- 1 root root 8, 17 Apr 26 11:39 sdb1
brw------- 1 root root 8, 18 Apr 26 11:39 sdb2
brw------- 1 root root 8, 21 Apr 26 11:39 sdb5
crw------- 1 root root 21, 0 Apr 26 11:39 sg0
crw------- 1 root root 21, 1 Apr 26 11:39 sg1
drwxrwxrwt 2 root root 80 Apr 27 14:58 shm
lrwxrwxrwx 1 root root 15 Apr 26 11:38 stderr -> /proc/self/fd/2
lrwxrwxrwx 1 root root 15 Apr 26 11:38 stdin -> /proc/self/fd/0
lrwxrwxrwx 1 root root 15 Apr 26 11:38 stdout -> /proc/self/fd/1
crw-r--r-- 1 root root 201, 0 Apr 26 11:38 synobios
crw-rw-rw- 1 root root 5, 0 Apr 27 15:03 tty
crw------- 1 root root 4, 64 Apr 26 11:39 ttyS0
crw------- 1 root root 4, 65 Apr 26 23:23 ttyS1
crw------- 1 root root 4, 66 Jan 1 1970 ttyS2
crw------- 1 root root 4, 67 Jan 1 1970 ttyS3
crw------- 1 root root 252, 250 Apr 26 11:39 uio250
crw------- 1 root root 252, 252 Apr 26 11:39 uio252
crw------- 1 root root 252, 253 Apr 26 11:39 uio253
crw-rw-rw- 1 root root 1, 9 Apr 26 11:39 urandom
drwxr-xr-x 2 root root 60 Apr 26 11:39 vg1000
crw------- 1 root root 10, 57 Apr 26 11:40 vhost-scsi
crw-rw-rw- 1 root root 1, 5 Apr 26 11:39 zero
 
j'ai fouillé dans Tailscale et je n'ai pas vu de port dédié 6070 mais plutôt 6090.
Donc j'ai modifié.
en relançant en ssh, v'la que maintenant j'ai une autre erreur : "/dev/sata1": no such file or directory :rolleyes:
j'avoue ne pas piger mais bon , restons zen