Synology-Forum.nl
Hardware ondersteuning => NAS hardware vragen => Topic gestart door: sciurius op 19 juli 2016, 08:29:23
-
Nog meer WD Red ellende.
NAS (DS413) rapporteert IO errors na nog geen 4000 diskuren:
The hard disk 2 on nas1 had an I/O error, but it is working properly now after several retries. It might have been caused by bad sectors. If this error occurs again, please back up your data and run the S.M.A.R.T. test on your hard drive to examine the hard drive status.
Enige tijd later ging het echt mis, de SMART test ging goed maar er verschenen echte errors in de SMART log:
Error 3 occurred at disk power-on lifetime: 3958 hours (164 days + 22 hours)
When the command that caused the error occurred, the device was active or idle.
After command completion occurred, registers were:
ER ST SC SN CL CH DH
-- -- -- -- -- -- --
40 51 08 e0 ad 41 e7 Error: UNC 8 sectors at LBA = 0x0741ade0 = 121744864
Commands leading to the command that caused the error were:
CR FR SC SN CL CH DH DC Powered_Up_Time Command/Feature_Name
-- -- -- -- -- -- -- -- ---------------- --------------------
c8 00 08 e0 ad 41 e7 08 43d+00:32:36.315 READ DMA
ec 00 00 00 00 00 a0 08 43d+00:32:36.300 IDENTIFY DEVICE
ef 03 46 00 00 00 a0 08 43d+00:32:36.299 SET FEATURES [Set transfer mode]
Een paar 100 uur later begon de SMART test te falen.
SMART Self-test log structure revision number 1
Num Test_Description Status Remaining LifeTime(hours) LBA_of_first_error
# 1 Extended offline Completed: read failure 10% 4723 16469368
# 2 Extended offline Completed: read failure 10% 4337 16469368
# 3 Extended offline Completed without error 00% 3978 -
Nieuwe disk aangeschaft en deze in de NAS geplaatst om de functie van de verdachte (kapotte?) disk over te nemen. Verdachte disk teruggestuurd om te vervangen onder garantie.
Nu krijg ik van de nieuwe disk na pakweg 750 draaiuren dezelfde melding over IO errors. Extended SMART test gedraaid en die geeft geen errors. Maar SMART attribuut Current_Pending_Sector staat nu op 1, en volgens de informatie is dat een 'critical parameter.
De nieuwe disk zit overigens in een andere bay (#3) dan de verdachte disk (#2).
Toevallig enkele slechte disks? Of mag ik ook de NAS zelf niet uitsluiten?
-
Ik ben van mening dat een NAS of PC een HD niet defect kan maken, wat wel kan, is het hebben van slechte SATA aansluitingen maar, die maken HD's niet defect.
Wat zegt WD zelf eigenlijk hiervan?
-
Ik ben van mening dat een NAS of PC een HD niet defect kan maken
Helemaal mee eens.
wat wel kan, is het hebben van slechte SATA aansluitingen maar, die maken HD's niet defect.
Eveneens. De reden dat ik de NAS erin betrek is dat de melding over IO errors door de NAS wordt gegenereerd en deze wellicht iets foutief interpreteert.
De SMART output wijst naar mijn mening echter duidelijk op problemen.
Wat zegt WD zelf eigenlijk hiervan?
Ik zal het ze vragen.
-
Ik heb overlegd met de leverancier en die is het me me eens dat een disk met IO errors en Current Pending Sector count moet worden omgeruild.
Ironisch: Ik heb de nieuwe disks aangeschaft om de oude NAS disks te vervangen, maar de oude schijven draaien nog steeds probleemloos terwijl de nieuwe schijven problemen geven...
-
Het is nu eenmaal geen garantie dat nieuwe HD's probleemloos werken, daar zijn al diverse discussies over geweest hier. ;)
-
Ik had een soortgelijk probleem, alleen klapte Volume_1 er bij mij volledig uit. Gelukkig geen belangrijke zaken op die schijf, maar wel op Volume_2.
Uiteindelijk de zaak weer aan het draaien gekregen door vooral dit forum, maar nog wel met een issue. Volume_2 draait en is volledig benaderbaar en daarop is DSM geïnstalleerd. Volume_1 heb ik volledig moeten checken en formatteren, maar kan ik niet benaderen via Filestation of Finder op de Mac. In opslag beheer zijn beide schijven zichtbaar zo ook in volume, diskgroep en HDD; allemaal prima! Ik kan alleen op geen enkele manier Volume_1 aanspreken zelfs niet via Filestation. Iemand een idee?
Als toevoeging, de beide schijven staan in RAID 0
-
Je moet wel een gedeelde map aanmaken op het nieuwe volume.
Doe je via het Configuratiescherm.
-
@Pugnantibus
[attachimg=1]
Maar, dat heb je in het verleden toch eerder zo gedaan ?
En in de printscreen zie ik Volume_2, dat is een dus gedeelde map die kennelijk op de verkeerde volume is geplaatst, je kunt deze iook verhuizen naar volume2 in Volume_2 "Bewerken", dan verhuist de gehele map met inhoud naar volume2.
-
@Birdy
Klopt.
Vanmorgen nog een keer een rebooten uitgevoerd. Hierna was het mogelijk om een nieuwe gedeelde map aan te maken.
Uiteindelijk Volume_1 ook weer aan de praat gekregen.
Moet wel eerlijk zeggen dat ik erg lang niet meer bezig ben geweest met het netwerk en de beide NAS n die erin zitten. Dus de aanwijzingen hebben mij ook weer even wakker geschud.
Thx
Pugnantibus
-
Mooi zo en succes verder :thumbup:
-
Ik zou ook als ik jouw was een backup maken van alle gegevens stel dat je nas er mee stopt.
-
En weer een gloednieuwe WD disk die na ruim 1000 uur I/O errors en SMART failures geeft.
Error 10 occurred at disk power-on lifetime: 1092 hours (45 days + 12 hours)
When the command that caused the error occurred, the device was active or idle.
After command completion occurred, registers were:
ER ST SC SN CL CH DH
-- -- -- -- -- -- --
40 51 08 48 e9 23 e1 Error: UNC 8 sectors at LBA = 0x0123e948 = 19130696
Commands leading to the command that caused the error were:
CR FR SC SN CL CH DH DC Powered_Up_Time Command/Feature_Name
-- -- -- -- -- -- -- -- ---------------- --------------------
c8 00 08 48 e9 23 e1 08 3d+11:27:57.367 READ DMA
ec 00 00 00 00 00 a0 08 3d+11:27:57.351 IDENTIFY DEVICE
ef 03 46 00 00 00 a0 08 3d+11:27:57.351 SET FEATURES [Set transfer mode]
-
Ik heb de volgende situatie:
Drive 1 - SHR/Raid1 - Volume1
Drive 2 - Hot Spare voor Volume1
Drive 3 - SHR/Raid1 - Volume1
Ik verwijder de disk in drive 3 en krijg de volgende log meldingen:
Volume1 has entered degraded mode
System is using Hot Spare disks to repair degraded storage space (Volume 1)
Failed to repair the storage space (Volume 1)
Als ik in de storage manager de disk in drive 2 opnieuw als hot spare aanwijs wordt deze wel aan de raid toegevoegd en begint de repair.
Maar waarom begon de repair niet meteen? Ik heb dit al vele keren gedaan en toen werkte het wel -- wat ook zou moeten wat daarvoor is het immers een hot spare.
-
Als ik hier kijk: Hot spare (https://www.synology.com/nl-nl/knowledgebase/DSM/help/DSM/StorageManager/hotspare) dan staat SHR er niet specifiek bij.
Jij schrijft SHR/raid1 maar is het SHR of raid1
Ik denk de eerste.
Zou dat verschil maken?
-
SHR is Synology Hybrid Raid. Met 2 disks is dat Raid1.
Alle gebruikte schijven zijn identiek (WD Red, 4TB).
Voordat ik disk3 eruit haalde heb ik geverifieerd dat disk2 als hot spare stond aangegeven.
En, zoals gezegd, ik doe dit al jaren 2 à 3 keer per jaar.
-
SHR met twee schijven gedraagt zich als raid1 maar er is toch verschil.
SHR is specifiek van Synology.
Ik lees niets over SHR bij hot spare en dat vind ik "verdacht" omdat Synology juist standaard wel met SHR werkt.
-
Het lijkt me dat Synology er echt wel voor zorgt dat de hot spares werken met SHR...
-
Maar waarom werkt het dan niet?
Ik vind het gewoon vreemd dat in dat stukje tekst er alleen over verschillende raid versies gesproken word.
En niet over SHR, wat tenslotte bij Synology de voorkeur heeft omdat dit de standaard tijdens installatie is.
Ik herinner mij dat enige tijd geleden iemand ook problemen met de hot spare had.
Kan het niet meer vinden.
Ik gebruik raid5 met 8 schijven en dat werkt toch net even anders als SHR.
Uitbreiden met grotere schijven is bij mij lastiger en veel duurder dan met SHR.
Met SHR zou ik al meer ruimte krijgen als ik 2 schijven vervang door grotere.
Bij raid5 moet ik alle schijven vervangen voor grotere, erg kostbaar geintje.