Goedemorgen,
Er staan hier 2 synology nassen in het netwerk: een ds418 met data.
En een ds418J waar (door de ds418) naar toe gebackupped wordt met hyper backup.
Beide draaiden op dsm 6.2.4
De 418J heeft 3 schijven wd red schijven.
Schijf 1= wd60efzx
Schijf 2 = leeg
Schijf 3 = wd40efrx
Schijf 4 = wd60efzx
De 418J heeft sinds 10 mei een probleem. Hij begon 's nachts te piepen. 1 enkele (niet heel snel) herhalende piep. Zelf niet gehoord, mijn vrouw heeft hem met de aan/uit knop uit gezet om van het gepiep af te zijn.
Toen ik de 418J weer inschakelde, was de boodschap: dsm op uw ds418j is opnieuw ingesteld zodat u dsm opnieuw moet installeren. Zo is dsm 7.1.1 geinstalleerd.
In opslagbeheer > opslagpool 1 > volume 1 werden alle 3 de schijven weergegeven als: toewijzingsstatus normaal en integriteitstatus gezond. (alles groen)
Maar opslagpool 1 werd weergegeven als beschadigd. In de tekst kan ik voor "repareren" kiezen. Maar dan werd er gevraagd om een nieuwe schijf te plaatsen.
Ooit heb ik een rotte schijf gehad. Toen was duidelijk welke schijf rot was. Die werd vervangen door een nieuwe schijf, daarna kiezen voor repareren, dat duurde heel lang, daarna draaide alles weer prima, zonder data verlies. Zo'n soort scenario dacht ik dat het zou worden.
Omdat nu niet duidelijk was of en welke schijf het probleem is, heb ik contact opgenomen met Synology Support.
Support heeft mij gevraagd om alle schijven uit de 418J te halen, eerst zonder schijven starten, en er dan steeds 1 terug te stoppen en de nas te starten. Zo zou dan duidelijk moeten worden welke schijf de beschadigde opslagpool veroorzaakt.
Helaas heeft dat niet opgeleverd welke schijf het probleem veroorzaakt.
Zonder schijven, kreeg ik de boodschap dat er een schijf geplaatst moest worden.
En daarna, steeds met 1 schijf gestart, ging hij bij elke schijf piepen en gaf hij in opslagbeheer keurig de boodschap dat hij 2 schijven miste. Met exact welke schijf en exact welk bijbehorend hdd serienummer.
Toen de 6TB schijven (schijf 1 en 4) als enige schijf in de 418j zaten, gaf hij voor beide schijven keurig: normaal en gezond.
Toen de 4TB (schijf 3) als enige schijf in de 418J zat was het: toewijzingsstatus "detected" (oranje) en integriteitsstatus "gezond"
Nu zitten alle 3 de schijven weer in de 418J. In opslagbeheer > opslagpool 1 > volume 1 zijn alle schijven "gezond". Maar van schijf 1 en schijf 4 is de toewijzingsstatus nu rood: systeempartitie mislukt. Schijf 3 heeft toewijzingsstatus "normaal".
In het hele verhaal, worden alle 3 de schijven dus altijd als "gezond" weergegeven. Alleen de toewijzingsstatus is niet altijd "normaal." Maar dat is misschien niet heel gek als je schijven gaat weglaten uit de configuratie.
Het is allemaal niet heel eenduidig voor mij. En blijkbaar voor synology support ook niet. Ze hebben nu de logfile opgevraagd.
Graag zou ik achterhalen of er 1 (of meer?) schijven problematisch zijn. En welke dan?
En hoe los ik dit op, zonder dat mijn backup data die op deze 418J staat verloren gaat.
Vervolgens dacht ik: laat ik op het forum maar eens hulp zoeken, daar zitten een aantal zeer ervaren mannen.
Wat zijn jullie ideeen? Hoe krijg ik helder hoe dit veroorzaakt is, en/of welke schijf de rotte appel is. Is er een rotte appel? En wat is dan de oplossing? Hoe krijg ik dit weer goed functionerend, zonder dataverlies.
Hoor het graag, Erik
PS ik heb een serie screenshots maar ik weet niet welke voor jullie eventueel handig/nodig zijn. En de upload grootte is hier maar klein.