Auteur Topic: Volume is "weg"  (gelezen 6065 keer)

Offline drnizeguy

  • Bedankjes
  • -Gegeven: 0
  • -Ontvangen: 0
  • Berichten: 7
Volume is "weg"
« Gepost op: 03 april 2014, 18:23:53 »
Ik had bepaalde problemen met instellingen die bleven hangen. Al is eerder gehad en alleen het opnieuw installeren van DSM kon dit verhelpen.

Dit heb ik nu dus weer gedaan, nieuwe firmware geïnstalleerd zoals het hoort (en natuurlijk er voor gekozen om GEEN nieuwe raid volume aan te maken).
De nas start weer op, ik log in: geen volume. Niks. Diskstation status is ok, maar geen volume. Kan wel een nieuwe aanmaken, maar niets om te restoren oid.
Een schijf nog eruit gehad, opnieuw gestart (misschien constateert dsm dan een foutieve raid configuratie) maar dat bood ook geen soelaas.

Ik heb al een ticket aangemaakt bij Synology maar dat duurt 4 dagen (ze hebben het druk). Weet iemand nog een oplossing?

Offline rodio

  • MVP
  • *
  • Bedankjes
  • -Gegeven: 36
  • -Ontvangen: 78
  • Berichten: 427
  • In the end there will be only one. Highlander
Re: Volume is "weg"
« Reactie #1 Gepost op: 03 april 2014, 19:31:29 »
laat eens wat screenshots zien van je opslag (volume, hdd,...)
DS916+ 3xWD30EZRX en 1xHD153WI  (3xdata en 1x local backup)
DS109j  1xHD153WI                                (OffsiteBackup)

Offline drnizeguy

  • Bedankjes
  • -Gegeven: 0
  • -Ontvangen: 0
  • Berichten: 7
Re: Volume is "weg"
« Reactie #2 Gepost op: 03 april 2014, 19:47:32 »
7569-0
[ Gespecificeerde bijlage is niet beschikbaar ]

en dit zegt fdisk
fdisk -l

Disk /dev/sda: 2000.3 GB, 2000398934016 bytes
255 heads, 63 sectors/track, 243201 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes

   Device Boot      Start         End      Blocks  Id System
/dev/sda1               1         311     2490240  fd Linux raid autodetect
Partition 1 does not end on cylinder boundary
/dev/sda2             311         572     2097152  fd Linux raid autodetect
Partition 2 does not end on cylinder boundary

Disk /dev/sdb: 2000.3 GB, 2000398934016 bytes
255 heads, 63 sectors/track, 243201 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes

   Device Boot      Start         End      Blocks  Id System
/dev/sdb1               1         311     2490240  fd Linux raid autodetect
Partition 1 does not end on cylinder boundary
/dev/sdb2             311         572     2097152  fd Linux raid autodetect
Partition 2 does not end on cylinder boundary

Disk /dev/sdc: 2000.3 GB, 2000398934016 bytes
255 heads, 63 sectors/track, 243201 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes

   Device Boot      Start         End      Blocks  Id System
/dev/sdc1               1         311     2490240  fd Linux raid autodetect
Partition 1 does not end on cylinder boundary
/dev/sdc2             311         572     2097152  fd Linux raid autodetect
Partition 2 does not end on cylinder boundary

Disk /dev/sdd: 2000.3 GB, 2000398934016 bytes
255 heads, 63 sectors/track, 243201 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes

   Device Boot      Start         End      Blocks  Id System
/dev/sdd1               1         311     2490240  fd Linux raid autodetect
Partition 1 does not end on cylinder boundary
/dev/sdd2             311         572     2097152  fd Linux raid autodetect
Partition 2 does not end on cylinder boundary

Disk /dev/synoboot: 128 MB, 128450560 bytes
255 heads, 63 sectors/track, 15 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes

        Device Boot      Start         End      Blocks  Id System
/dev/synoboot1               1          16      125439+ ee EFI GPT
Partition 1 has different physical/logical beginnings (non-Linux?):
     phys=(0, 0, 1) logical=(0, 0, 2)
Partition 1 has different physical/logical endings:
     phys=(1023, 254, 63) logical=(15, 157, 14)
Dat de 1e twee schijven niet geïnitialiseerd zijn klopt, deze heb ik er uit gehad, in de hoop dat de array corrupt werd en zich opnieuw ging rebuilden (dit heeft wel eens geholpen,maar nu dus niet).

en als ik mdadm doe op de schijven komt dit eruit
ds> mdadm --misc --examine /dev/sda1
/dev/sda1:
          Magic : a92b4efc
        Version : 0.90.00
           UUID : ebc1bf6a:a445dd83:b36848ba:e3c877f2 (local to host ds)
  Creation Time : Sat Jan  1 01:00:06 2000
     Raid Level : raid1
  Used Dev Size : 2490176 (2.37 GiB 2.55 GB)
     Array Size : 2490176 (2.37 GiB 2.55 GB)
   Raid Devices : 4
  Total Devices : 3
Preferred Minor : 0

    Update Time : Thu Apr  3 17:51:23 2014
          State : clean
 Active Devices : 3
Working Devices : 3
 Failed Devices : 1
  Spare Devices : 0
       Checksum : 5c347b4d - correct
         Events : 948


      Number   Major   Minor   RaidDevice State
this     0       8        1        0      active sync   /dev/hda1

   0     0       8        1        0      active sync   /dev/hda1
   1     1       0        0        1      faulty removed
   2     2       8       33        2      active sync   /dev/hdc1
   3     3       8       49        3      active sync   /dev/hdd1

ds> mdadm --misc --examine /dev/sdb1
/dev/sdb1:
          Magic : a92b4efc
        Version : 0.90.00
           UUID : ebc1bf6a:a445dd83:b36848ba:e3c877f2 (local to host ds)
  Creation Time : Sat Jan  1 01:00:06 2000
     Raid Level : raid1
  Used Dev Size : 2490176 (2.37 GiB 2.55 GB)
     Array Size : 2490176 (2.37 GiB 2.55 GB)
   Raid Devices : 4
  Total Devices : 4
Preferred Minor : 0

    Update Time : Thu Apr  3 16:08:55 2014
          State : clean
 Active Devices : 4
Working Devices : 4
 Failed Devices : 0
  Spare Devices : 0
       Checksum : 5c345c33 - correct
         Events : 20


      Number   Major   Minor   RaidDevice State
this     1       8       17        1      active sync   /dev/hdb1

   0     0       8        1        0      active sync   /dev/hda1
   1     1       8       17        1      active sync   /dev/hdb1
   2     2       8       33        2      active sync   /dev/hdc1
   3     3       8       49        3      active sync   /dev/hdd1
ds> mdadm --misc --examine /dev/sdc1
/dev/sdc1:
          Magic : a92b4efc
        Version : 0.90.00
           UUID : ebc1bf6a:a445dd83:b36848ba:e3c877f2 (local to host ds)
  Creation Time : Sat Jan  1 01:00:06 2000
     Raid Level : raid1
  Used Dev Size : 2490176 (2.37 GiB 2.55 GB)
     Array Size : 2490176 (2.37 GiB 2.55 GB)
   Raid Devices : 4
  Total Devices : 2
Preferred Minor : 0

    Update Time : Thu Apr  3 19:52:55 2014
          State : clean
 Active Devices : 2
Working Devices : 2
 Failed Devices : 1
  Spare Devices : 0
       Checksum : 5c34a1e7 - correct
         Events : 2230


      Number   Major   Minor   RaidDevice State
this     2       8       33        2      active sync   /dev/hdc1

   0     0       0        0        0      removed
   1     1       0        0        1      faulty removed
   2     2       8       33        2      active sync   /dev/hdc1
   3     3       8       49        3      active sync   /dev/hdd1
ds> mdadm --misc --examine /dev/sdd1
/dev/sdd1:
          Magic : a92b4efc
        Version : 0.90.00
           UUID : ebc1bf6a:a445dd83:b36848ba:e3c877f2 (local to host ds)
  Creation Time : Sat Jan  1 01:00:06 2000
     Raid Level : raid1
  Used Dev Size : 2490176 (2.37 GiB 2.55 GB)
     Array Size : 2490176 (2.37 GiB 2.55 GB)
   Raid Devices : 4
  Total Devices : 2
Preferred Minor : 0

    Update Time : Thu Apr  3 19:52:55 2014
          State : clean
 Active Devices : 2
Working Devices : 2
 Failed Devices : 1
  Spare Devices : 0
       Checksum : 5c34a1f9 - correct
         Events : 2230


      Number   Major   Minor   RaidDevice State
this     3       8       49        3      active sync   /dev/hdd1

   0     0       0        0        0      removed
   1     1       0        0        1      faulty removed
   2     2       8       33        2      active sync   /dev/hdc1
   3     3       8       49        3      active sync   /dev/hdd1
ds> mdadm --misc --examine /dev/sdd2
/dev/sdd2:
          Magic : a92b4efc
        Version : 0.90.00
           UUID : c5806afa:a3af72b2:b36848ba:e3c877f2 (local to host ds)
  Creation Time : Thu Apr  3 19:34:29 2014
     Raid Level : raid1
  Used Dev Size : 2097088 (2048.28 MiB 2147.42 MB)
     Array Size : 2097088 (2048.28 MiB 2147.42 MB)
   Raid Devices : 4
  Total Devices : 4
Preferred Minor : 1

    Update Time : Thu Apr  3 19:35:21 2014
          State : active
 Active Devices : 4
Working Devices : 4
 Failed Devices : 0
  Spare Devices : 0
       Checksum : 50272607 - correct
         Events : 19


      Number   Major   Minor   RaidDevice State
this     3       8       50        3      active sync   /dev/sdd2

   0     0       8        2        0      active sync   /dev/sda2
   1     1       8       18        1      active sync   /dev/hdb2
   2     2       8       34        2      active sync   /dev/hdc2
   3     3       8       50        3      active sync   /dev/sdd2

   ds> mdadm --misc --examine /dev/sda2
/dev/sda2:
          Magic : a92b4efc
        Version : 0.90.00
           UUID : c5806afa:a3af72b2:b36848ba:e3c877f2 (local to host ds)
  Creation Time : Thu Apr  3 19:34:29 2014
     Raid Level : raid1
  Used Dev Size : 2097088 (2048.28 MiB 2147.42 MB)
     Array Size : 2097088 (2048.28 MiB 2147.42 MB)
   Raid Devices : 4
  Total Devices : 4
Preferred Minor : 1

    Update Time : Thu Apr  3 19:35:21 2014
          State : active
 Active Devices : 4
Working Devices : 4
 Failed Devices : 0
  Spare Devices : 0
       Checksum : 502725d1 - correct
         Events : 19


      Number   Major   Minor   RaidDevice State
this     0       8        2        0      active sync   /dev/sda2

   0     0       8        2        0      active sync   /dev/sda2
   1     1       8       18        1      active sync   /dev/hdb2
   2     2       8       34        2      active sync   /dev/hdc2
   3     3       8       50        3      active sync   /dev/sdd2
ds> mdadm --misc --examine /dev/sdb2
/dev/sdb2:
          Magic : a92b4efc
        Version : 0.90.00
           UUID : c5806afa:a3af72b2:b36848ba:e3c877f2 (local to host ds)
  Creation Time : Thu Apr  3 19:34:29 2014
     Raid Level : raid1
  Used Dev Size : 2097088 (2048.28 MiB 2147.42 MB)
     Array Size : 2097088 (2048.28 MiB 2147.42 MB)
   Raid Devices : 4
  Total Devices : 4
Preferred Minor : 1

    Update Time : Thu Apr  3 19:35:21 2014
          State : active
 Active Devices : 4
Working Devices : 4
 Failed Devices : 0
  Spare Devices : 0
       Checksum : 502725e3 - correct
         Events : 19


      Number   Major   Minor   RaidDevice State
this     1       8       18        1      active sync   /dev/hdb2

   0     0       8        2        0      active sync   /dev/sda2
   1     1       8       18        1      active sync   /dev/hdb2
   2     2       8       34        2      active sync   /dev/hdc2
   3     3       8       50        3      active sync   /dev/sdd2
ds> mdadm --misc --examine /dev/sdc2
/dev/sdc2:
          Magic : a92b4efc
        Version : 0.90.00
           UUID : c5806afa:a3af72b2:b36848ba:e3c877f2 (local to host ds)
  Creation Time : Thu Apr  3 19:34:29 2014
     Raid Level : raid1
  Used Dev Size : 2097088 (2048.28 MiB 2147.42 MB)
     Array Size : 2097088 (2048.28 MiB 2147.42 MB)
   Raid Devices : 4
  Total Devices : 4
Preferred Minor : 1

    Update Time : Thu Apr  3 19:35:21 2014
          State : active
 Active Devices : 4
Working Devices : 4
 Failed Devices : 0
  Spare Devices : 0
       Checksum : 502725f5 - correct
         Events : 19


      Number   Major   Minor   RaidDevice State
this     2       8       34        2      active sync   /dev/hdc2

   0     0       8        2        0      active sync   /dev/sda2
   1     1       8       18        1      active sync   /dev/hdb2
   2     2       8       34        2      active sync   /dev/hdc2
   3     3       8       50        3      active sync   /dev/sdd2

Offline drnizeguy

  • Bedankjes
  • -Gegeven: 0
  • -Ontvangen: 0
  • Berichten: 7
Re: Volume is "weg"
« Reactie #3 Gepost op: 11 april 2014, 22:59:50 »
Wat dat betreft is de service die Synology levert echt top.
Een ticket aangemaakt en een Taiwanees heeft op afstand het volume weer terug gekregen.
Ik vroeg nog wat 'ie gedaan had; via mdadm de partitie opnieuw aangemaakt. Op de vraag hoe ik dat zelf kan doen: "google it". :P

In ieder geval, problem solved.

Offline Birdy

  • Global Moderator
  • MVP
  • *
  • Bedankjes
  • -Gegeven: 1336
  • -Ontvangen: 7772
  • Berichten: 43.099
  • FIFO / LIFO
    • Truebase


CS406      DSM 2.0-0731    DS508      DSM 4.0-2265      DS411+II  DSM 6.2.4-25556-7   DS115J    DSM 7.1.1-42962-5   DS918+    DSM 6.2.4-25556-7
DS107+     DSM 3.1-1639    DS411slim  DSM 6.2.4-25556   DS213J    DSM 6.2.3-25426-2   DS1515+   DSM 6.2.4-25556-7   DS220+    DSM 7.2.1-69057-4
DS107+     DSM 3.1-1639    DS111      DSM 5.2-5967-9    DS413J    DSM 6.2.3-25426-2   DS716+II  DSM 6.2.4-25556-7   RT2600ac  SRM 1.2.5-8227-11
BeeDrive 1TB                                                                                                        MR2200ac  SRM 1.2.5-8227-11


 

Opslagbeheer bij volume alleen verwijderen

Gestart door joydanBoard NAS hardware vragen

Reacties: 1
Gelezen: 2564
Laatste bericht 07 juni 2012, 21:32:15
door Holy
Waardoor raakt een volume beschadigt?

Gestart door renmessinkBoard NAS hardware vragen

Reacties: 1
Gelezen: 1696
Laatste bericht 16 april 2010, 15:59:07
door Björn
DS 209; Schijf beschadigd / volume verwijderd

Gestart door femuschBoard NAS hardware vragen

Reacties: 4
Gelezen: 2626
Laatste bericht 19 januari 2013, 20:02:10
door davey
gecrashte schijf gebruikt dubbele aan volume

Gestart door jacq912Board NAS hardware vragen

Reacties: 0
Gelezen: 1110
Laatste bericht 26 juni 2013, 17:13:12
door jacq912
Volume verdwenen na updaten naar DSM5.1-5004

Gestart door Jos VeldscholteBoard Synology DSM 5.1 en eerder

Reacties: 16
Gelezen: 4746
Laatste bericht 11 november 2014, 07:35:04
door mrmaximum