Bienvenido(a) a Alcance Libre 06/09/2025, 18:06

Alcance Libre Foros

 Índice del foro > Todo acerca de Linux > Redes y Servidores New Topic Post Reply
 Al reiniciar servidor se degrada el RAID
Tópico anterior Tópico siguiente
   
Aks
 14/08/15 03:25 (Leído 1,775 veces)  

Nuevo

Estado: desconectado
Forum User

Identificado: 14/08/15
Mensajes: 2
Localización:Alicante, España
Buenas a todos,

Espero que me podáis ayudar con un problemilla que tengo desde hace algunos días y no he logrado resolverlo, os comento el tema:

Tengo un servidor que tiene dos RAID 1 de dos discos respectivamente, hace poco en uno de ello se rompió (el disco sdd), por lo tanto lo reemplacé por uno nuevo y mi sorpresa fue que al copiar la tabla de particiones con sfdisk -l /dev/sdc | sfdisk /dev/sdd no me dejó por el siguiente error:
-WARNING: GPT (GUID Partition Table) detected on '/dev/sdd'! The util fdisk doesn't support GPT. Use GNU Parted.

La cuestión es que con el otro RAID nunca me había pasado esto, probando soluciones he intentado con dd clonar el disco exactamente y luego añadirlo al RAID y funciona pero al reiniciar el servidor se sale del RAID el disco sdd y al volverlo a añadir se sincroniza como si fuese nuevo.

¿Alguna solución posible?

Os dejo como están particionados los discos:
Disco /dev/sdc: 364801 cilindros, 255 cabezas, 63 sectores/pista
Unidades = cilindros de 8225280 bytes, bloques de 1024 bytes, contando desde 0

Disp. Inic. Princ. Fin Nºcil Nºbloq. Id Sistema
/dev/sdc1 0+ 260174 260175- 2089855656 fd Linux raid autodetect
/dev/sdc2 0 - 0 0 0 Vacía
/dev/sdc3 0 - 0 0 0 Vacía
/dev/sdc4 0 - 0 0 0 Vacía

WARNING: GPT (GUID Partition Table) detected on '/dev/sdd'! The util sfdisk doesn't support GPT. Use GNU Parted.


Disco /dev/sdd: 364801 cilindros, 255 cabezas, 63 sectores/pista
Unidades = cilindros de 8225280 bytes, bloques de 1024 bytes, contando desde 0

Disp. Inic. Princ. Fin Nºcil Nºbloq. Id Sistema
/dev/sdd1 0+ 260174 260175- 2089855656 fd Linux raid autodetect
/dev/sdd2 0 - 0 0 0 Vacía
/dev/sdd3 0 - 0 0 0 Vacía
/dev/sdd4 0 - 0 0 0 Vacía


La salida de mdadm --query --detail /dev/md4 (que es al que pertenecen estos dos discos) es normal. La versión del S.O. es CentOS release 5.2 (Final).

Gracias por vuestro tiempo y un saludo.
 
Profile Email
 Quote
Joel Barrios Dueñas
 15/08/15 11:01  

Admin

Estado: desconectado
Site Admin

Identificado: 17/02/07
Mensajes: 1761
Localización:Mexico
Así es como se supone funciona un RAID. Si un disco falla, reemplazas por uno nuevo y mdadm se encarga del resto. Se supone que debes dar de baja el disco dañada primero:

BASH Formatted Code
mdadm /dev/md0 --fail /dev/sdb --remove /dev/sdb


Retiras el disco viejo y colocas el nuevo en su lugar. Sin tocar tabla de partciones. Se añade vacío. No debes particionarlo ni hacerle más. Ejecuta lo siguiente para dejar el nuevo disco como recién salido de la caja:

BASH Formatted Code
mdadm --zero-superblock /dev/sdb


Luego ejecutas:

BASH Formatted Code
mdadm --add /dev/md0 /dev/sdb


Lo anterior se encargará de hacer todo lo necesario para reconstruir el RAID 1.

Confirma ejecutando:

BASH Formatted Code
mdadm --detail /dev/md1


Sugiero le des una leída completa a mi manual de MDADM: http://www.alcancelibre.org/staticpages/index.php/como-mdadm
 
Profile Email Website
 Quote
Contenido generado en: 0.08 segundos New Topic Post Reply
 Todas las horas son CST. Hora actual 06:06 .
Tópico normal Tópico normal
Tópico Pegado Tópico Pegado
Tópico bloqueado Tópico bloqueado
Mensaje Nuevo Mensaje Nuevo
Tópico pegado con nuevo mensaje Tópico pegado con nuevo mensaje
Tópico bloqueado con nuevo mensaje Tópico bloqueado con nuevo mensaje
Ver mensajes anónimos 
Los usuarios anónimos pueden enviar 
Se permite HTML Filtrado 
Contenido censurado