Grup 5 - 6. Storage pool. Configuració de volum compartit d’alta disponibilitat amb Redhat Ceph RBD, GlusterFS, o altres.

De Wiket
Salta a la navegació Salta a la cerca
Creación del Ceph

Ahora vamos al apartado del Ceph y empezamos, hacemos click en empezar la instalación y seguimos

Instalarbien

Utilizaremos Pacific

Installpaso1

Le damos a Y y enter

Installpaso2

Rellenamos con la IP del servidor y click en siguiente

Installpaso3 Installpaso4

Finalmente repetimos el mismo proceso para el otro nodo

Crear los monitores adicionales


Nos dirigimos a el segundo Cluster y vamos al apartado de Monitor, una vez ahí, hacemos click en Crear

Monitor1

Veremos como se añaden los diferentes nodos

Monitorcreado

Creación Ceph OSD adicionales

Nos dirigimos a el apartado de Ceph --> OSD --> Crear OSD

CrearOSD

Una vez ahí, elegimos el disco que queremos utilizar y hacemos click en crear, en nuestro caso hay que utilizar el disco de 500G

CrearOSDpaso2

Repetimos el mismo proceso por cada host/disco y finalmente podremos ver como se han añadido todos los discos de los diferentes hosts

OSDcreado

Creación de una Pool con Ceph

Nos dirigimos al el apartado Ceph --> Pools --> Crear, indicamos la información correspondiente y hacemos click en cerrar

Crearpool

Elegimos el nombre de la Pool, el tamaño etc... y hacemos click en Crear, uan vez creada, la podremos ver en el apartado Pools

Configpool


Ahora nos dirigimos a Centro de datos –-> Almacenamiento --> Agregar --> RBD

RBD

Aquí tenemos que elegir el contenido que va a almacenar, básicamente hay que darle un nombre, y elegir la pool

AgregarRBD

Ahora podemos ver el almacenamiento en los hosts

Almacenamientos

Creación grupos HA

Vamos a crear los Grupos para realizar la Alta disponibilidad

Para ello nos dirigimos a Cluster --> HA --> Grupos --> Crear

500

Ahora, tenemos que elegir quien queremos que forme parte del grupo y hacemos click en Crear

800

Ahora solo queda añadir una ISO y crear una maquina para realizar un test y comprobar el correcto funcionamiento, pero antes de eso, hay que hacer una pequeña modificación en el archivo de configuración del Ceph

Abrimos un terminal y nos dirigimos a /etc/ceph/ceph.conf y en la parte de osd_pool_default_min_size ponemos como valor 1, esta va a hacer que el numero mínimo de pools necesarias sean 1 y en osd_pool_default_size, ponemos como valor 2, esto indica el numero de pools que tenemos, en nuestro caso 2

Pxx



Alta disponibilidad - Añadir tercer nodo Raspberry

Primero comprobamos el estado actual del cluster con el comando pvecm status, vemos que aparecen los dos nodos que tenemos.

node_status


Después instalamos las dependencias corosync-qdevice en ambos nodos del cluster.

node_status


En la raspberry, con permisos root instalamos las dependencias corosync-qdevice y corosync-qnetd.

node_status

node_status


En la raspberry, es necesario tener el servicio ssh activo, y permitiendo el root login en el fichero /etc/ssh/sshd_config

node_status


En el nodo master, ejecutamos el comando pvecm qdevice setup 192.168.88.120 -f con la IP de la raspberry e introducimos la contraseña de root

node_status

node_status

Una vez hecho esto ya está añadido el nodo qdevice, comprobamos con pvecm status que se ha añadido.

node_status



Alta disponibilidad - Test

Añadimos la máquina virtual a la alta disponibilidad al grupo HA creado anteriormente.

node_status


Para testear que está funcionado apagamos el nodo donde está corriendo la MV, y automáticamente se migra al otro nodo.

1. Cluster en funcionamiento normal, los dos nodos encendidos

node_status


2. Se apaga el segundo nodo, pendiente de proceso de migración.

node_status


3. Se migra automáticamente la máquina al otro nodo y arranca

node_status