Storage pool

De Wiket
La revisió el 14:32, 7 abr 2022 per [email protected] (discussió | contribucions)
(dif.) ← Versió més antiga | Versió actual (dif.) | Versió més nova → (dif.)
Salta a la navegació Salta a la cerca


Volver a IETI Cloud Grupo 2


Ceph RBD

Realizamos un "apt update", para actualizar los paquetes antes de instalar el "Ceph".

Add

Accedemos al nodo principal vamos al apartado de Ceph , y le damos a "Instalar Ceph"

Nos saldrá una pestaña, le damos a "Start pacific installation".

Add

Comenzara la instalación del Ceph en el nodo.

Add

Nos saldrá "Installed ceph pacific successfully!", le damos a "next".

Add

En "Public Network" ponemos la ip del nodo que estamos creando el Ceph, y en "Monitor node", ponemos el mismo nodo desde el que estamos instalando.

Add

Nos saldrá "Installation Successful",le damos a "Finish", y acabara la instalación.

Add

Realizamos los mismo en el otro nodo, lo que no nos pedirá configurar-lo ya que ya lo hemos echo en este.

Add

Creación de la Pool y del RBD

Accedemos al "Ceph" del primer nodo y vamos a "OSD".

Add

Seleccionamos la opción "Create: OSD".

Add

En "Disk", elegimos el disco que se va a utilizar para el HA y el Ceph, que va a ser el sdb y le damos a "Create".

Add

Esperamos a que se cree.

Add

Hacemos lo mismo en el otro nodo, y nos saldrá el osd.0 del nodo5 y el osd.1 del nodo 6.

Add

Configuramos el ceph para que nos salga que todo esta "Ok" y en verde con solo dos nodos ya que el ceph minimo por defecto serian 3 nodos y no 2.

Hacemos un nano

nano /etc/pve/ceph.conf

Y editamos el campos "osd_pool_default_min_size" a 1 y "osd_pool_default_size" a 2.

Add

Ahora tenemos que crear la Pool, vamos a "Ceph" y a "Pool", configuramos la pool como en la imagen.

Add

Clicamos en la pool creada y le damos a editar, y ponemos size 2 y min.size 1.

Add

Podemos ver la pool creada.

Add

Creamos la pool RBD, en Cluster, vamos a "Storage" le damos a "Add" y clicamos en "RBD".

Add

Le ponemos un ID, y seleccionamos la creada en el ceph.

Add

Y ya podemos ver la pool creada, y el RBD CEPH-VMS.

Add

Vamos al apartado de Ceph y vamos a "monitor".

Add

Le damos a "Add", para añadir al segundo nodo.

Add

Seleccionamos el nodo proyectovr6 y le damos a "Create".

Add

Ya tenemos el segundo nodo como monitor secundario.

Add

Vamos al ceph y podemos ver el Status en OK.

Add

Add


HA Proxmox

Vamos al cluster y le damos a "HA", vamos a Groups.

Add

Le damos a "Create".

Add

Le ponemos un nombre en "ID" seleccionamos los 2 nodos y le damos a "Create".

Add

Podemos ver que se ha creado.

Add

Vamos a HA.

Add

Le damos a "Add", seleccionamos el id de la VM y el grupo creado previamente en "Group" "HA-CEPH".

Add

Comprobamos que se ha creado correcamente..

Add

Raspberry Pi Qdevice

Ya que mediante el Ceph con 2 nodos no conseguimos el HA ya que mínimo son 3 instalamos una rasberry PI y la añadimos como otro nodo para cumplir que sean 3 y se pasen.

Nos descargamos "Raspberry Pi Imager", para instalar sistemas en la SD de una rasberry, lo ejecutamos y seleccionamos la versión de Ubuntu server y elegimos la SD de 8GB.

Add

Accedemos a las raspberry por ssh, y instalamos el corosync-qnetd.

Add

También el corosync-qdevice.

Add

Le damos una contraseña al usuario root mediante passwd.

Add

Vamos a la configuración del sshd_config y habilitamos la opción de PermitRootLogin Yes,

Add

Podemos ver que solo tenemos los 2 nodos.

Add

Actualizamos los paquetes en el nodo e instalamos el corosync-qdevice en los dos nodos.

Add

Conectamos la Raspberry con la linea "pvecm qdevice setup 192.168.88.121 -f"

Add

Y podemos ver que ya salen 3 y la rasberry se ha unido correctamente.

Add

Apagamos el nodo 2 con la máquina del prometheus, y luego comprobamos que se pasa de nodo.

Add

Podemos ver que hemos apagado el nodo proyectovr6 y que la maquina estaba en el nodo apagado.

Add

Y ahora vemos que la maquina se migra al otro nodo.

Add