Grup 4 - 6. Storage pool. Configuració de volum compartit d’alta disponibilitat amb Redhat Ceph RBD, GlusterFS, o altres.

De Wiket
Salta a la navegació Salta a la cerca

Ceph RBD

Primero realicamos un "apt update", para actualizar los paquetes antes de crear el "Ceph".

Add

Ahora accedemos al nodo principal y vamos al apartado de "Ceph", ahí nos saldrá el botón de "instalar ceph".

Nos saldrá esta pestaña, aquí no tocamos nada y le damos a "Start pacific installation".

Add

Ahora comenzara la instalación del Ceph en este primer nodo.

Add

Cuando nos salga "Installed ceph pacific successfully!", le damos a "next".

Add

En la configuración, primero ponemos la "Public Network" del nodo que estamos creando el Ceph, y en "Monitor node", ponemos también el mismo nodo.

Add

Nos saldrá "Installation Successful", una vez aquí ya le damos a "Finish", para acabar la instalación del Ceph en el propio nodo.

Add

Realizamos los mismo en el otro nodo, simplemente no nos pedirá configurarlo una vez se haya instalado.

Add

Creación de la Pool y del RBD

Primero añadimos los discos que vamos que se utilizaran para los de alta disponibilidad, accedemos al "Ceph" del primer nodo y vamos a "OSD".

Add

Seleccionamos la opción "Create: OSD".

Add

En "Disk", elegimos el disco que se va a utilizar para el HA y el Ceph, y le damos a "Create".

Add

Esperamos a que llegue al 100% y se cierre solo.

Add

Ahora volvemos a hacer lo mismo en el otro nodo, para que nos quede como en la imagen.

Add

Vamos a configurar el ceph a mano para que nos salga que todo esta "Ok", con solo dos nodos y para ello realizamos este comando.

nano /etc/pve/ceph.conf

Y editamos los campos "osd_pool_default_min_size" y "osd_pool_default_size", tal y como se muestra en la imagen.

Add

Add

Add

Add

Add

Add

Add

Add

Add

Add

Add

Add

Add


HA Proxmox

Add

Add

Add

Add

Add

Add

Add

Raspberry Pi Qdevice

Add

Add

Add

Add

Add

Add

Add

Add

Add