Diferència entre revisions de la pàgina «IETI Cloud - G1»

De Wiket
Salta a la navegació Salta a la cerca
Línia 149: Línia 149:
  
 
<h2>HA (Alta disponibilidad)</h2>
 
<h2>HA (Alta disponibilidad)</h2>
== Creación de la HA ==
+
=== Creación de la HA ===
 
* Para crear el HA accedemos al menu de Alta Disponibilidad dentro del Datacenter.
 
* Para crear el HA accedemos al menu de Alta Disponibilidad dentro del Datacenter.
 
[[File:Ha1.png|border|300px]]
 
[[File:Ha1.png|border|300px]]

Revisió del 16:21, 31 març 2022

Volver a Projecte IETI Cloud - Grup 1.

Diseño DMZ. Análisis, Diseño y Documentación


En el diseño de la red podemos encontrar una DMZ, un red interna y una red externa(internet).Como podemos ver en el diseño de la red, la red interna esta preparada para la comunicación entre clústers y la DMZ compuesta de 6 maquinas(nodos) que estarán dentro de los clústers.

Dissenynuevo.png

Montaje Hardware CPD

Montaje del hardware para alojar IETI Cloud

Componentes

Componentes
  • Router: 1
  • Armaris Rack (MicroConnect): 2
  • Switches: 3
  • Sevidores (proporcionados por el centro): 6
    • SO Proxmox: 128GB SSD
    • Almacenamiento interno: 1TB HDD
    • Pool compartido: 480 GB
    • Tarjeta de red: 1



Montaje nodo

En cada nodo hemos montado y instalado sus 3 discos correspondientes, a parte de una tarjeta de red adicional para cada clúster.

Montaje

Montaje rack

Montamos los nodos en el rack y a continuación procedemos a instalar Proxmox.
Previamente montamos un switch por cada 2 nodos para mantener separados los clusters.
Montaje


Instalación del software de virtualización (Proxmox) y clusterización.

  • Descargamos la imagen ISO de la pagina oficial del Proxmox.
https://www.proxmox.com/en/downloads
  • Elegimos el disco donde se instalara Proxmox.


ProxmoxIETI2.png

  • Comenzamos la instalación seleccionando la opción Proxmox VE.


ProxmoxIETI1.png

  • Seleccionamos el disco donde instalaremos Proxmox, en este caso elegimos el SSD de 128GB.


ProxmoxIETI2.png

  • Definimos el país, la zona horaria y el layout del teclado.


ProxmoxIETI3.png

  • Indicamos la contraseña de acceso del usuario root y un correo donde enviara información adicional y alertas.


Proxmox 3.jpg

  • Introducimos los siguientes datos referentes a la red.
    • Tarjeta de red de acceso: eno1
    • Hostname: proyectovr(numero de nodo).proxmox.ieti
    • IP Address: 192.168.88.X/24 (rango de ip de 2 - 7)
    • Gateway: 192.168.88.1
    • DNS Server: 8.8.8.8


Proxmoxconf.jpg

  • Resumen de la configuración que hemos establecido y procedemos a la instalación de Proxmox.


ProxmoxIETI6.jpg

  • Prueba de acceso a Proxmox con usuario root.


ProxmoxIETI7.png

  • Ejemplo de las especificaciones de un nodo.


ProxmoxIETI8.png

  • Desde nuestro Datacenter elegimos la opción Clúster.


Imagenp1.png

  • Procedemos a la creación de nuestro clúster y elegimos la red donde se creara, a continuación copiaremos el texto que utilizaremos para unir los nodos.


P1.png

  • Pegamos el texto anterior y elegimos la red donde hemos creado nuestro clúster, también especificaremos la red desde donde vamos a unirnos.


P2.png

  • Finalmente podemos observar que el nodo ha sido creado con éxito.


P3.png

Políticas de almacenamiento

  • Disponemos de 3 discos:
    • SO Proxmox: 128GB SSD
    • Almacenamiento interno: 1TB HDD
    • Pool compartido: 480GB SSD


Politiques.png

Creación del Storage Pool

Configuración del Ceph

  • Des del nodo accedemos al menú del Ceph y procedemos a instalarlo.

Ceph1.png

  • Seleccionamos el numero de versión, en este caso hemos elegido la 16.2.

Ceph2.png

  • Esperamos a que finalice el proceso de instalación.

Ceph3.png

  • Introducimos las redes donde actuara el Ceph.

Ceph4.png

  • Una vez tenemos el Ceph creado nos faltaría replicar el proceso en nuestro otro nodo.

Ceph5.png

Asignación del Disco

  • Para crear el OSD (Object Storage Daemon) accedemos al nodo y seleccionamos la opción Crear OSD

Osd1.png

  • Seleccionamos el disco que utilizaremos, en nuestro caso elegiremos el de 480GB SSD.

Osd2.png

  • Este es el resultado una vez añadido.

Osd3.png

Creación del Pool

  • Vamos al apartado de Pool y seleccionamos la opción de crear.

Rbd1.png

  • Introducimos el nombre del pool y lo creamos.

Rbd2.png

  • Para crear el RBD vamos al menú del Datacenter del Clúster, en el apartado de almacenamiento encontramos la opción Añadir donde seleccionaremos RBD.

Rbd3.png

  • Introducimos la ID y el pool.

Rbd4.png

  • Resultados del pool creado anteriormente.

Rbd5.png

HA (Alta disponibilidad)

Creación de la HA

  • Para crear el HA accedemos al menu de Alta Disponibilidad dentro del Datacenter.

Ha1.png

  • Introducimos el nombre y los nodos que formaran parte del grupo de HA.

Ha2.png

  • Este es el resultado de la creación del Clúster con HA.

Ha3.png


Raspberry como tercer nodo

Como únicamente disponemos de dos nodos para el Clúster, la HA no esta disponible, esto se debe a que necesitamos un mínimo de tres, por esta razón configuraremos una Raspberry como tercer nodo.

  • Mostramos que únicamente tenemos dos nodos configurados dentro de Proxmox.

Ra1.png

  • Instalamos las dependencias en los dos nodos.

Ra2.png Ra3.png

  • A través de SSH nos conectamos a la Raspberry y actualizamos los paquetes.

Ra4.png

  • Instalamos los paquetes necesarios en la Raspberry.

Ra5.png

  • Habilitamos el acceso via SSH al usuario root para poder ejecutar el siguiente paso.

Ra8.png

  • Añadimos el nodo creado, definiéndolo como tipo qdevice en el Clúster.

Ra6.png Ra7.png

  • Finalmente, podemos ver que actualmente tenemos 3 nodos en el clúster gracias a la comanda anteriormente ejecutada.

Ra9.png

  • Creamos el grupo de HA i seleccionamos los nodos que formaran parte del mismo.

Ra10.png

  • Añadimos la MV creada anteriormente y la asignamos al grupo de HA creada.

Ra11.png

  • Comprobamos que la MV esta encendida en el nodo ProyectoVR4

Ra12.png

  • Para poder comprobar la alta disponibilidad apagamos el nodo y esperamos hasta que la MV migre.

Ra13.png

  • Comprobamos que después de apagar el nodo, la MV se ha migrado i sigue funcionando correctamente en el nodo ProyectoVR3.

Ra14.png