IETI Cloud - G1

De Wiket
Salta a la navegació Salta a la cerca

Volver a Projecte IETI Cloud - Grup 1.

2. Diseño DMZ. Análisis, Diseño y Documentación


En el diseño de la red podemos encontrar una DMZ, un red interna y una red externa(internet).Como podemos ver en el diseño de la red, la red interna esta preparada para la comunicación entre clústers y la DMZ compuesta de 6 maquinas(nodos) que estarán dentro de los clústers.

Dissenynuevo.png

3. Montaje Hardware CPD

Montaje del hardware para alojar IETI Cloud

Componentes

Componentes
  • Router: 1
  • Armaris Rack (MicroConnect): 2
  • Switches: 3
  • Sevidores (proporcionados por el centro): 6
    • SO Proxmox: 128GB SSD
    • Almacenamiento interno: 1TB HDD
    • Pool compartido: 480 GB
    • Tarjeta de red: 1



Montaje nodo

En cada nodo hemos montado y instalado sus 3 discos correspondientes, a parte de una tarjeta de red adicional para cada clúster.

Montaje

Montaje rack

Montamos los nodos en el rack y a continuación procedemos a instalar Proxmox.
Previamente montamos un switch por cada 2 nodos para mantener separados los clusters.
Montaje


4. Instalación del software de virtualización (Proxmox) y clusterización.

  • Descargamos la imagen ISO de la pagina oficial del Proxmox.
https://www.proxmox.com/en/downloads
  • Elegimos el disco donde se instalara Proxmox.


ProxmoxIETI2.png

  • Comenzamos la instalación seleccionando la opción Proxmox VE.


ProxmoxIETI1.png

  • Seleccionamos el disco donde instalaremos Proxmox, en este caso elegimos el SSD de 128GB.


ProxmoxIETI2.png

  • Definimos el país, la zona horaria y el layout del teclado.


ProxmoxIETI3.png

  • Indicamos la contraseña de acceso del usuario root y un correo donde enviara información adicional y alertas.


Proxmox 3.jpg

  • Introducimos los siguientes datos referentes a la red.
    • Tarjeta de red de acceso: eno1
    • Hostname: proyectovr(numero de nodo).proxmox.ieti
    • IP Address: 192.168.88.X/24 (rango de ip de 2 - 7)
    • Gateway: 192.168.88.1
    • DNS Server: 8.8.8.8


Proxmoxconf.jpg

  • Resumen de la configuración que hemos establecido y procedemos a la instalación de Proxmox.


ProxmoxIETI6.jpg

  • Prueba de acceso a Proxmox con usuario root.


ProxmoxIETI7.png

  • Ejemplo de las especificaciones de un nodo.


ProxmoxIETI8.png

  • Desde nuestro Datacenter elegimos la opción Clúster.


Imagenp1.png

  • Procedemos a la creación de nuestro clúster y elegimos la red donde se creara, a continuación copiaremos el texto que utilizaremos para unir los nodos.


P1.png

  • Pegamos el texto anterior y elegimos la red donde hemos creado nuestro clúster, también especificaremos la red desde donde vamos a unirnos.


P2.png

  • Finalmente podemos observar que el nodo ha sido creado con éxito.


P3.png

5. Políticas de almacenamiento

  • Disponemos de 3 discos:
    • SO Proxmox: 128GB SSD
    • Almacenamiento interno: 1TB HDD
    • Pool compartido: 480GB SSD


Politiques.png

6. Creación del Storage Pool

Configuración del Ceph

  • Des del nodo accedemos al menú del Ceph y procedemos a instalarlo.

Ceph1.png

  • Seleccionamos el numero de versión, en este caso hemos elegido la 16.2.

Ceph2.png

  • Esperamos a que finalice el proceso de instalación.

Ceph3.png

  • Introducimos las redes donde actuara el Ceph.

Ceph4.png

  • Una vez tenemos el Ceph creado nos faltaría replicar el proceso en nuestro otro nodo.

Ceph5.png

Asignación del Disco

  • Para crear el OSD (Object Storage Daemon) accedemos al nodo y seleccionamos la opción Crear OSD

Osd1.png

  • Seleccionamos el disco que utilizaremos, en nuestro caso elegiremos el de 480GB SSD.

Osd2.png

  • Este es el resultado una vez añadido.

Osd3.png

Creación del Pool

  • Vamos al apartado de Pool y seleccionamos la opción de crear.

Rbd1.png

  • Introducimos el nombre del pool y lo creamos.

Rbd2.png

  • Para crear el RBD vamos al menú del Datacenter del Clúster, en el apartado de almacenamiento encontramos la opción Añadir donde seleccionaremos RBD.

Rbd3.png

  • Introducimos la ID y el pool.

Rbd4.png

  • Resultados del pool creado anteriormente.

Rbd5.png

5. HA (Alta disponibilidad)

Creación de la HA

  • Para crear el HA accedemos al menu de Alta Disponibilidad dentro del Datacenter.

Ha1.png

  • Introducimos el nombre y los nodos que formaran parte del grupo de HA.

Ha2.png

  • Este es el resultado de la creación del Clúster con HA.

Ha3.png


Raspberry como tercer nodo

Como únicamente disponemos de dos nodos para el Clúster, la HA no esta disponible, esto se debe a que necesitamos un mínimo de tres, por esta razón configuraremos una Raspberry como tercer nodo.

  • Mostramos que únicamente tenemos dos nodos configurados dentro de Proxmox.

Ra1.png

  • Instalamos las dependencias en los dos nodos.

Ra2.png Ra3.png

  • A través de SSH nos conectamos a la Raspberry y actualizamos los paquetes.

Ra4.png

  • Instalamos los paquetes necesarios en la Raspberry.

Ra5.png

  • Habilitamos el acceso via SSH al usuario root para poder ejecutar el siguiente paso.

Ra8.png

  • Añadimos el nodo creado, definiéndolo como tipo qdevice en el Clúster.

Ra6.png Ra7.png

  • Finalmente, podemos ver que actualmente tenemos 3 nodos en el clúster gracias a la comanda anteriormente ejecutada.

Ra9.png

  • Creamos el grupo de HA i seleccionamos los nodos que formaran parte del mismo.

Ra10.png

  • Añadimos la MV creada anteriormente y la asignamos al grupo de HA creada.

Ra11.png

  • Comprobamos que la MV esta encendida en el nodo ProyectoVR4

Ra12.png

  • Para poder comprobar la alta disponibilidad apagamos el nodo y esperamos hasta que la MV migre.

Ra13.png

  • Comprobamos que después de apagar el nodo, la MV se ha migrado i sigue funcionando correctamente en el nodo ProyectoVR3.

Ra14.png

8. Política de Usuarios Proxmox: privilegios, cuota, sistema de autenticación.

Creación de Grupos

  • Creamos un grupo llamado Alumnos el cual contendrá todos los usuarios creados para el alumnado.


Usuarios11.png


  • Creamos un grupo llamado Profesores el cual contendrá todos los usuarios que crearemos para el profesorado.


Usuarios22.png


  • Comprobamos que los grupos se han creado correctamente.


Usuarios33.png

Creación de Usuarios

  • Para la creación de los usuarios nos dirigimos a Centro de Datos → Permisos → Usuarios.
  • Añadimos un usuario llamado Alumno y le assignamos el grupo Alumnos que hemos creado anteriormente. También definiremos el método de autenticación del usuario, en este caso utilizaremos el servidor interno que nos proporciona Proxmox VE.


Usuarios44.png


  • Para definir los permisos de cada grupo accederemos a Centro de Datos -> Permisos -> Permisos de Grupo.


Usuarios55.png


  • Ahora crearemos los permisos del grupo Alumnos definiendo que solo pueda generar maquinas virtuales y visualizar los discos donde se guardaran.


Usuarios66.png


  • Comprobamos, accediendo con el usuario Alumno, que los permisos están definidos correctamente y que únicamente podemos ver los discos y que, por ejemplo, no tendremos acceso a la Shell de los nodos.


Usuarios77.png


7. Monitorización de Proxmox


Instalación de InfluxDB

  • Agreguemos la clave InfluxDB a nuestro sistema:


Influ1.png


  • Realizamos la instalación de los repositorios.


Influ2.png


  • Actualizamos la máquina e instalamos InfluxDB.


Influ3.png


  • Arrancamos el servicio y miramos como esta.


Influ4.png


  • Agregamos al arranque del sistema.


Influ5.png


  • Instalamos el modo gráfico de InfluxDB para que así tenga un aspecto visual mucho más cómodo para todos.


Influ6.png


  • Abrimos nuestro navegador, establecemos el puerto y ya tendremos acceso a InfluxDB.


Influ7.png


Instalación de Telegraf

  • En InfluxDB crearemos un contenedor, para ello ingresamos a InfluxDB -> Datos -> Pool -> Create new bucket


Telegr1.png


  • Agregamos el GPG de Telegraf y realizamos la instalación del mismo.


Telegr2.png


  • Revisamos que el servicio este UP.


Telegr3.png


  • Accedemos al fichero de configuración de Telegraf.


Telegr4.png


  • Modificamos el fichero de la siguiente manera.


    • - En el apartado url: la url del servidor InfluxDB.
    • - Token: añadir el token del administrador de Influxdb.
    • - Bucket: añadir el contenedor creado anteriormente.
    • - Organization: Añadir el nombre de la organización.


Telegr5.png


  • Reiniciamos el servicio y accedemos de nuevo a la pagina, nos dirigtamos el apartado de Explorer y nos tiene que aparecer esto mismo.


Telegr6.png


Instalación de Grafana

  • Realizamos la instalación de todos los paquetes necesarios para el funcionamiento de Grafana.


Graf1.png


Graf2.png


Graf3.png



  • Agregamos la versión estable de Grafana.


Graf4.png


  • Actualizamos de nuevo la máquina.


Graf5.png


  • Instalamos el paquete de Grafana.


Graf6.png


  • Efectuamos toda esta secuencia de comandos para así revisar que el Grafana esté instalado de manera correcta.


Graf7.png


  • Para la configuración de Grafana accedemos a nuestro navegador por el puerto 3000 y accedemos a Configuration → Data sources -→ Add data source y añadimos InfluxDB.


Graf8.png


  • Editamos para así poderlo añadir.


Graf9.png


  • Añadimos la información necesaria.


Graf10.png


  • Si está bien configurado veremos este resultado si accedemos a Data Source.


Graf11.png


  • Para que pueda funcionar de manera correcta tenemos que crear la base de datos, que seria con el siguiente comando.


Graf12.png


  • Creamos un nuevo Data Source en Grafana.


Graf13.png


  • Activamos la opción de Basic Auth


Graf14.png


  • Ponemos los datos del usuario y contraseña de InfluxDB.


Graf15.png


  • Finalmente, añadimos la información que falta.


Graf16.png


  • Si todos los pasos los hemos seguido de manera correcta, accediendo a Explore tenemos que ver esto.


Graf17.png


  • Para poder tener un Dashboard vamos a importar una plantilla ya generada, en este caso la 10048. Para ello accedemos a Create → Import


Graf18.png


  • A continuación accedemos a Data Center de nuestro cluster de Proxmox y le damos a Metric Server -> Add -> InfluxDB


Graf19.png


  • Completamos con los datos del InfluxDB.


Graf20.png


  • Este sería el resultado con el Metric Server agregado.


Graf21.png


  • Y este el resultado de la monitorización siendo visualizada desde Grafana.


Graf22.png


Alertas

  • Para crear la alerta nos vamos al Dashboard que hemos cargado anteriormente y buscamos sobre que queremos generar la alerta, en este caso será sobre GPU, le damos a EDIT.


Alertpro1.png


  • Editamos la variable de la plantilla, en este caso lo tenemos que dejar con el nombre del nodo.


Alertpro2.png


  • Nos vamos al apartado Alert y ya podemos editar la alerta, le asignamos por ejemplo que al 10% de uso se genere alerta, ya que sería una prueba.


Alertpro3.png


  • Nos dirigimos a Alerting para así poder asignar el método de alerta.


Alertpro4.png


  • Editamos el archivo de configuración.


Alertpro5.png


  • Configuramos el apartado de SMTP.


Alertpro6.png


  • Esta sería la alerta que nos llega el correo electrónico.


Alertpro7.png