Beruflich Dokumente
Kultur Dokumente
Departamento de Informtica
Ciclo Formativo de Grado Superior de
Administracin de Sistemas Informticos
IES Gran Capitn -- C/. Arcos de la Frontera, S/N -- 14014 Crdoba -- 957-379710
http://www.iesgrancapitan.org http://www.iesgrancapitan.org/blog04 -- informatica@iesgrancapitan.org
1.- Introduccin
Uno de los problemas a tener en cuenta en todo sistema informtico, sobretodo de una cierta
amplitud y capacidad de acceso, son las cadas en los servicios que ofrece a los usuarios del mismo.
Estas cadas son provocadas por los puntos nicos de fallos y la falta de redundancia y de Alta
Disponibilidad en el sistema.
El presente proyecto se encargar de la configuracin y montaje de un sistema de Alta
Disponibilidad dentro del sistema informtico del instituto y en especfico entre los servidores
Jpiter y Calisto.
MySQL, el servicio DNS del dominio gcap.net, as como los proyectos integrados.
El problema surge en la posibilidad de cada del servidor Jpiter, lo cual conllevara un fallo en
todos los accesos producidos a las mquinas virtuales y a los servicios proporcionados por dicho
servidor.
IES Gran Capitn -- C/. Arcos de la Frontera, S/N -- 14014 Crdoba -- 957-379710
http://www.iesgrancapitan.org http://www.iesgrancapitan.org/blog04 -- informatica@iesgrancapitan.org
Todos los discos VM (volmenes LVM del dispositivo DRBD) pueden ser replicados
en tiempo real en ambos nodos Proxmox a travs de la red. Alternativamente, todo el
almacenamiento VM puede ser replicado casi en tiempo real a muchos otros
servidores de backup.
Modo de operar:
DRBD estratifica capas de dispositivos de bloques lgicos sobre dispositivos de bloques
IES Gran Capitn -- C/. Arcos de la Frontera, S/N -- 14014 Crdoba -- 957-379710
http://www.iesgrancapitan.org http://www.iesgrancapitan.org/blog04 -- informatica@iesgrancapitan.org
locales existentes en los clsters participantes. Las escrituras realizadas sobre el nodo
primario son transferidas al dispositivo de bloques de bajo nivel y se propaga
simultneamente al nodo secundario. El nodo secundario transfiere entonces los datos a su
dispositivo de bloques correspondiente. Todas las lecturas de entrada/salida se producen
localmente.
INCONVENIENTES
IES Gran Capitn -- C/. Arcos de la Frontera, S/N -- 14014 Crdoba -- 957-379710
http://www.iesgrancapitan.org http://www.iesgrancapitan.org/blog04 -- informatica@iesgrancapitan.org
07/03/15-11/03/15
12/03/15-16/03/15
06/03/15-15/05/15
18/04/15-20/04/15
Implementacin de sistema HA
22/04/15-24/04/15
27/04/15-30/04/15
Finalizacin de la documentacin
5.- Diseo
5.1.- Diseo general
Diseo General del proceso a implementar en los servidores proporcionados para el
proyecto:
IES Gran Capitn -- C/. Arcos de la Frontera, S/N -- 14014 Crdoba -- 957-379710
http://www.iesgrancapitan.org http://www.iesgrancapitan.org/blog04 -- informatica@iesgrancapitan.org
Nodo Calisto
IP Anfitrin Proxmox: 192.168.12.8
Fencing device: HP iLO
IES Gran Capitn -- C/. Arcos de la Frontera, S/N -- 14014 Crdoba -- 957-379710
http://www.iesgrancapitan.org http://www.iesgrancapitan.org/blog04 -- informatica@iesgrancapitan.org
6.- Implantacin
Creacin del clster Jpiter-Calisto:
Teniendo en cuenta que en ambos servidores ya se encuentra instalado una versin de Proxmox,
abrimos sesin en uno de ellos y procedemos a crear el clster:
IES Gran Capitn -- C/. Arcos de la Frontera, S/N -- 14014 Crdoba -- 957-379710
http://www.iesgrancapitan.org http://www.iesgrancapitan.org/blog04 -- informatica@iesgrancapitan.org
IES Gran Capitn -- C/. Arcos de la Frontera, S/N -- 14014 Crdoba -- 957-379710
http://www.iesgrancapitan.org http://www.iesgrancapitan.org/blog04 -- informatica@iesgrancapitan.org
IES Gran Capitn -- C/. Arcos de la Frontera, S/N -- 14014 Crdoba -- 957-379710
http://www.iesgrancapitan.org http://www.iesgrancapitan.org/blog04 -- informatica@iesgrancapitan.org
IES Gran Capitn -- C/. Arcos de la Frontera, S/N -- 14014 Crdoba -- 957-379710
http://www.iesgrancapitan.org http://www.iesgrancapitan.org/blog04 -- informatica@iesgrancapitan.org
NOTA: data-integrity-alg se usa solo para testeo, para uso normal es recomendable deshabilitarlo,
debido a su uso de CPU y a que puede dar falsos positivos de sincronizacin. En su lugar se usarn
verificaciones peridicas online mensualmente o semanalmente.
Para ello crearemos una tarea en el cron que se encargue de realizar las verificaciones:
Si ahora observamos el estado del sistema DRBD, veremos que se encuentra listo para
sincronizacin:
Comenzamos la sincronizacin entre los dos nodos (el siguiente comando slo se ejecuta en uno de
los nodos):
IES Gran Capitn -- C/. Arcos de la Frontera, S/N -- 14014 Crdoba -- 957-379710
http://www.iesgrancapitan.org http://www.iesgrancapitan.org/blog04 -- informatica@iesgrancapitan.org
Como sigue apareciendo un disco como primario y otro como secundario, reiniciamos el servicio en
ambos nodos para que autoajuste ambos discos a primario:
A continuacin configuraremos la LVM que va a ir encima del dispositivo drbd0, para ello nos
vamos al archivo de configuracin /etc/lvm/lvm.conf para cambiar los filtros y especificar que
particiones de que discos debe usar para la lvm (en ambos nodos):
IES Gran Capitn -- C/. Arcos de la Frontera, S/N -- 14014 Crdoba -- 957-379710
http://www.iesgrancapitan.org http://www.iesgrancapitan.org/blog04 -- informatica@iesgrancapitan.org
Ya slo nos queda aadir el grupo LVM a travs de la interfaz web de Proxmox:
IES Gran Capitn -- C/. Arcos de la Frontera, S/N -- 14014 Crdoba -- 957-379710
http://www.iesgrancapitan.org http://www.iesgrancapitan.org/blog04 -- informatica@iesgrancapitan.org
Si tratamos de migrar una de las Mvs, veremos que la tarea se realiza muy rpidamente, gracias a
que la imagen del mismo se encuentra ya en el otro nodo:
IES Gran Capitn -- C/. Arcos de la Frontera, S/N -- 14014 Crdoba -- 957-379710
http://www.iesgrancapitan.org http://www.iesgrancapitan.org/blog04 -- informatica@iesgrancapitan.org
Podemos ver como los archivos de configuracin de las Mvs se han migrado igualmente:
Implementacin de HA en el clster:
El siguiente paso ser el de habilitar el servicio de Alta disponibilidad dentro del clster, para ello
debemos irnos al archivo /etc/cluster/cluster.conf el cual tiene toda la configuracin del mismo,
pero no podemos editar directamente el archivo.
Tenemos que copiar el archivo a uno nuevo llamado cluster.conf.new y realizar los cambios que
queramos, siempre acordndonos de aumentar el nmero de versin cada vez que realicemos una
edicin del archivo:
IES Gran Capitn -- C/. Arcos de la Frontera, S/N -- 14014 Crdoba -- 957-379710
http://www.iesgrancapitan.org http://www.iesgrancapitan.org/blog04 -- informatica@iesgrancapitan.org
IES Gran Capitn -- C/. Arcos de la Frontera, S/N -- 14014 Crdoba -- 957-379710
http://www.iesgrancapitan.org http://www.iesgrancapitan.org/blog04 -- informatica@iesgrancapitan.org
IES Gran Capitn -- C/. Arcos de la Frontera, S/N -- 14014 Crdoba -- 957-379710
http://www.iesgrancapitan.org http://www.iesgrancapitan.org/blog04 -- informatica@iesgrancapitan.org
Para probar que el sistema HA funciona, vamos a parar el servicio en el servidor calisto:
IES Gran Capitn -- C/. Arcos de la Frontera, S/N -- 14014 Crdoba -- 957-379710
http://www.iesgrancapitan.org http://www.iesgrancapitan.org/blog04 -- informatica@iesgrancapitan.org
Como vemos funciona, puesto que ha migrado automticamente la MV al otro servidor al detectar
que el servicio se ha cado en el primer servidor.
Probamos, por ltimo, con un reinicio del servidor, si funciona correctamente, las Mvs se migrarn
al servidor calisto:
Con esto ya tenemos nuestro sistema HA habilitado correctamente en nuestro clster, junto con el
sistema de almacenamiento compartido DRBD.
IES Gran Capitn -- C/. Arcos de la Frontera, S/N -- 14014 Crdoba -- 957-379710
http://www.iesgrancapitan.org http://www.iesgrancapitan.org/blog04 -- informatica@iesgrancapitan.org
7.- Recursos
7.1.- Herramientas hardware
-Servidor Jpiter (Real):
IES Gran Capitn -- C/. Arcos de la Frontera, S/N -- 14014 Crdoba -- 957-379710
http://www.iesgrancapitan.org http://www.iesgrancapitan.org/blog04 -- informatica@iesgrancapitan.org
DD Local:
DD Local:
IES Gran Capitn -- C/. Arcos de la Frontera, S/N -- 14014 Crdoba -- 957-379710
http://www.iesgrancapitan.org http://www.iesgrancapitan.org/blog04 -- informatica@iesgrancapitan.org
7.3.- Personal
Toda la investigacin, desarrollo e implementacin han sido llevadas a cabo por:
Fernando Velzquez Gmez
7.4.- Presupuesto
Tareas
Horas
Coste
Coste+IVA(21%)
Investigacin
20H
700,00
847,00
Implementacin en local
25H
875,00
1.058,75
Resolucin de Problemas
5H
175,00
211,75
Total
50H
1.750,00
2.117,50
8.- Conclusiones
8.1.- Grado de consecucin de objetivos
las Mvs del nodo del que queremos descartar los datos, realizar un backup de las Mvs y restaurarlas
en el otro nodo. Tras lo cual eliminarlas del nodo fallido y ejecutar una serie de comandos para
resincronizar informacin con el nodo activo.
En el nodo fallido:
En el nodo activo:
A partir de entonces se sincronizarn ambos nodos. Una vez acabada la sincronizacin, cambiar de
nuevo el nodo cado a modo primario:
Y se podrn de nuevo, volver a migrar las Mvs al nodo que se encontraba fallido.
En caso de usar 2 volmenes DRBD en vez de 1, el proceso sera bastante similar.
Por ltimo, hacer saber que si un nodo se encuentra cado, no se podr acceder a las Mvs del mismo,
ni migrarlas, pero si se pueden copiar los archivos de configuracin de las mismas desde
/etc/pve/qemu-server, aunque se hara dndoles otro nombre.
10.- Anexos
Tutorial sobre como implementar RAID por Software en Proxmox:
IES Gran Capitn -- C/. Arcos de la Frontera, S/N -- 14014 Crdoba -- 957-379710
http://www.iesgrancapitan.org http://www.iesgrancapitan.org/blog04 -- informatica@iesgrancapitan.org
Identificamos cuales van a ser las particiones que vamos a usar para el RAID y las etiquetas de los
discos, en mi caso /dev/sda y /dev/sdb. Las particiones van a ser la 2 y 3, ya que en la 1 se
encuentra el grub del disco.
A continuacin vamos a usar una serie de comandos sgdisk, ya que Proxmox usa GPT en vez de
MSDOS. Preparamos el 2 disco:
El primer comando copia la tabla de particiones de sda a sdb, mientras que los otros dos comandos
modifican los tipos de particin de /deb/sdb2 y /dev/sdb3 a RAID en vez de boot/lvm.
IES Gran Capitn -- C/. Arcos de la Frontera, S/N -- 14014 Crdoba -- 957-379710
http://www.iesgrancapitan.org http://www.iesgrancapitan.org/blog04 -- informatica@iesgrancapitan.org
Al final /dev/md0 va a contener /boot mientras que /dev/md1 almacenar la particin LVM.
Para ello, formateamos /dev/md0 como ext3, copiamos el grub en l y lo colocamos como nuestro
montaje de /boot:
Ahora slo tenemos que arreglar el /etc/fstab para que monte /boot desde md0 en vez de desde
/dev/sda2:
Reiniciamos, y si el sistema bootea correctamente es que lo hemos hecho bien, sino tendremos que
volver a hacerlo desde el principio. Para verificar que todo va correcto una vez reiniciado, podemos
ejecutar el siguiente comando:
Si nos devuelve como resultado que ha booteado desde md0 es que es correcto.
IES Gran Capitn -- C/. Arcos de la Frontera, S/N -- 14014 Crdoba -- 957-379710
http://www.iesgrancapitan.org http://www.iesgrancapitan.org/blog04 -- informatica@iesgrancapitan.org
Al igual que hicimos con /dev/sdb ahora convertimos /dev/sda2 al formato de particin RAID:
Y lo aadimos al array:
Una vez movido, borramos /dev/sda3 del volumen lo cual nos permitir aadirlo al array /dev/md1:
IES Gran Capitn -- C/. Arcos de la Frontera, S/N -- 14014 Crdoba -- 957-379710
http://www.iesgrancapitan.org http://www.iesgrancapitan.org/blog04 -- informatica@iesgrancapitan.org