Beruflich Dokumente
Kultur Dokumente
LABORATRIO
Disciplina: Administrao de Servios de Redes
Aluno(a):_____________________________________________________________________________
_________________
Semestre: 2017.1 Prof(a).: Dayvidson Bezerra
Data: 02/06/2017
1. Aps a instalao do CentOS 6.8 realizar a atualizao do S.O, nos dois servidores.
# yum update
IPADDR=10.0.0.100
NETMASK=255.255.255.0
BROADCAST=10.10.10.255
Aps alterar os arquivos realizar o restart do servio de rede nos dois nodes;
# /etc/init.d/network restart
4. Realizar o apontamento dos nodes no arquivo /etc/hosts conforme abaixo, nos dois
servidores.
5. Instalao do Pacemaker stack e feramenta pcs nos dois nodes.
# /etc/init.d/pcsd start
# chkconfig pcsd on
# chkconfig pacemaker on
# passwd hacluster
10. Desativar o firewall do S.O (est ao s deve ser feita em laboratrio, em ambiente de
produo deve ser configurado o firewall).
# iptables -F
# chkconfig iptables off
11. Configurao de autenticao entre os dois hosts, para que possa ser executado
comandos em apenas um dos nodes.
12. Criando um novo cluster chamado cluster_apache e sincronizando as configuraes do
corosync entre os nodes.
Obs: Se receber o erro abaixo, crie nos dois nodes a pasta /etc/cluster
14. Adicionando recursos: IP VIP. Se o cluster estiver online, podemos inserir os recursos
no mesmo. Antes precisaremos desativar o STONTH, pois em nossa configurao no
temos nenhum dispositivo para fencing.
15. Adicionando um IP Virtual para o cluster, esse recurso ser chamado de VirtualIP.
17. Verificando o status do cluster, note que o IP Virtual est atrelado ao node01 conforme
imagem abaixo.
20. O Apache resource Agent do pacemaker utiliza a pgina de status de apache para
verificar a sade do servio. Para ativar a pgina de status, siga os paos abaixo.
Onde:
create httpd: o nome do recurso
configfile=/etc/httpd/conf/httpd.conf: o local do arquivo de configurao do apache
Statusurl=http://127.0.0.1/server-status Caminho usado para monitorar o status do
servidor web
op monitor interval-20s: Monitora o servio a cada 20s.
24. Contraint: Atravs das constraint possvel ordenar o startup dos servios e definir
quais recursos devem rodar juntos no mesmo node.
25. Mova apenas um recurso para o outro node e voc ver que ambos recursos sero
movidos.
26. Verificar o status do cluster, observe que os servios foram migrados para o node02.
27. Agora vamos adicionar um disco de 1gb em cada mquina para utilizao do DRBD.
28. Agora vamos detectar os discos que foram adicionado na mquina com o comando
abaixo.
# fdisk -l
29. Vamos criar uma nova partio no disco que foi adicionado, seguindo os passos abaixo
nos dois hosts.
# fdisk /dev/sdb
Escolha a opo n para criar uma nova partio, em seguida a opo p para escolher a
partio como primria, depois pode escolher o nmero da partio e depois opte pelas
informaes padro dando enter e no final escolha a opo w para gravar as alteraes.
# fdisk -l
31. Realizar a instao do DRBD nos dois nodes, com os comandos abaixo.
32. Verificar se os pacotes foram instalados, nos dois nodes com o comando abaixo.
33. Criar o arquivo de configurao do DRBD que mapeia a partio, esse arquivo deve ser
criado nos dois nodes.
# drbdadm up drbd0
36. Visualizar o recurso ativo do DRBD, note que os dois recursos se encontram como
Secondary/Secondary o DRBD fez a marcao como inconsistente pois ainda no foi
definido quem o recurso primrio.
# cat /proc/drbd
37. Marcando o volume do node01 como primrio, note que os dois volumes vo fazer uma
sincronizao dessa nova ao.
Onde:
cs (connection state): Status da conexo de rede.
ro (roles): Se o n primrio ou secundrio.
ds (disk state): Status dos discos. O primeiro parmetro representa o disco local e depois da
/ representa o n remoto.
39. No n em que o DRBD estiver como primrio, vamos criaro FS. Toda ao que for feita
no volume /dev/drbd0 ser replicada para o outro n.
# mkfs.ext3 /dev/drbd0
40. Vamos fazer um teste do DRBD, e vamos validar a integridade do volume drbd0 nos
dois nodes. Siga os passos abaixo no node01.
# mkdir /media/teste-drbd
# mount /dev/drbd0 /media/teste-drbd
# touch /media/drbd0/node01.txt
# umount /dev/drbd0
# drbdadm secondary drbd0
# drbd-overview
# mkdir /media/teste-drbd
# mount /dev/drbd0 /media/teste-drbd
Obs: Nesse momento voc vai receber um erro porque o volume no node02 est como
Secondary/Secondary.
Obs: Como o arquivo node01.txt apareceu no volume do node02, significa que o arquivo foi
replicado.
42. Agora vamos integrar o FS /dev/drbd0 ao cluster. At o momento o cluster est ativado
com os respectivos recursos: IP VIP e Servidor Web Apache necessrio adicionarmos.
Desmontar o volume DRBD onde ele estiver montado, nos dois nodes.
# umount /dev/drbd0
43. O pcs tem a possibilidade de enfileirar diversos comandos para em seguida aplic-los
todos de uma vez s. Esse recurso possvel atravs da CIB (Cluster Information Base).
44. Atravs do pcs -f vamos inserir regras dentro do drbd_config. Essas regras s sero
inseridas aps o push destas configuraes.
# pcs status
48. Uma vez que o DRBD j est inserido no cluster, devemos agora inserir um filesystem
para ser montado pelo nosso cluster e definir que ele s deve ser montado no n
primrio.
50. Precisamos definir que o Apache deve rodar no mesmo node onde o FS estiver ativo e
que o FS deve ser montado antes do inicio do Apache.
# pcs status
55. Testando: Faa com que o node01 fique em standy e observe que a partio
/var/www/html est vazia. E n node02 ela montada.
56. Testando: Faa com que o node01 reassuma o cluster e verifique o status de /dev/drbd0
e os dados em /var/www/html.