Sie sind auf Seite 1von 15

CURSO SUPERIOR DE TECNOLOGIA EM REDES DE COMPUTADORES

LABORATRIO
Disciplina: Administrao de Servios de Redes
Aluno(a):_____________________________________________________________________________
_________________
Semestre: 2017.1 Prof(a).: Dayvidson Bezerra
Data: 02/06/2017

LABORATRIO: Cluster Pacemaker + DRBD

1. Aps a instalao do CentOS 6.8 realizar a atualizao do S.O, nos dois servidores.

# yum update

2. Realizar a instalao dos pacotes abaixo, nos dois servidores.

# yum installl vim nmap tcpdump net-tools

3. Configurar a interface de rede interna nos dois nodes, edite o arquivo


/etc/sysconfig/network-scripts-ifcg-eth1, deve ficar conforme abaixo nos dois
servidores.

Exemplo: IP Node01: 10.0.0.100/24


IP Node02: 10.0.0.200/24
O item ONBOOT deve ter seu valor modificado como yes para ser ativado no boot do
S.O e o item BOOTPROTO deve ter seu valor modificado para static.

Adicionar as seguintes linhas abaixo no arquivo e preencher de acordo com o


endereamento escolhido.

IPADDR=10.0.0.100
NETMASK=255.255.255.0
BROADCAST=10.10.10.255

Aps alterar os arquivos realizar o restart do servio de rede nos dois nodes;

# /etc/init.d/network restart

4. Realizar o apontamento dos nodes no arquivo /etc/hosts conforme abaixo, nos dois
servidores.
5. Instalao do Pacemaker stack e feramenta pcs nos dois nodes.

# yum install pacemaker pcs cman -y

6. Verificar se os pacotes foram instalados, nos dois nodes.

7. Adicionar os servios na inicializao do CentOS, nos dois nodes.

# /etc/init.d/pcsd start
# chkconfig pcsd on
# chkconfig pacemaker on

8. Aps a instalao foi criado um usurio chamado hacluster para atuar na


sincronizao da configurao do cluster.

# cat /etc/passwd |grep hacluster

9. Definir uma senha para o usurio hacluster, nos dois nodes.

# passwd hacluster

10. Desativar o firewall do S.O (est ao s deve ser feita em laboratrio, em ambiente de
produo deve ser configurado o firewall).

# iptables -F
# chkconfig iptables off

11. Configurao de autenticao entre os dois hosts, para que possa ser executado
comandos em apenas um dos nodes.
12. Criando um novo cluster chamado cluster_apache e sincronizando as configuraes do
corosync entre os nodes.

Obs: Se receber o erro abaixo, crie nos dois nodes a pasta /etc/cluster

Error connecting to node01 (HTTPP error: 500)


Error: Unable to set cluster.conf

13. Verificando o status do cluster.

14. Adicionando recursos: IP VIP. Se o cluster estiver online, podemos inserir os recursos
no mesmo. Antes precisaremos desativar o STONTH, pois em nossa configurao no
temos nenhum dispositivo para fencing.
15. Adicionando um IP Virtual para o cluster, esse recurso ser chamado de VirtualIP.

16. Verificando o status do cluster.

17. Verificando o status do cluster, note que o IP Virtual est atrelado ao node01 conforme
imagem abaixo.

18. A partir do node02 ping no IP virtual.


19. Adicionando recursos: Apache. Vamos inserir o apache para rodar em nosso cluster,
primeiro vamos fazer a instalao do servio.

20. O Apache resource Agent do pacemaker utiliza a pgina de status de apache para
verificar a sade do servio. Para ativar a pgina de status, siga os paos abaixo.

21. Inserindo o recurso do Apache no cluster.

Onde:
create httpd: o nome do recurso
configfile=/etc/httpd/conf/httpd.conf: o local do arquivo de configurao do apache
Statusurl=http://127.0.0.1/server-status Caminho usado para monitorar o status do
servidor web
op monitor interval-20s: Monitora o servio a cada 20s.

22. Verificar o status do cluster.


23. Os recursos foram distribudos entro os nodes, mas tanto o IP VIP como o Apache
precisam rodar no mesmo node.

24. Contraint: Atravs das constraint possvel ordenar o startup dos servios e definir
quais recursos devem rodar juntos no mesmo node.

25. Mova apenas um recurso para o outro node e voc ver que ambos recursos sero
movidos.

26. Verificar o status do cluster, observe que os servios foram migrados para o node02.

27. Agora vamos adicionar um disco de 1gb em cada mquina para utilizao do DRBD.
28. Agora vamos detectar os discos que foram adicionado na mquina com o comando
abaixo.

# fdisk -l

29. Vamos criar uma nova partio no disco que foi adicionado, seguindo os passos abaixo
nos dois hosts.

# fdisk /dev/sdb
Escolha a opo n para criar uma nova partio, em seguida a opo p para escolher a
partio como primria, depois pode escolher o nmero da partio e depois opte pelas
informaes padro dando enter e no final escolha a opo w para gravar as alteraes.

30. Verificando a nova partio.

# fdisk -l

31. Realizar a instao do DRBD nos dois nodes, com os comandos abaixo.

# rpm --import https://www.elrepo.org/RPM-GPG-KEY-elrepo.org


# rpm -Uvh http://www.elrepo.org/elrepo-release-6-6.el6.elrepo.noarch.rpm

# yum install drbd84-utils kmod-drbd84

32. Verificar se os pacotes foram instalados, nos dois nodes com o comando abaixo.

# rpm -qa |grep drbd

33. Criar o arquivo de configurao do DRBD que mapeia a partio, esse arquivo deve ser
criado nos dois nodes.

34. Inicializando o volume /dev/drbd0 nos dois nodes.

# drbdadm create-md drbd0


35. Ativando o /dev/drbd0 nos dois nodes.

# drbdadm up drbd0

36. Visualizar o recurso ativo do DRBD, note que os dois recursos se encontram como
Secondary/Secondary o DRBD fez a marcao como inconsistente pois ainda no foi
definido quem o recurso primrio.

# cat /proc/drbd

37. Marcando o volume do node01 como primrio, note que os dois volumes vo fazer uma
sincronizao dessa nova ao.

# drbdadm primary force drbd0


# cat /proc/drbd

38. Aps o sincronismo dos dois volumes.

Onde:
cs (connection state): Status da conexo de rede.
ro (roles): Se o n primrio ou secundrio.
ds (disk state): Status dos discos. O primeiro parmetro representa o disco local e depois da
/ representa o n remoto.

39. No n em que o DRBD estiver como primrio, vamos criaro FS. Toda ao que for feita
no volume /dev/drbd0 ser replicada para o outro n.

# mkfs.ext3 /dev/drbd0

40. Vamos fazer um teste do DRBD, e vamos validar a integridade do volume drbd0 nos
dois nodes. Siga os passos abaixo no node01.

# mkdir /media/teste-drbd
# mount /dev/drbd0 /media/teste-drbd
# touch /media/drbd0/node01.txt
# umount /dev/drbd0
# drbdadm secondary drbd0
# drbd-overview

41. Montando o volume do DRBD no node02 e verificando se o arquivo criado no n 1 foi


replicado.

# mkdir /media/teste-drbd
# mount /dev/drbd0 /media/teste-drbd
Obs: Nesse momento voc vai receber um erro porque o volume no node02 est como
Secondary/Secondary.

# drbdadm primary drbd0


# drbd-overview
# mount /dev/drbd0 /media/teste-drbd
# ls -l /media/teste-drbd

Obs: Como o arquivo node01.txt apareceu no volume do node02, significa que o arquivo foi
replicado.

42. Agora vamos integrar o FS /dev/drbd0 ao cluster. At o momento o cluster est ativado
com os respectivos recursos: IP VIP e Servidor Web Apache necessrio adicionarmos.

Primeiro vamos desativar a inicializao do DRBD no Linux, nos dois nodes.

# chkconfig drbd off

Desmontar o volume DRBD onde ele estiver montado, nos dois nodes.

# umount /dev/drbd0

43. O pcs tem a possibilidade de enfileirar diversos comandos para em seguida aplic-los
todos de uma vez s. Esse recurso possvel atravs da CIB (Cluster Information Base).

# pcs cluster cib drbd_config

44. Atravs do pcs -f vamos inserir regras dentro do drbd_config. Essas regras s sero
inseridas aps o push destas configuraes.

# pcs -f drbd_config resource create DrbdVol ocf:linbit:drbd drbd_resource=drbd0 op


monitor interval=60s

# pcs -f drbd_config resource master DrbdVolClone DrbdVol master-max=1 master-node-


max=1 clone-max=2 clone-node-max=1 notify=true
45. Verificando a informao em drbd_config se est correta antes de aplicar ao cluster.

# pcs -f drbd_config resource show

46. Se as configuraes estiverem corretas, podemos agora inserir as configuraes no


cluster.

# pcs cluster cib-push drbd_config

47. Verificar o status do cluster.

# pcs status

48. Uma vez que o DRBD j est inserido no cluster, devemos agora inserir um filesystem
para ser montado pelo nosso cluster e definir que ele s deve ser montado no n
primrio.

# pcs cluster cib fs_config


# pcs -f fs_config resource create DrbdFS Filesystem device=/dev/drbd0
directory=/var/www/html fstype=ext3
49. Definindo a constraint, a ordem de start.

# pcs -f fs_config constraint colocation add DrbdFS DrbdVolClone INFINITY with-rsc-


role=Master

# pcs -f fs_config constraint order promote DrbdVolClone then start DrbdFS

50. Precisamos definir que o Apache deve rodar no mesmo node onde o FS estiver ativo e
que o FS deve ser montado antes do inicio do Apache.

# pcs -f fs_config constraint colocation add httpd DrbdFS INFINITY

# pcs -f fs_config constraint order DrbdFS then httpd

51. Verificando os recursos e constraint da CIB fs_config.

# pcs -f fs-config constraint

52. Verificando os recursos e constraint da CIB fs_config.

# pcs -f fs_config resource show


53. Se as configuraes estiverem correta, podemos dar o push para aplicar no cluster.

# pcs cluster cib-push fs_config

54. Verificando o status do cluster.

# pcs status

55. Testando: Faa com que o node01 fique em standy e observe que a partio
/var/www/html est vazia. E n node02 ela montada.

# pcs cluster standby node01

56. Testando: Faa com que o node01 reassuma o cluster e verifique o status de /dev/drbd0
e os dados em /var/www/html.

# pcs cluster unstandby node01

Das könnte Ihnen auch gefallen