Beruflich Dokumente
Kultur Dokumente
DIRECTEUR DE MÉMOIRE
M. AGBISSI K. Jean-Paul
Ingénieur des systèmes réseau et
télécommunications
S/CSI DGTTC / Ministère des Transports
IMPÉTRANT
UN SYSTÈME DE SAUVEGARDE ET DE
TOLÉRANCE DE PANNES EN
ENTREPRISE
CAS DE LA DGTTC
UN SYSTÈME DE SAUVEGARDE ET DE
TOLÉRANCE DE PANNES EN
ENTREPRISE
CAS DE LA DGTTC
GLOSSAIRE VII
DEDICACE X
REMERCIEMENTS XI
RESUME XII
ABSTRACT XIII
INTRODUCTION GENERALE 14
1. Contexte et problématique 14
3. Objectifs 15
5. Plan 15
17
I.8. La maintenance 25
I.9. Conclusion partielle 25
CHAPITRE II : LES GENERALITES SUR LES SYSTEMES DE SAUVEGARDE ET DE
RESTAURATION DE DONNES 27
III.1.Introduction partielle 46
III.2.Présentation de la solution 46
63
CONCLUSION GENERALE 65
BIBLIOGRAPHIE 67
ANNEXE 73
Figure 8: Schéma de principe d'une grappe de disques en RAID combiné 0+1 (DASTUGUE,
2008) 37
Figure 13: L'interface Web de configuration des hôtes (Source : Hyppolyte N'GUESSAN) 50
Figure 15: La configuration générale de BackupPC via l'interface Web (Source : Hyppolyte
N'GUESSAN) 51
Figure 17: Le fichier de configuration pour un hôte linux (Source : Hyppolyte N'GUESSAN)
55
N'GUESSAN) 60
Figure 25: La reprise de la tête du cluster par le serveur principal (Source : Hyppolyte
N'GUESSAN)
61
Figure 26: Le rajout de disque au serveur principal Cluster node 1 (Source : Hyppolyte
N'GUESSAN)
61
Tableau 3:Le tableau comparatif des différentes solutions SAN et NAS (DUFRESNES, 2008)
40
CRC : Cyclic Redundancy Check est un code de détection d'erreur couramment utilisé dans
les réseaux numériques et des périphériques de stockage pour détecter les modifications
accidentelles de données brutes
Datacenter ou centre de données en français est un site physique sur lequel se trouvent
regroupés des équipements constituants du système d'information de l'entreprise.
DHCP : Dynamic Host Configuration Protocol est un protocole réseau dont le rôle est
d'assurer la configuration automatique des paramètres IP d'une station, notamment en lui
affectant automatiquement une adresse IP et un masque de sous-réseau.
FCP : Fibre Channel Protocol. Ce protocole est défini par la norme ANSI X3T11.
FTP : File Transfer Protocol (protocole de transfert de fichiers), ou FTP, est un protocole de
communication destiné à l'échange informatique de fichiers sur un réseau TCP/IP.
iSCSI : Internet Small Computer Systems Interconnect ou Internet SCSI. Ce protocole est
défini dans les RFC 3720 & RFC 3783.
LTO : Linear Tape Open est une technique de stockage sur bande magnétique au format
ouvert.
MD5 : Message Digest 5, est une fonction de hachage cryptographique qui permet d'obtenir
l'empreinte numérique d'un fichier (on parle souvent de message).
NAS : Network Attached Storage est un serveur de stockage directement attaché au réseau IP
fournissant un service de partage de fichiers aux clients /serveurs d'un environnement
hétérogène (multi-OS).
NFS : Network File System est à l'origine un protocole développé par Sun Microsystems en
1984 qui permet à un ordinateur d'accéder à des fichiers via un réseau.
PRA Plan de reprise d'activité (en anglais : Disaster Recovery Plan ou DRP) permet d'assurer,
en cas de crise majeure ou importante d'un centre informatique, la reconstruction de son
infrastructure et la remise en route des applications supportant l'activité d'une organisation.
RSA (nommé par les initiales de ses trois inventeurs) est un algorithme de cryptographie
asymétrique, très utilisé dans le commerce électronique, et plus généralement pour échanger
des données confidentielles sur Internet.
SAN : Storage Area Network est un réseau de stockage sur lequel transitent des blocs de
données.
SAS : Serial Attached SCSI est une technique d'interface pour disques durs, elle constitue une
évolution des bus SCSI en termes de performances, et apporte le mode de transmission en
série de l'interface SATA.
SCSI : Small Computer System Interface en anglais, est un standard définissant un bus
informatique reliant un ordinateur à des périphériques ou à un autre ordinateur.
SHA-1 : Secure Hash Algorithm 1 est une fonction de hachage cryptographique conçue par la
National Security Agency des États-Unis (NSA), et publiée par le gouvernement des États-
Unis comme un standard fédéral de traitement de l'information (Federal Information
Processing Standard du National Institute of Standards and Technology (NIST).
SQUID est un serveur mandataire (proxy) et un mandataire inverse capable d'utiliser les
protocoles FTP, HTTP, Gopher, et HTTPS.
USB : Universal Serial Bus (USB, en français Bus universel en série, dont le sigle, inusité, est
BUS) est une norme relative à un bus informatique en transmission série qui sert à connecter
des périphériques informatiques à un ordinateur.
DEDICACE
REMERCIEMENTS
Nous voudrions tout d'abord adresser toute notre gratitude à notre directeur de mémoire
Monsieur AGBISSI K. Jean-Paul pour sa patience, sa disponibilité et surtout ses judicieux
conseils, qui ont contribué à alimenter notre réflexion.
Nous désirons aussi remercier les professeurs du Groupe École d'Ingénieurs HETEC, qui
nous ont fourni les outils nécessaires à la réussite de nos études universitaires.
Nous voudrions exprimer notre reconnaissance envers les amis et collègues qui nous ont
apporté leur support moral et intellectuel tout au long de notre démarche.
Enfin, nous tenons à témoigner toute notre gratitude à KOUASSI Hermann, LOUA
Amandine et MOBIO Jean-Baptiste pour leur confiance et leur support inestimable.
RESUME
Ce mémoire se propose d'être un outil qui guidera les responsables de la sécurité des systèmes
d'informations dans la mise en place d'un système de sauvegarde et de restauration de données
robuste et disponible à tout moment. Pour cela, nous avons choisi d'illustrer nos propos en
traitant un cas pratique : celui de la DGTTC (Direction Générale des Transports Terrestres et
de la Circulation) qui dispose actuellement d'un système de sauvegarde et de restauration de
données sensibles aux pannes et aux incidents de tout genre. Nous nous proposons donc à
travers ce mémoire de proposer à la DGTTC, une solution qui vise à améliorer son système de
sauvegarde.
Dans cette optique, nous étudions d'abord les systèmes de sauvegarde et de restauration de
données dans leur généralité, afin de mieux les appréhender et maîtriser leurs forces et surtout
leurs faiblesses. Mais aussi pour nous aider à comprendre les raisons pour lesquelles le
système de sauvegarde et de restauration de données de la DGTTC est si intolérant aux
pannes. Pour résoudre ce problème, nous optons pour la mise en place d'un clustering de
serveurs avec un système de mirroring des disques durs, c'est-à-dire un RAID de niveau 1 et
un service d'équilibrage de charges visant à garantir une haute disponibilité et une tolérance
aux pannes de types matériel. La dernière étape de notre solution vise à garantir la pérennité
des données de la DGTTC, pour cela nous allons les externaliser vers un serveur distant.
ABSTRACT
This report suggests being a tool which will guide the security officers of information systems
in the implementation of a system of protection and restoration of strong and available data at
any time. For that purpose, we chose to illustrate our words by handling a practical case: that
of the HGTT (Head office of the Ground Transport and the Traffic) which has at present a
system of protection and restoration of critical data in the breakdowns and in the incidents of
any kind. Thus we suggest through this report proposing in the HGTT, the solution which
aims at improving its system of protection.
From this perspective, we study at first the systems of protection and restoration of data in
their majority, to arrest them better and master their strengths and especially their weaknesses.
But also to help us to understand reasons why the system of protection and restoration of data
of the HGTT is so intolerant in the breakdowns. To solve this problem, we opt for the
implementation of waiters' clustering with a system of mirroring hard disks, that is RAID 1
and service of load balancing to guarantee a high availability and a fault tolerance of types
material. The last stage of our solution aims at guaranteeing the sustainability of the data of
the HGTT, for it we are going to outsource them towards a remote server.
INTRODUCTION GENERALE
1. Contexte et problématique
Aujourd'hui la pérennité d'une société repose en grande partie sur ses données informatiques.
Il parait donc inévitable et impératif de sécuriser sa société avec une bonne sauvegarde. La
sauvegarde des données est la mémoire de l'entreprise, que deviendra la société sans sa
mémoire ? La sauvegarde des données informatiques a donc pour objectif de minimiser les
conséquences liées aux pertes de données informatiques. Ces conséquences peuvent avoir un
impact (direct ou indirect) non négligeable sur l'activité de l'entreprise. La sauvegarde des
données permet alors de prévenir une panne naturelle, une erreur humaine, un virus ou un
sinistre.
Dans la majeure partie des cas, ce sont les maladresses internes, (volontaires ou non) ou
l'absence de sauvegardes fiables qui sont à l'origine de la perte ou de la destruction
d'informations sensibles. La petite partie restante est imputable à des actes externes mal
intentionnés.
En effet, la sauvegarde de vos données est fondamentale pour la continuité d'une entreprise.
Dans certains cas exceptionnels, le retour à la normale peut s'avérer extrêmement long et
fastidieux et engager des coûts difficilement supportables par l'entreprise. Dans ce cas, c'est la
pérennité de l'entreprise qui est mise en jeu. Une autre conséquence est que la durée
nécessaire au retour à la normale peut être mis à profit par la concurrence pour accroître ses
parts de marché. Ce cas de figure s'est déjà produit et a conduit des entreprises à la perte de
position de leader du marché. Enfin, les aptitudes de l'entreprise à apporter des réponses
adéquates aux besoins de ses clients peuvent être remises en question : son image en est
altérée ainsi que sa crédibilité... et probablement sa rentabilité.
Voici, brièvement présentées, les raisons qui nous ont poussé à choisir comme thème de
mémoire de fin de cycle « La mise en place d'un système de sauvegarde et de restauration
de données avec tolérance de pannes dans une entreprise : Cas de la DGTTC (Direction
Générale des Transports Terrestres et de la Circulation) ».
15
3. Objectifs
L'objectif de ce mémoire est avant tout de proposer une solution de sauvegarde efficace qui
résiste aux pannes pour permettre la restauration du système informatique dans un état de
fonctionnement à la suite d'un sinistre (inondation, incendie, perte d'un support de stockage).
Mais aussi de restaurer des fichiers qui auraient été supprimés accidentellement par un
utilisateur, ou de retrouver le fichier d'origine qui aurait subi une modification non désirée.
Pour arriver à réaliser ce mémoire, nous allons utiliser les méthodes suivantes :
-- La méthode de l'Internet, qui nous permet de consulter certains sites pour avoir
certaines informations.
4. Plan
Dans le but d'atteindre nos objectifs, nous allons organiser notre travail en trois (3) grands
chapitres.
Dans le premier chapitre intitulé cahier de charges fonctionnel, nous présentons d'abord l'objet
de la demande ; ensuite nous présentons le contexte du projet ; puis la présentation du projet ;
et enfin, l'étude de l'existant et abordons la mise en oeuvre et la maintenance.
Le Deuxième chapitre est consacré aux généralités sur les systèmes de sauvegardes et de
restauration de données, nous présentons tout d'abord les méthodes de sauvegarde les plus
courantes ; ensuite les différentes architectures de sauvegarde ; et les techniques améliorant la
disponibilité. Enfin, les critères de choix d'un système de sauvegarde performant.
Le dernier chapitre est consacré à la réalisation de notre projet. Nous y faisons tout d'abord la
présentation de la solution que nous avons retenue conformément au cahier de charges qui
nous a été fourni. Ensuite, nous passons au déploiement de cette solution et enfin, la
valorisation de notre projet d'amélioration du système de sauvegarde et de restauration des
données
I.1. Introduction partielle
Ce chapitre nous permet de faire une étude du projet qui a été soumis de notre étude.
Nous ne pouvons bien évidemment pas revenir sur les détails de l'étude complète d'un projet,
mais nous travaillerons sur les parties fondamentales faisant ressortir les points saillants du
travail qui nous a été confié.
I.3.1. Le demandeur
La DGTTC est située en Abidjan Plateau, à la Tour C de la Cité Administrative. Elle occupe
précisément le rez-de-chaussée, les 3ème, 4ème et 5ème étage.
Toutes les données de la DGTTC sont importantes et méritent d'être sauvegardées. C'est la
mémoire et l'histoire de cette dernière. Il s'agit généralement de la comptabilité, des
documents commerciaux (devis, contrats, factures, bons de commandes, ...), des messageries ;
de la base de clients et de toutes les données concernant le milieu du transport (cartes grises,
permis de conduire, autorisations d'exercer des auto-écoles, etc...).
18
I.4. La présentation du projet
I.4.2.1. Le constat
Les différentes entités de la DGTTC stockent les différentes informations sur un serveur de
sauvegarde et de restauration de données de type NAS. La panne de celui-ci ou la panne d'un
de ses disques induit les problèmes suivants :
- Des difficultés dans la reprise d'activités après des sinistres (incendie, destruction
accidentelle d'un support de stockage, etc...) ;
En entreprise, les données informatiques ont aujourd'hui une valeur unique. Toute société a
besoin de protéger ses données, et d'avoir la garantie d'assurer sa continuité de service en cas
de problème.
Que ce soit lié à un sinistre total ou partiel (vol de machine, erreur de manipulation, panne
irrécupérable de serveur), il est indispensable de pouvoir restaurer la totalité, ou une partie de
ses données dans les plus brefs délais.
I.4.2.4. La technique
Pour réaliser ce projet, nous nous sommes appuyés sur les expériences acquises au cours de
notre formation, sur quelques personnes ressources et quelques recherches sur internet, mais
aussi sur les forums où la plupart de nos difficultés ont été étayées.
4ème étage quant à elle est équipée d'un serveur Windows, un serveur Linux et un serveur
NAS (Network Attached Storage).
Figure 1:L'architecture réseau de la DGTTC (source : SINDA)
Le tableau 1 suivant, nous présente l'ensemble du matériel de bureau dont dispose la DGTTC
dans son pack informatique. Il faut noter que parmi les 150 ordinateurs que compte la
DGTTC, il y en a une dizaine d'ordinateurs équipés de lecteur d'empreinte digitale.
21
Disque Dur
500 GB
Mémoire
RAM 4 GB
Imprimantes HP Impression, copie, numérisation, Compatible 150
télécopie, Web
OfficeJet avec tous les
A4 ; A5 ; A6 ; B5 (JIS) ; Enveloppe systèmes
(DL, C5, C6) d'exploitation
Jusqu'à 30000
pages
La salle des serveurs de la DGTTC, tel que nous présente le tableau 2, est équipée de 3
serveurs HP Proliant. Un de type DL360 et deux de type DL380p Génération 8. Chaque
serveur est équipé de 6 disques durs SATA de 500 Go. Le serveur HP Proliant DL360 sert de
serveur de stockage réseau (NAS). Quant aux deux autres, il y a un sur lequel est installé un
serveur linux équipé de détecteur d'intrusion logiciel IDS, notamment SNORT. Sur le
deuxième est installé le système d'exploitation Windows server 2012. On y a aussi installé un
serveur d'antivirus, en occurrence BitDefender et un service d'annuaire LDAP (Lightweight
Directory Access Protocolest) Active directory pour la gestion des ordinateurs et des
utilisateurs.
22
Mémoire, maximale
1,5TB
Contrôleur réseau
Adaptateur Ethernet 1
Go 331i, 4 ports par contrôleur HDD 6 x 500 Go
HP Proliant DL 380p Gen8 Format 1U 1 voie 2
SATA - non
En ce qui concerne la sécurité des postes de travail, une authentification de chaque utilisateur
est nécessaire avant usage. Une sensibilisation des agents sur les méfaits et risques liés à
l'usage des clés USB (Universal Serial Bus) provenant de l'extérieur est tout le temps
organisé. Les postes de travail sont aussi régulièrement mis à jour par le serveur d'antivirus.
Un serveur proxy SQUID empêche les utilisateurs d'aller sur des sites dangereux. Les postes
de travail sont régulièrement maintenus pour prévenir les pannes. Mais aussi pour réparer les
machines défectueuses. Du point de vue électrique, les postes de travail sont branchés à des
onduleurs pour éviter les extinctions brusques.
Les serveurs tout comme les postes sont protégés par un pare-feu et un détecteur d'instruisions
logiciel. La salle des serveurs est équipée d'une porte métallique blindée qui reste
23
Les équipements réseaux sont rangés dans des baies vitrés hermétiquement fermés, à l'abri de
la poussière. Les armoires sont installées dans des endroits frais et secs pour éviter la
surchauffe. Les équipements réseaux sont régulièrement dépoussiérés et maintenus.
I.5.3.3. La méthode de sauvegarde et de restauration de données actuelle
Il est mis en place un serveur de sauvegarde réseau NAS. Il est directement attaché au réseau
IP fournissant un service de partage de fichiers aux clients /serveurs d'un environnement
hétérogène (multi-OS). Ce service de partage de fichiers est fourni à l'aide d'un protocole de
transport de fichiers de haut niveau (NFS, CIFS, HTTP et FTP). La sauvegarde se fait de
manière régulière. La méthode de sauvegarde retenue est une sauvegarde incrémentielle.
· Perte de la totalité des données en cas de sinistre majeur dans la salle des serveurs ou de
panne du serveur de sauvegarde ;
· Installation d'un serveur de sauvegarde redondant et mis en clustering avec l'ancien en vue
d'augmenter la disponibilité ; faciliter la montée en charge ; permettre une répartition de la
charge et faciliter la gestion des ressources (processeur, mémoire vive, disques dur, bande
passante réseau) ;
24
Deux scenarii de mise en oeuvre sont envisagés selon le type de licence de la solution
proposée :
Dans le cas d'un logiciel libre et gratuit, la DGTTC prend en charge l'installation et la
configuration basique de la solution communautaire (proposée en téléchargement).
25
Par ailleurs, le prestataire assiste au paramétrage des interfaces avec les systèmes existants à
la DGTTC (Base de données, serveur de fichiers, pare-feu, etc.).
La DGTTC doit avoir accès à une documentation, si possible en français, lui permettant de
paramétrer et mettre à jour l'outil selon le présent cahier des charges. Il doit également avoir
accès à une documentation de base pour l'utilisation de l'outil, en français si possible.
I.8. La maintenance
Ce premier chapitre nous a permis de présenter dans les moindres détails notre environnement
de travail et les conditions dans lesquelles nous aurons à travailler pour offrir à la DGTTC une
solution visant à résoudre leur problème et à garantir la pérennité de leurs données.
26
27
· l'enregistrement des données, qui consiste à écrire des données sur un périphérique, tel
qu'un disque dur, une clé USB, des bandes magnétiques, où les informations demeureront
même après l'extinction de la machine, contrairement à la mémoire vive.
· l'archivage, qui consiste à enregistrer des données de manière à garantir sur le long terme
leur conformité à un état donné, en général leur état au moment où elles ont été validées par
leurs auteurs.
La sauvegarde passe forcément par un enregistrement des données, mais pas nécessairement
dans un but d'archivage.
L'opération inverse qui consiste à réutiliser des données sauvegardées s'appelle une
restauration.
La méthode la plus simple est la sauvegarde complète ou totale (appelée aussi "full
backup") ; elle consiste à copier toutes les données à sauvegarder que celles-ci soient
récentes, anciennes, modifiées ou non.
Cette méthode est aussi la plus fiable mais elle est longue et très coûteuse en termes d'espace
disque, ce qui empêche de l'utiliser en pratique pour toutes les sauvegardes à effectuer. Afin
de gagner en rapidité et en temps de sauvegarde, il existe des méthodes qui procèdent à la
sauvegarde des seules données modifiées et/ou ajoutées entre deux sauvegardes totales. On en
recense deux :
La restauration d'un disque avec l'une de ces méthodes s'avère plus longue et plus fastidieuse
puisqu'en plus de la restauration de la sauvegarde différentielle ou des sauvegardes
28
Afin de comprendre la différence entre les deux méthodes, nous prendrons l'exemple d'un
plan de sauvegarde selon le cycle suivant :
II.2.1. Le mécanisme
Lors d'une sauvegarde complète, on va remettre à "0" l'attribut du fichier pour mémoriser le
fait que le fichier a été enregistré.
Lors d'une sauvegarde complète, tous les fichiers sont sauvegardés, indépendamment de la
position du marqueur (vrai ou faux). Une fois le fichier archivé, celui-ci se voit attribuer la
position de son marqueur (le bit d'archive) à "faux" (ou à "0").
29
Avec notre exemple, si la restauration porte sur un disque complet qui a été sauvegardé le jour
J+2, on doit alors recopier sur disque la sauvegarde complète du jour J et la sauvegarde
différentielle du jour J+2 afin d'avoir la dernière version des données.
Cependant lorsqu'il s'agit de la restauration d'un fichier ou d'un répertoire qui a été sauvegardé
le jour J+2 seule la dernière sauvegarde, ici la différentielle, est utile.
Lors d'une sauvegarde différentielle, tous les fichiers dont le marqueur est à "vrai" sont
sauvegardés. Une fois le fichier archivé, celui-ci garde la position de son marqueur tel qu'il
l'avait avant la sauvegarde.
Certains logiciels de sauvegarde donnent la possibilité d'utiliser non pas le bit d'archive, mais
l'heure de modification du fichier pour déterminer si celui-ci est candidat ou non à la
sauvegarde.
Exemple : une sauvegarde complète est réalisée le jour J. Le jour J+1, la sauvegarde
incrémentielle est réalisée par référence au jour J. Le jour J+2, la sauvegarde incrémentielle
est réalisée par référence au jour J+1. Et ainsi de suite.
Si la restauration se porte sur un disque complet qui a été sauvegardé le jour J+4, on doit alors
recopier sur disque la sauvegarde du jour J et les sauvegardes incrémentielles des jours J+1,
J+2, J+3 et J+4 afin d'obtenir la dernière version de la totalité des données.
Cependant lorsqu'il s'agit de la restauration d'un fichier ou d'un répertoire qui a été sauvegardé
le jour J+3, seule la dernière sauvegarde, ici l'incrémentielle, est utile.
La sauvegarde incrémentale peut également porter sur les seuls octets modifiés des fichiers à
sauvegarder. On parle alors de sauvegarde incrémentale octet. Cette méthode est celle qui
permet d'optimiser le plus l'utilisation de la bande passante. Elle rend possible la sauvegarde
de fichiers de plusieurs Giga-octets, puisque seul un pourcentage minime du volume est
transféré à chaque fois sur la plateforme de sauvegarde.
Lorsqu'un fichier a été supprimé du système de fichier, une sauvegarde incrémentale doit
enregistrer que ce fichier qui était présent lors de la sauvegarde précédente devra être
supprimé lors de la restauration de cette sauvegarde incrémentale, afin de restaurer le système
de fichier exactement dans son état d'origine. Ce point n'est pas toujours pris en compte par
les logiciels
Lors d'une sauvegarde incrémentielle, tous les fichiers dont le marqueur est à "vrai" sont
sauvegardés. Une fois le fichier archivé, celui-ci se voit attribuer la position de son marqueur
à "faux".
La durée de conservation est le temps pendant lequel la donnée sauvegardée est maintenue
intacte et accessible. Si elle est courte, il s'agit d'une sauvegarde classique : la donnée est
protégée contre sa disparition/son altération. Si elle est longue (une ou plusieurs années), il
s'agit d'archivage, dont le but de retrouver la donnée avec la garantie qu'elle n'a pas été
modifiée ou falsifiée.
Exemple : une conservation de quatre semaines implique que les données sauvegardées à une
date précise seront toujours disponibles jusqu'à 28 jours après leur sauvegarde. Après ces 28
jours, d'un point de vue logique, les données n'existent plus dans le système de sauvegarde et
sont considérées comme introuvables. Physiquement, les pistes utilisées pour enregistrer cette
sauvegarde peuvent être effacées.
Plus la conservation est longue et plus le nombre d'instances sauvegardées pour un même
objet fichier ou dossier est important, ce qui nécessite un système de recherche et d'indexation
approprié, et plus l'espace nécessaire pour stocker les résultats de la sauvegarde sera
important.
Dans le cas d'une sauvegarde classique, c'est-à-dire sauvegarde totale le week-end (vendredi
soir) et sauvegardes incrémentielles les autres jours ouvrés de la semaine, du lundi au jeudi
(pas le vendredi) soit quatre jours :
31
- soit R la durée de conservation des travaux souhaitée, exprimée en semaine, - soit T le taux
de modification par jour des fichiers de l'espace à sauvegarder, La formule suivante est
obtenue :
D x R + (D x T %) x 4 = capacité de sauvegarde.
Exemple chiffré :
32
o Comment faire face à l'explosion des volumes de données stockés dans les entreprises ?
o Comment assurer les sauvegardes pour des volumes de données à sauver de plus en plus
grand ?
Pour cela, trois différentes architectures permettent d'organiser son stockage pour répondre à
ces besoins : DAS (Direct Attached Storage), SAN (Storage Area Network) et NAS.
Les solutions de stockage de type DAS (Direct Attached Storage) consistent à connecter
directement un périphérique au serveur ou à la station de travail. Il s'agit principalement d'un
lecteur de bandes magnétiques mais d'autres solutions peuvent être envisagées comme le
support optique ou les disques durs externes (voir figure 2).
Figure 2: L'architecture de sauvegarde DAS (DASTUGUE, 2008)
33
· Les supports amovibles peuvent être externalisés (il s'agit de mettre les sauvegardes à l'abri
en dehors de l'entreprise). Si le lieu de production est très endommagé, les sauvegardes ne
seront pas détruites. Cependant, le coût du lieu de stockage est à prendre en compte.
· Le coût de l'investissement est abordable à toutes PME, quelle que soit sa taille.
· La permutation des supports de stockage n'est pas entièrement automatisée. Il est soumis aux
erreurs humaines (oubli, perte, etc.).
· Les supports sont fragiles. Ils peuvent subir des chocs et des rayures. Les bandes
magnétiques sont plus ou moins fragiles selon leur vitesse de défilement. Leur durée de vie
est limitée à 200 / 300 passages. Quant aux lecteurs, ils sont sensibles à la poussière. Afin de
faciliter leur remplacement, il est conseillé d'utiliser un type de bande standard. Les supports
optiques peuvent, dans les cas les plus extrêmes, exploser dans le lecteur.
· Avec le temps, les supports amovibles peuvent se détériorer. Les CD-ROM de mauvaise
qualité sont les plus exposés à ce phénomène. La période de conservation d'un support
optique est théoriquement d'un siècle, estimation difficile à vérifier puisque la technologie
existe depuis seulement une dizaine d'années. Les données stockées sur des bandes peuvent
s'effacer au fil du temps. Pour éviter toute perte de données, il est important d'effectuer une
réécriture après quelques années.
· Les applications telles que les bases de données doivent être fermées avant de lancer la
sauvegarde. Pendant ce temps, il est impossible d'y effectuer toute modification. Cependant
certains logiciels permettent de sauvegarder « à chaud » (c'est-à-dire en cours de
fonctionnement) certaines bases de données.
34
Le SAN (Storage Area Network) est un réseau spécialisé permettant de partager de l'espace de
stockage à une librairie de sauvegarde et à des serveurs. Dans le cas du SAN, les baies de
stockage n'apparaissent pas comme des volumes partagés sur le réseau. Elles sont directement
accessibles en mode bloc par le système de fichiers des serveurs. En clair, chaque serveur voit
l'espace disque d'une baie SAN auquel il a accès comme son propre disque dur.
L'administrateur doit donc définir très précisément la zone d'accès que possède un serveur sur
le SAN, ceci afin d'éviter qu'un serveur Unix n'accède aux mêmes ressources qu'un serveur
Windows utilisant un système de fichiers différent, par exemple.
Cette technologie permet de centraliser les systèmes d'exploitation sur le SAN, protégeant
ainsi les données et les configurations des défaillances matérielles.
o Des serveurs,
La figure 3 montre une architecture SAN minimaliste : en effet, on peut redonder les liens et
les switches réseaux pour répondre à des besoins de haute disponibilité.
Le SAN est conçu pour fournir de l'espace disque rapide et fiable. La technologie la plus
répandue pour y arriver est la fibre optique. Toutefois, les équipements relatifs à cette dernière
étant très coûteux, deux nouvelles technologies ont vu le jour :
35
Une baie de disques ou disk array contient des disques qui sont pilotés par un ou des
contrôleurs suivant la disponibilité des données que l'on souhaite. Ces disques sont regroupés
en volume via un système de RAID (Redundant Array of Independent Disks).
Il existe différents RAID :
Comme nous le présente la figure 4, ce RAID permet de stocker les données en les distribuant
sur l'ensemble des disques du volume de RAID. Pour n disques de x Go dans un volume, on
dispose alors d'une capacité disque n*x pour stocker nos données. Cette technique permet
d'améliorer les capacités de transfert mais si un disque tombe en panne, on ne peut plus
accéder à nos données.
Sur la figure 5, nous voyons que ce RAID permet de dupliquer les données sur l'ensemble des
disques du volume. Cela agit comme un miroir, c'est-à-dire que chaque disque est une image
Pour fonctionner, ce RAID doit disposer de trois disques minimums. Si l'on dispose de 4
disques comme illustré sur la figure 6, on écrit les données sur 3 disques et le 4ème disque
contiendra la parité des blocs de données des 3 disques. On est dans une configuration à parité
distribuée donc le disque qui reçoit la parité change tout le temps. Le RAID 5 accepte la
défaillance d'un disque sans que la disponibilité des données soit affectée. De plus, il propose
de bonnes performances avec le système de parités distribuées.
II.3.2.1.4. Le RAID 6
Même chose que le RAID 5 sauf que comme nous le présente la figure 7, l'on écrit deux
parités à chaque fois. On perd donc un disque de données utiles au profit d'une tolérance aux
pannes de deux disques en même temps.
37
Les Raids combinés permettent de combiner différents Raids. Par exemple sur la figure 8, on
va regrouper deux volumes Raid 0 en un Raid 1 (Raid 0+1). Cela permet de mixer les
avantages propres à chaque RAID.
II.3.2.2. SCSI
SCSI est l'acronyme de Small Computer System Interface. SCSI est une norme qui permet de
relier un ordinateur à un périphérique en mode bloc (disque, lecteur CDROM...). C'est un
protocole client/serveur. Dans la norme SCSI, on parle d'initiateurs et de cibles.
? La première phase constitue en l'envoi d'une commande de l'initiateur (serveur) vers la cible
(disque). Cette commande peut être READ, WRITE ou toutes autres commandes.
? Ensuite vient l'envoi ou réception de données. Cette phase est optionnelle et n'a lieu qu'en
cas de READ ou WRITE. En cas de READ, la cible envoie les données à l'initiateur. En cas
de WRITE, l'initiateur envoie les données à la cible.
38
En termes de distance, la distance maximale entre deux périphériques est limitée à 1925 m.
SCSI ne permet pas le transport de blocs de données à travers une grande distance ni à travers
un réseau alors l'architecture SAN s'appuie sur des protocoles réseaux (FCP ou ISCSI) qui
encapsule les commandes SCSI.
· Un SAN peut fournir une capacité disque illimitée avec l'ajout sans cesse de nouveaux
périphériques de blocs pour sauvegarder les données.
· Il permet la consolidation des données en évitant de devoir à chaque fois de rajouter des
périphériques de blocs séparés des autres.
Le NAS (Network Attached System) est un ensemble de disques durs, typiquement SCSI,
regroupés sous la direction d'un contrôleur RAID (certaines solutions incluent un second
contrôleur pour assurer la tolérance de pannes). L'unité est directement connectée au réseau
Ethernet de l'entreprise. Le NAS intègre le support de multiples systèmes de fichiers réseau,
tels que CIFS (Common Internet File System, le protocole de partage de fichiers de
Microsoft), NFS (Network File System, un protocole de partage de fichiers Unix) ou encore
AFP (AppleShare File Protocol, le protocole de partage de fichiers d'Apple). Une fois
connecté au réseau, il peut jouer le rôle de plusieurs serveurs de fichiers partagés.
Un NAS va donc stocker des données partagées, un peu comme un serveur de fichiers mais en
plus solide, plus rapide et plus simple à administrer (voir figure 9).
39
· Facile à mettre en place (Plug And Play). Il suffit juste d'intégrer un serveur sur le réseau.
· Déconseillé avec des applications demandant de grosses performances disques comme des
bases de données.
· Demande des ressources CPU au niveau de la tête de NAS. II.3.4. Le tableau comparatif
des différentes solutions SAN et NAS
Le tableau 3 ci-dessous fait l'étude comparative des différentes solutions SAN et NAS selon
différents critères. Il nous aussi les différences entre l'architecture de sauvegarde SAN et
l'architecture de sauvegarde NAS.
Orienté fichier
40
SAN Fonction
NAS
principale
Le stockage est accessible à Serveur spécialisé, qui sert
travers un réseau qui lui est
Applications
spécialement dédié. Sa les fichiers et les données stockées
bien adaptées
principale fonction est de aux postes clients et aux autres
fournir aux serveurs un
stockage consolidé basé sur serveurs à travers
le Fibre Channel
le réseau
Idéal pour les bases de Idéal pour serveur de Transfert des
données et le traitement des fichiers données
transactions en ligne
A travers le SAN vers un A travers un LAN ou un Ressources de
serveur vers un LAN ou un WAN stockage et
WAN de sauvegarde
Les sauvegardes peuvent Disponibilité
Les ressources de stockage
être attachées directement à
et de sauvegardes peuvent
des Appliance NAS
être attachées directement au
intermédiaires ou être
serveur ou à travers une
distribuées et attachées à un
structure Fibre Channel
LAN ou un WAN
Des composants matériels et Des alimentations et des
logiciels redondants donnent ventilateurs redondants sont
au système une haute couramment utilisés
Scalabilité
disponibilité. Le système
peut être configuré sans le
moindre point de panne
Plusieurs serveurs NAS
peuvent être ajoutés au
Le stockage peut être étendu par
l'ajout de switches Fibre Channel et réseau, et du stockage peut
de dispositifs de stockage être ajouté aux serveurs
NAS intermédiaires
Tableau 3:Le tableau comparatif des différentes solutions SAN et NAS (DUFRESNES, 2008)
41
· La sécurisation des données : RAID, snapshots, Oracle Data Guard (en), BCV (Business
Copy Volume), SRDF (Symmetrix Remote Data Facility), DRBD ;
· Un plan de secours ;
Pour chaque niveau de l'architecture, pour chaque composant, chaque liaison entre
composants, il faut établir :
Exemples : Tests de vie TCP Health Check implémenté par un boîtier Alteon4, programme de
test invoqué périodiquement (« heartbeat »), interface de type « diagnostic » sur les
composants...
· Comment s'assurer que le système de secours reparte sur un état stable et connu ?
Exemples : on repart d'une copie de la base et on réapplique les archives logs, relance des
batchs depuis un état connu, commit à 2 phases pour les transactions mettant à jour plusieurs
gisements de données...
Exemples : Si un mode dégradé permet en cas de défaillance d'une base de données de stocker
des transactions en attente dans un fichier, comment les transactions sont-elles réappliquées
quand la base de données redevient active. Si un composant défaillant a été désactivé,
comment s'effectue sa réintroduction en service actif (nécessité par exemple de resynchroniser
des données, de retester le composant...)
performant
Nous avons répertorié les principaux critères, regroupés selon deux catégories : fonctionnalité
et caractéristique, qui devraient rester en trame de fond lors du choix d'une solution de
sauvegarde.
II.5.1.1. Multiplateforme
42
Sauvegarde des fichiers en utilisation (ouverts).
Bénéficier d'une interface de gestion qui permet l'administration de toutes les sauvegardes, sur
tous les ordinateurs, de façon centralisée. Cette fonctionnalité évite de travailler sur chacun
des ordinateurs pour gérer la sauvegarde.
Permettre la recherche selon plusieurs critères : date, nom et version parmi les fichiers
sauvegardés, afin de retrouver les données à restaurer rapidement.
Permettre, sans être obligatoire, le cryptage des données sauvegardées. Les médias de
sauvegarde contenant les données ne pourront pas être réutilisées par des personnes non
autorisées.
43
Le temps nécessaire pour réaliser la restauration d'un système ou d'un fichier perdu est
fortement lié à la facilité de retrouver rapidement les données à restaurer. Dans le cas de la
restauration d'un système complet, les utilisateurs accepteront facilement un délai de quelques
heures. Par contre, avertir un utilisateur que la restauration de son fichier de données `WORD'
prendra 4 heures risque de vous mettre dans l'embarras ! La fiabilité et la flexibilité du
système de sauvegarde seront fortement remises en question dans un tel cas.
II.5.2. Caractéristique
II.5.2.2. Planifiable
La réalisation des sauvegardes doit être planifiable. C'est-à-dire que chaque jeu de sauvegarde
peut se réaliser selon son propre planning et de façon indépendante des autres jeux. La
configuration du serveur pourra être sauvegardée tous les dimanches à 20h00 alors que la
sauvegarde des données comptables pourrait être faite deux fois par jour : le midi et le soir.
Parallèlement, la sauvegarde des postes de travail pourrait être réalisée tous les jours à 18h30.
II.5.2.3. Auditable
45
II.5.2.4. Testable
II.5.2.5. Sécuritaire
Bien que le système de sauvegarde soit fiable, flexible et autonome il ne pourra jamais
remplacer les mesures de sécurité essentielles. Mettre en place, de façon consciencieuse les
sauvegardes, n'enlève pas l'obligation de garder en lieu sûr les médias. Abandonner tous les
médias de sauvegarde dans la même pièce diminue sérieusement la sécurité. Il existe,
aujourd'hui, des systèmes de sauvegarde qui protègent efficacement des sinistres sans que
vous soyez dans l'obligation de manipuler les médias.
II.5.2.6. Évolutif
Votre système informatique évoluera. La volumétrie des données risque d'augmenter. On doit
s'assurer que le système de sauvegarde mise en oeuvre permettra la gestion d'une volumétrie
en constante évolution.
II.5.2.7. Résilient
Le système de sauvegarde doit demeurer fonctionnel malgré une panne de certains éléments
ou encore lors de changements de certains composants matériels.
Un système de sauvegarde est une couverture d'assurance contre les pertes monétaires dues à
la défaillance matérielle ou fonctionnelle de votre système informatique. L'importance de
mettre en place un système de sauvegarde est directement liée à la criticité des données de
votre entreprise et à la rapidité avec laquelle elles seront remises à disposition pour continuer
ou reprendre votre activité.
46
Ce chapitre est consacré à la réalisation de notre projet. Pour commencer, nous présentons
tout d'abord, les différentes améliorations apportées au système de sauvegarde et de
restauration de données de la DGTTC, en vue d'augmenter sa disponibilité selon le cahier de
charges qui nous a été soumis. Nous procédons ensuite à son installation et à sa configuration.
Pour finir, nous faisons son estimation financière et présentons son impact sur le réseau
existant de la DGTTC.
Pour résoudre les problèmes soumis à notre expertise à travers le cahier de charges qui nous a
été soumis, nous avons décidé d'installer un autre serveur de sauvegarde et de restauration de
données. Nous allons par la suite créer un clustering de serveur. Ensuite, nous allons mettre en
place un RAID de niveau 1, c'est-à-dire mirroring de partition à travers une interface réseau.
Nous allons pour finir, externaliser les sauvegardes vers un serveur distant tel que le présente
la figure 10.
Pour cela, nous allons choisir comme gestionnaire de sauvegarde, BackupPC ; pour le service
de haute disponibilité, nous avons choisi Heartbeat ou linux HA (High Availability) et
enfin, pour la mise en place de la solution RAID de niveau 1, nous avons opté pour
Distributed Replicated Block Device (DRBD).
III.1.1. BackupPC
BackupPC est un logiciel libre utilisé pour sauvegarder un ensemble de postes. Il possède une
interface Web pour configurer, lancer des sauvegardes ou restaurer des fichiers. Il est
également possible de sauvegarder des bases de données. BackupPC permet de sauvegarder
automatiquement à des intervalles de temps réguliers des répertoires situés sur des machines
du réseau. Il permet d'assurer une politique de sauvegardes pour des clients de différents types
(Unix, GNU/Linux, Windows, Mac).
Heartbeat ou linux HA (High Availability) est un système permettant, sous Linux, la mise en
cluster (en groupe) de plusieurs serveurs. C'est plus clairement un outil de haute disponibilité
qui va permettre à plusieurs serveurs d'effectuer entre eux un processus de fail-over. Le
principe du «fail- over» (ou «tolérance de panne«) est le fait qu'un serveur appelé «passif» ou
«esclave» soit en attente et puisse prendre le relais d'un serveur «actif» ou «maitre» si ce
dernier serait amené à tomber en panne ou à ne plus fournir un service. Le principe
d'Heartbeat est donc de mettre nos serveurs dans un cluster qui détiendra et sera représenté
par une IP «virtuelle» par laquelle lesclients vont passer plutôt que de passer par l'IP d'un
serveur (actif ou passif). Le processus Heartbeat se chargera de passer les communications
aux serveurs actif si celui-ci est vivant et au serveur passif le cas échéant.
Nous allons donc mettre en place un clustering de serveur qui partagera une même adresse IP
virtuelle. Le but étant qu'il y a toujours une réponse à un ping vers une IP (qui sera l'IP
virtuelle du cluster).
DRBD permet de mettre en oeuvre une solution de RAID-1 au travers du réseau. C'est-à-dire
que sur deux serveurs, on a une partition1 par serveur qui est à tout moment une copie exacte
d'une partition de l'autre serveur. C'est un mirroring (miroir) de partitions à travers une
interface réseau. Cela nous permettra dans notre système Backup d'avoir un serveur passif qui
sera la réplique exacte du serveur actif. Le but est que le serveur passif n'est pas à faire de
mise à jour volumineuse quand le serveur actif tombe.
49
A l'installation, il est créé l'utilisateur backuppc ainsi que le « password user ». Soit nous la
conservons tel-quel ou nous la changeons à l'aide de la commande (voir figure 11)
Pour démarrer backuppc, il faut ajouter l'utilisateur de la session dans le groupe backuppc.
Un redémarrage du serveur web est nécessaire pour prendre en compte les modifications.
50
La page web de backuppc est ainsi disponible pour toutes les configurations à l'adresse :
localhost/backuppc (voir figure 12)
Figure 12: La page web BackupPC (Source : Hyppolyte N'GUESSAN)
Nous pouvons utiliser l'interface web pour configurer nos hôtes comme nous le montre le
voyons sur la figure 13.
Figure 13: L'interface Web de configuration des hôtes (Source : Hyppolyte N'GUESSAN)
Nous pouvons également éditer manuellement le fichier dans notre terminal en utilisant la
commande :
vim /etc/BackupPC/conf/hosts
51
Sur la figure 14, nous avons une illustration de ce fichier. Cela nous permey de voir que la
première colonne correspond au nom d'hôte. La seconde spécifie si DHCP (Dynamic Host
Configuration Protocol) doit être activé pour la recherche de l'hôte. La troisième colonne
indique l'utilisateur "propriétaire" de l'hôte, la quatrième et dernière les utilisateurs
supplémentaires.
Figure 14: La configuration manuelle des hôtes (Source : Hyppolyte N'GUESSAN)
Figure 15: La configuration générale de BackupPC via l'interface Web (Source : Hyppolyte
N'GUESSAN)
Nous pouvons ici aussi choisir de modifier le fichier à la main. Voici certaines options de
configuration du serveur :
52
1, 2, 3 (par défaut) signifie que le serveur s'éveillera toutes les heures sauf minuit. Il est aussi
possible de spécifier une ou plusieurs heures fixes, séparées par des virgules : 1,2.5,6 (une
heure, deux heures trente et six heures).
Suivent ensuite des directives qui peuvent être remplacées dans le fichier de configuration
d'un hôte. Si le fichier d'hôte ne contient aucune indication, la valeur du fichier général de
configuration sera prise en compte.
53
Dans le cas où cette valeur ne serait pas définie dans le fichier de configuration de l'hôte, la
sauvegarde s'opérerait sur le partage par défaut (C$ et D$ pour samba, / et /home pour tar, ...)
$Conf{XferMethod} = 'rsync' ; méthode de sauvegarde des hôtes (peut être rsync, smb,
rsyncd, tar, archive)
$Conf{XferLogLevel} = 1 ; degré de verbosité. Plus le degré sera élevé, plus le fichier de log
sera complet. Il peut être utile d'augmenter cette valeur pour un hôte donné qui pose des
problèmes
$serverInitdPath start < /dev/null >& /dev/null'; : commande de démarrage du serveur depuis
l'interface CGI. Cet exemple est tiré des commentaires du fichier de configuration
La section suivante dans le fichier de configuration vous permet de configurer l'envoi des
emails en cas d'erreur, d'hôte jamais sauvegardé, etc...
54
Il est maintenant nécessaire de configurer les hôtes à sauvegarder. Les directives des fichiers
d'hôtes (/etc/BackupPC/pc/{hote}.pl) prennent le pas sur celles du fichier de configuration
général. Bien entendu, si vous planifiez de ne sauvegarder qu'un seul et unique poste, ou que
la configuration est strictement identique sur chacun des postes à sauvegarder, il est possible
d'utiliser uniquement le fichier de configuration général paramétré avec les bonnes directives.
Vous pouvez utiliser l'interface web d'administration pour cela en sélectionnant un hôte dans
la liste déroulante et en cliquant sur le lien « Modifier la configuration ». (Voir figure 16)
55
Figure 16: L'interface web d'administration (Source : Hyppolyte N'GUESSAN)
Cette fois encore, nous pouvons choisir d'éditer le fichier nous-même. Les directives possibles
sont celles situées dans les parties spécifiées du fichier de configuration général. Il est
intéressant de noter que bon nombre des directives peuvent être modifiées par hôte, votre
fichier de configuration général peut être configuré pour utiliser rsync avec SSH (Secure
Shell), et vous pouvez facilement mettre en place une sauvegarde via SMB pour un hôte
donné.
56
Il va falloir configurer nos deux hôtes pour que le serveur puisse établir une connexion sur le
poste à sauvegarder en SSH mais sans être embêté par la demande de mot de passe. Pour cela
nous allons utiliser l'utilisateur 'backuppc' (car c'est lui qui instancie la connexion au serveur
distant), puis créer une clef RSA, que nous copierons dans le répertoire 'authorized_keys' de
l'utilisateur de la machine à sauvegarder. Ainsi notre utilisateur 'backuppc' pourra se logger
sur le serveur distant sans mot de passe. Pour réaliser cela, nous utilisons les commandes
suivantes :
Il convient ensuite de copier la clé ainsi créée sur chaque hôte cible, dans le fichier
~/.ssh/authorized_keys de l'utilisateur possédant les droits de lecture des répertoires à
sauvegarder. Pour cela, nous utilisons la commande :
57
III.3.2.1. L'installation
Nous aurons donc un serveur actif en 192.168.0.2 et un serveur passif 192.168.0.3 tout deux
sous Linux sur lesquels sera installé le paquet Heartbeat et ses dépendances. Nous souhaitons
que les clients communiquent avec le serveur via l'IP virtuelle du cluster 192.168.0.50 et non
pas vers 192.168.0.2 ou 192.168.0.3. Ce sera au cluster de passer les requêtes à tel ou tel
serveur suivant la disponibilité du serveur «maître«.
Après avoir mis en place les serveurs et s'être assuré de leur inter- connectivité (via un simple
ping), nous allons mettre à jours notre liste de paquet :
apt-get update
Les fichiers de configuration devront être les mêmes sur les deux serveurs membres du cluster
et devront se situés dans «/etc/ha.d» (ou «/etc/heartbeat» qui est un lien symbolique
58
vers «/etc/ha.d«). Ces fichiers devront être créés car ils ne le sont pas à l'installation
d'Heartbeat :
vim /etc/heartbeat/authkeys
Voici un contenu
Auth1
Il faut savoir que l'on peut utiliser trois modes de sécurisation dans ce fichier :
Par sécurité, on sécurise ce fichier en lui mettant des droits plus restreints :
cluster-node1 192.168.0.50
On rappelle que le contenu du fichier doit être le même sur les deux serveurs. On indique
donc ici le nom du serveur primaire du cluster (cluster-node1 est pour moi «192.168.0.2«)
puis l'IP virtuelle du cluster : «192.168.0.50» dans notre cas. Pour information, les logs de
Heartbeat se situent comme indiqué dans le fichier de configuration dans le fichier
«/var/log/daemon.log«.
59
Nous allons pourvoir maintenant passer au démarrage de notre cluster, nous verrons par la
même occasion l'attribution et l'IP virtuelle. Pour avoir une vue en détail de ce qu'il se passe
sur nos serveurs, il est aussi intéressant d'avoir un oeil sur les logs de ceux-ci qui se situent,
selon notre configuration, dans le fichier «/var/log/heartbeat.log«. Nous saisissons donc sur
nos deux serveurs la commande suivante :
Si tout se passe bien, nous aurons une nouvelle interface et une nouvelle IP lors de la saisie de
la commande «ifconfig» sur le serveur actif («maître«) comme sur la figure 20:
On voit donc bien ici que c'est une IP virtuelle (« :0«) qui est basée sur eth0 et qu'elle à l'IP
192.168.0.50 qui devrait alors être joignable (par un simple ping). Jetons maintenant un oeil
du coté de nos logs.
On voit sur la figure ci-dessous le début du processus des statuts. Le but est ici de définir qui
est vivant et qui ne l'est pas pour définir qui se chargera d'être actif. On voit donc que le
serveur commence par joindre la passerelle afin de vérifier la connectivité de son interface (ici
«eth0«). Il déclare ensuite le statut de cette interface en «up« (figure 21)
60
Après avoir effectué cette vérification, le serveur paramètre donc l'IP virtuelle dans sa
configurati on grâce à son script «IPaddr«
On voit ici que le serveur passif détecte que le lien cluster-node1 (serveur
maitre«192.168.0.2«) ne répond plus, il le considère donc comme «mort» (figure 23) :
Il lance ensuite la reprise du serveur actif en configurant l'IP virtuelle sur son interface comme
précisé dans le fichier «/etc/heartbeat/haresources«. A ce moment, si l'on fait un «ifconfig»
sur le serveur 192.168.0.3, nous allons voir qu'il a bien récupérer l'IP virtuelle sur cluster
(figure 24)
61
Cela indique que dès que le serveur dit comme «principal» redeviendra «vivant«, il prendra à
nouveau la fonction et la tête du cluster. L'utilité de ce paramétrage peut dépendre du service
hébergé sur les serveurs en cluster (figure 25)
Figure 25: La reprise de la tête du cluster par le serveur principal (Source : Hyppolyte
N'GUESSAN)
III.3.3.1. L'installation
Pour commencer nous rajoutons des disques durs à nos serveurs, ensuite nous créons une
partition sur les seconds disques que nous avons rajoutés.
Pour cela, nous tapons la commande fdisk « partition » avec partition correspondant au nom
logique de celle-ci sur chacun des clusters. Nous commençons sur le Cluster node 1, en tapant
fdisk /dev/sbd comme nous le montre la figure 26. Nous faisons de même avec le Cluster-
node 2
Figure 26: Le rajout de disque au serveur principal Cluster node 1 (Source : Hyppolyte
N'GUESSAN)
Maintenant que nous avons partitionnés les deux disques nous allons installer les paquets
nécessaires à l'utilisation de DRBD.
Sur les deux machines (node1 et node2) tapez les commandes suivantes :
apt-get install drbd8-utils
Puis une fois le paquet installé on active le module avec la commande suivante : modprobe
drbd
62
III.3.3.2. La configuration
Maintenant que nos disques et DRBD sont mis en place nous allons configurer la réplication
des données entre les deux disques.
Pour ce faire nous allons créer et éditer un fichier que nous allons appeler drbd1.res dans le
dossier « /etc/drbd.d/ » les commandes et les configurations suivantes sont à faire sur les deux
serveurs.
cd /etc/drbd.d
vim drbd1.res
Explications :
Tout d'abord on donne un nom à notre ressource DRBD dans notre cas nous allons
l'appeler r0.
Dans cette ressource nous allons renseigner nos deux nodes, cela commence donc par on
cluster-node1 (cluster-node1 doit être le hostname de la machine) on fait la même chose pour
node2.
Une fois ce fichier écrit sur les deux nodes nous allons enfin pouvoir mettre en place la
réplication.
Toujours sur les deux nodes tapons les commandes suivantes :
drbdadm create-md r0
63
drbdadm up r0
Notre DRBD est pratiquement mis en place cependant, étant donné qu'aucun des deux n'est en
mode « Primary », vos nodes se connectent mais que la réplication n'est pas encore possible.
Pour y remédier nous allons mettre cluster-node1 en « primary » avec la commande suivante :
La synchronisation initiale se lance et nous pouvons vérifier son état avec la commande
suivante (figure 29):
cat /proc/drbd
Maintenant que notre raid réseau et fonctionnel nous allons créer un système de fichier en
ext4 pour pouvoir écrire dessus.
mkfs.ext4 /dev/drbd0
Maintenant nous pouvons monter le disque DRBD comme n'importe quel disque dur
mkdir /mnt/r0
64
durs de 500 Go chacun. A côté de cela, nous devons louer un espace de stockage de données
dans un Datacenter distant en vue d'externaliser nos sauvegardes. Le tableau 4 nous permet
d'avoir une idée de l'estimation financière de ce projet.
Désignation Quantité Prix Unitaire Prix Total (FCFA) HP Proliant 380p Gen9 + 6
(FCFA) Disques durs de 500 Go
01 1.540.000 1.540.000 Espace de stockage de
données de 2 To
01 1.500.000 1.500.000 Total
3.040.000 3.040.000
Dans ce chapitre, il a été question de présenter notre solution pour l'amélioration du système
de sauvegarde et de restauration de données de la DGTTC et de procéder à son
implémentation. Nous avons ensuite procéder à des tests qui consistaient à simuler des
pannes, en vue de se rassurer que notre solution répond aux exigences du cahier de charges
fonctionnel qui nous a été soumis.
65
CONCLUSION GENERALE
Au terme de notre étude, nous conclurons qu'en plus de la mise en place de pare-feu, de
système d'authentification et tout autre outil de sécurité du système d'information, il est, de
nos jours, nécessaire de mettre en place un système de sauvegarde et de restauration de
données à tolérance de pannes, qui est l'un des éléments essentiels d'une bonne politique de de
sécurité.
La mise en place d'un système de sauvegarde et de restauration de données avec une haute
disponibilité, de manière générale, se fait en trois grandes étapes.
Dans première étape, nous avons vu comment se fait l'installation du logiciel de gestion des
différents serveurs de sauvegarde et de restauration de données, en occurrence BackupPC. Il
faut noter que nous devons disposer d'un serveur de sauvegarde et d'un autre serveur qui est la
copie conforme de notre serveur de sauvegarde.
Après l'installation de nos différents serveurs et de leur logiciel de gestion, je suis passé dans
la deuxième étape de la mise en place du système de sauvegarde et de restauration de données
avec une haute disponibilité à l'installation du logiciel de clustering, à savoir HeartBeat. Ce
logiciel se charge du basculement entre le serveur actif et le serveur passif en cas de panne
afin d'assurer la continuité du service. Afin de s'assurer de son bon fonctionnement, j'ai même
procédé à des tests au cours desquels j'ai simulé la panne du serveur actif et vérifié que le
basculement s'effectue de manière automatique.
La dernière partie de cette mise en place a consisté à installer une solution RAID de niveau 1.
Pour cela, j'ai installé le logiciel DRBD qui a en charge la réplication des données
sauvegardées par le serveur actif sur le serveur passif afin qu'il est les mêmes données en tout
temps. Cela permet ainsi d'optimiser la prise de service par le serveur passif lorsque le serveur
actif sera down.
66
Il est donc nécessaire de prévoir des mécanismes de sauvegarde (en anglais backup),
idéalement sur des sites distants, afin de garantir la pérennité des données.
Par ailleurs, un mécanisme de sauvegarde permet d'assurer une fonction d'archivage, c'est-à-
dire de conserver les données dans un état correspondant à une date donnée.
67
BIBLIOGRAPHIE
1. Cédric, L., Laurent, L., & Denis, V. (2006). Tableau de bord de la sécurité réseau. Paris:
Eyrolles.
http://www-igm.univ-mlv.fr/~dr/XPOSE2007/jdastugNAS_SAN/index.html
3. DUFRESNES, C. (2008, Août 18). SAN et NAS. Récupéré sur Notions Informatiques; Site
Internet
http://notionsinformatique.free.fr
http://reseau-informatique.prestataires.com/sauvegarde-donnees-informatiques
7. Stanislas, B., GNEBA. Mise en place d'un réseau local sécurisé pour l'Etat-Major Général
des FRCI, Mémoire de fin de cycle, HETEC, Abidjan
68
GLOSSAIRE VII
DEDICACE X
REMERCIEMENTS XI
RESUME XII
ABSTRACT XIII
INTRODUCTION GENERALE 14
1. Contexte et problématique 14
3. Objectifs 15
5. Plan 15
I.3.1. Le demandeur 17
I.3.1.1. La présentation de la DGTTC 17
I.4.2.1. Le constat 18
I.4.2.4. La technique 19
69
I.7.2. La formation 25
I.8. La maintenance 25
RESTAURATION DE DONNES 27
II.2.1. Le mécanisme 28
II.3.2.1.4. Le RAID 6 36
70
II.3.2.2. SCSI 37
II.3.3.1.2. Inconvénients 39
II.5.1.1. Multiplateforme 42
II.5.2. Caractéristique 44
II.5.2.2. Planifiable 44
II.5.2.3. Auditable 44
II.5.2.4. Testable 45
II.5.2.5. Sécuritaire 45
II.5.2.6. Évolutif 45
II.5.2.7. Résilient 45
71
III.1.1. BackupPC 48
III.3.1.1. L'installation 49
III.3.2.1. L'installation 57
III.3.2.2. La configuration 57
III.3.3.1. L'installation 61
III.3.3.2. La configuration 62
des données 63
CONCLUSION GENERALE 65
BIBLIOGRAPHIE 67
73
2. L'organisation de la DGTTC A
72
AN
Elle est chargée de mettre en oeuvre et suivre la politique des transports routiers et
ferroviaires, d'élaborer, de suivre, de contrôler la règlementation en matière de transport
routier et ferroviaire, de représenter le ministre des transports auprès des organismes
régionaux et internationaux des transports terrestres.
Elle comprend deux (02) sous-directions : la sous-direction des transports des personnes et la
sous-direction des transports des marchandises.
Elle est chargée de suivre les relations avec les organisations professionnelles, les auxiliaires
de transport et les entreprises de transports terrestres, d'élaborer et mettre en oeuvre les
politiques de formation, de gestion prévisionnelle et la promotion du personnel ainsi que de la
formation des acteurs du secteur des transports terrestres, d'assurer l'entretien et la gestion des
locaux, de suivre et de contrôler la mise en place du budget de la Direction Générale.
Elle est chargée de conduire une politique de réglementation et de définition des besoins, de
promouvoir et renforcer la capacité des transporteurs, de promouvoir les entreprises de
transport, de promouvoir les actions relatives aux affaires sociales des acteurs du secteur des
transports.
Ce service est doté de 4 salles d'archivages et une salle des serveurs qui sont reparties comme
suit :