Beruflich Dokumente
Kultur Dokumente
D69794
Edition 1.0
Février 2011
D59999FR10
Manuel du stagiaire - Volume II
Gestion des clusters et ASM
Oracle Grid Infrastructure 11g :
James Spiller Cette documentation contient des informations qui sont la propriété d'Oracle
Corporation et sont protégées par les lois relatives aux droits d'auteur et à la propriété
intellectuelle. Vous ne pouvez copier et imprimer ce document qu'à des fins d'utilisation
%QPVTKDWVKQPUVGEJPKSWGU personnelle lors de la participation à une formation dispensée par Oracle. Le document
ne peut être modifié ou altéré en aucune manière. A l'exception des cas où l'utilisation
David Brower faite du document s'inscrit dans le respect des lois relatives aux droits d'auteur, vous
Jean-Francois Verrier ne pouvez pas utiliser, partager, télécharger, copier, imprimer, afficher, exécuter,
reproduire, publier, breveter, diffuser, transmettre ou distribuer ce document, en partie
Mark Fuller ou en totalité, sans l'autorisation expresse d'Oracle.
Mike Leatherman
Barb Lundhild Les informations fournies dans ce document sont susceptibles de modification sans
préavis. Par ailleurs, Oracle Corporation ne garantit pas qu'elles soient exemptes
S. Matt Taylor d'erreurs et vous invite, le cas échéant, à lui en faire part par écrit à l'adresse suivante :
Rick Wessman Oracle University, 500 Oracle Parkway, Redwood Shores, California 94065 USA.
'FKVGWTU
,C[CPVJ[-GUJCXCOWTVJ[
)KTK8GPWIQRCN
Table des matières
THESE eKIT MATERIALS ARE FOR YOUR USE IN THIS CLASSROOM ONLY. COPYING eKIT MATERIALS FROM THIS COMPUTER IS STRICTLY PROHIBITED
iv
Installer Grid Infrastructure 2-30
Fonctionnalité Grid Plug and Play 2-31
THESE eKIT MATERIALS ARE FOR YOUR USE IN THIS CLASSROOM ONLY. COPYING eKIT MATERIALS FROM THIS COMPUTER IS STRICTLY PROHIBITED
v
Supprimer un emplacement de registre OCR 3-14
Migrer des emplacements OCR vers ASM 3-15
THESE eKIT MATERIALS ARE FOR YOUR USE IN THIS CLASSROOM ONLY. COPYING eKIT MATERIALS FROM THIS COMPUTER IS STRICTLY PROHIBITED
Migration d'un registre OCR d'une unité ASM vers une autre unité
de stockage partagé 3-17
Exécuter des sauvegardes manuelles du registre OCR 3-18
Récupérer le registre OCR à l'aide de sauvegardes physiques 3-19
Récupérer le registre OCR à l'aide de sauvegardes logiques 3-20
Registre Oracle Local Registry 3-21
Déterminer les paramètres réseau en cours 3-23
Modifier des adresses IP virtuelles publiques 3-24
Modifier l'adaptateur d'interconnexion 3-26
Gérer les ressources de type adresse VIP et processus d'écoute SCAN 3-28
vi
Vérifier les versions d'un logiciel 4-34
Installer un jeu de patches de manière non simultanée à l'aide d'OUI 4-35
THESE eKIT MATERIALS ARE FOR YOUR USE IN THIS CLASSROOM ONLY. COPYING eKIT MATERIALS FROM THIS COMPUTER IS STRICTLY PROHIBITED
vii
6 Dépanner Oracle Clusterware
Objectifs 6-2
THESE eKIT MATERIALS ARE FOR YOUR USE IN THIS CLASSROOM ONLY. COPYING eKIT MATERIALS FROM THIS COMPUTER IS STRICTLY PROHIBITED
x
Gérer les volumes dynamiques avec SQL*PLUS 10-21
Enregistrer un volume ACFS 10-22
THESE eKIT MATERIALS ARE FOR YOUR USE IN THIS CLASSROOM ONLY. COPYING eKIT MATERIALS FROM THIS COMPUTER IS STRICTLY PROHIBITED
xi
THESE eKIT MATERIALS ARE FOR YOUR USE IN THIS CLASSROOM ONLY. COPYING eKIT MATERIALS FROM THIS COMPUTER IS STRICTLY PROHIBITED
xii
Oracle University and CFAO THECHNOLOGIES use only
THESE eKIT MATERIALS ARE FOR YOUR USE IN THIS CLASSROOM ONLY. COPYING eKIT MATERIALS FROM THIS COMPUTER IS STRICTLY PROHIBITED
Objectifs
• Exemple :
CREATE DISKGROUP FRA NORMAL REDUNDANCY
DISK 'ORCL:SDD11' NAME 'FRA_DISK1' SIZE 977 M,
'ORCL:SDD12' NAME 'FRA_DISK2' SIZE 977 M;
DISK_REPAIR_TIME Indique le temps attendu par ASM 0 à 136 années, indiquées en 3.6H
après la déconnexion d'un disque pour minutes (M) ou en heures (H)
COMPATIBLE.RDBMS Indique la version logicielle minimale Au moins les deux premiers 10.1
requise pour qu'une instance de base chiffres d'un numéro de version
de données utilise des fichiers du Oracle Database valide
groupe de disques.
COMPATIBLE.ASM Indique la version logicielle minimale Au moins les deux premiers 10.1
requise pour qu'une instance ASM chiffres d'un numéro de version
monte ce groupe de disques. Oracle Database valide
Vue V$ASM_ATTRIBUTE
La vue V$ASM_ATTRIBUTE affiche les attributs d'un groupe de disques ASM si l'attribut
COMPATIBLE.ASM de celui-ci a une valeur supérieure ou égale à 11.1. Si
COMPATIBLE.ASM n'a pas une valeur supérieure ou égale à 11.1, V$ASM ATTRIBUTE
n'a aucune ligne correspondant au groupe de disques.
Voici un exemple d'interrogation qui recherche les attributs d'un groupe de disques
particulier :
La commande ASMCMD lsattr –lm –G affiche les mêmes informations pour un groupe
de disques.
Attributs de compatibilité
Attributs de compatibilité
Vous pouvez définir l'attribut de compatibilité d'un groupe de disques à l'aide de l'instruction
SQL CREATE DISKGROUP ou ALTER DISKGROUP. Par exemple :
ALTER DISKGROUP FRA SET ATTRIBUTE 'compatible.asm' =
'11.2';
Lorsque vous définissez la valeur des attributs COMPATIBLE.RDBMS et
COMPATIBLE.ASM, indiquez au moins les deux premiers chiffres d'un numéro de version
Oracle Database valide. Par exemple, vous pouvez indiquer 10.1 ou 11.1. ASM considère
que tous les chiffres absents sont des zéros.
Notez que la valeur de ces attributs peut seulement être augmentée (par exemple, de 10.1
à 11.1). Par ailleurs, la modification d'un attribut de compatibilité est une opération
irréversible. Pour revenir à la valeur précédente, vous devez créer un nouveau groupe de
disques avec les anciens attributs de compatibilité, puis restaurer les fichiers de base de
données qui se trouvaient dans le groupe.
• Mode émulation :
LBA0 LBA1 LBA2 LBA3 LBA4 LBA5 LBA6 LBA7
• Mode natif :
Secteur logique
Secteur physique
'/devices/diskb4'
ATTRIBUTE 'sector_size'='4096';
Pour plus d'informations sur la façon dont ASM contrôle la taille de secteur (et détecte l'échec
de cette opération), reportez-vous au manuel Oracle Database Storage Administrator’s Guide
11g Release 2 (11.2).
Tous les disques d'un groupe doivent avoir une taille de secteur égale à la valeur indiquée
pour l'attribut. Lors du traitement de la commande CREATE DISKGROUP, ASM interroge le
système d'exploitation pour vérifier la taille de secteur de tous les disques indiqués avant
d'ajouter ceux-ci au groupe. Cela garantit que tous les disques d'un groupe ont une taille de
secteur identique. Si un disque présente une taille de secteur différente, la commande échoue.
Des vérifications similaires sont exécutées lors du montage du groupe de disques. Si vous
omettez cet attribut dans la commande CREATE DISKGROUP, ASM poursuit l'opération de
– Exemple :
ALTER DISKGROUP FRA ADD
DISK 'ORCL:SDE5' NAME 'FRA_DISK3','ORCL:SDE6' NAME 'FRA_DISK4';
– Exemple :
ALTER DISKGROUP FRA DROP DISK FRA_DISK1, FRA_DISK4;
Vue V$ASM_OPERATION
La vue V$ASM_OPERATION fournit des informations sur les opérations de longue durée
pilotées par ASM. Il peut s'agir de l'une des opérations suivantes :
• Une opération de rééquilibrage résultant de l'ajout ou de la suppression de disques dans
un groupe.
• Une opération de resynchronisation de miroir après la remise en ligne d'un disque à la
suite d'une panne.
L'exemple suivant montre une interrogation standard indiquant toutes les opérations en cours :
SQL> SELECT G.NAME DISK GROUP, O.*
2 FROM V$ASM_OPERATION O, V$ASM_DISKGROUP G
3 WHERE O.GROUP_NUMBER = G.GROUP_NUMBER;
Exemples :
ALTER DISKGROUP FRA
ADD FAILGROUP FAIL1
DISK 'ORCL:SDE9' SIZE 977 M ,'ORCL:SDE10' SIZE 977 M
REBALANCE POWER 0;
Exemples :
ALTER DISKGROUP DATA UNDROP DISKS;
Exemples :
ALTER DISKGROUP DATA MOUNT;
SOFTWARE COMPATIBLE
DISK_GROUP GROUP# INSTANCE_NAME DB_NAME STATUS VERSION VERSION
---------- ------ ------------- -------- --------- ---------- ----------
DATA 1 racdb2 racdb CONNECTED 11.2.0.1.0 11.2.0.0.0
DATA 1 +ASM2 +ASM CONNECTED 11.2.0.1.0 11.2.0.1.0
P S S P S P P S S P S P
P S S P S P P S S P S P
-- -- -- -- -- --
= DG1
F1 F3 F4 F2
= DG2
P S P S S P S S
S P S
ERRORS
----------
0
La commande ASMCMD lsdsk --statistics affiche seulement les colonnes de
statistiques.
Quiz
Réponse : 2
Toutefois, si un seul groupe d'échec est défini, l'instruction CREATE DISKGROUP échoue.
Quoi qu'il arrive, il est recommandé de définir la clause REDUNDANCY explicitement car ce
paramètre ne peut pas être modifié une fois le groupe de disques créé.
Quiz
Réponse : 2
Si le paramètre d'initialisation ASM_POWER_LIMIT a la valeur zéro ou si l'option
REBALANCE POWER 0 est indiquée dans l'instruction ALTER DISKGROUP, le
rééquilibrage est désactivé.
Synthèse
Présentation de l'exercice 8 :
Gérer les groupes de disques ASM
Dans cet exercice, vous allez :
• configurer des groupes de disques
• ajouter et supprimer des disques
• contrôler les opérations de rééquilibrage
• surveiller les statistiques d'E/S relatives aux disques et aux
groupes de disques
Objectifs
Clients ASM
>
ftp >
t p :// SQL
ht
Référentiel XML DB SQL
DBMS_FILE_TRANSFER
ACFS
>
CMD
ASM
>
SQL ASMCMD
SQL ASM
Clients ASM
Oracle 11g ASM est un gestionnaire de volumes et un système de fichiers pour les bases de
données Oracle. La diapositive ci-dessus présente les différents clients ASM. Certains d'entre
eux seront décrits en détail plus loin dans ce chapitre. Les clients qui se connectent
directement à ASM sont les suivants :
• Base de données Oracle : Il s'agit du principal type de client ASM. Il transmet des
demandes à ASM pour de nombreux types d'activités telles que la création de fichiers
ASM.
• ASM Cluster File System : Il appartient à ASM de fournir les volumes ASM.
• ASM Clusterware : Si le registre 1%4
1TCENG%NWUVGT4GIKUVT[, les fichiers votants ou
les fichiers ASM FGRCTCOÂVTGU UGTXGWT
52(+.'sont stockés dans un groupe de disques
ASM, l'instance ASM est son propre client.
• ASMCA : Le gestionnaire de configuration ASM est une interface graphique qui permet
de gérer les instances ASM, les groupes de disques et les volumes.
• Enterprise Manager : Ce client permet de gérer et de surveiller l'instance ASM,
directement ou indirectement via la base de données.
• Oracle Clusterware : Oracle Clusterware utilise ASM pour stocker le registre OCR et
les fichiers du disque votant par défaut.
• Clients SQL (tels que SQL*Plus) : Le client ASM le plus élémentaire est constitué par
une suite de commandes SQL propres à ASM (telles que CREATE DISKGROUP).
• ASMCMD : L'interface de ligne de commande ASM est utilisée pour interroger et gérer
ASM. Elle comprend de nombreuses commandes de type UNIX qui peuvent être utilisées
pour gérer les fichiers et les répertoires dans un système ASM.
Allocation
Initialiser
3 Topographie extents
5 Valider
Stockage ASM
Types
de fichier
Fichiers
• Exemples :
+DATA/ORA11G/DATAFILE/SYSTEM.262.676172197
+DATA/ORA11G/PARAMETERFILE/spfile.268.676172697
+DATA/ORA11G/CONTROLFILE/Current.257.676172363
+DATA/ORA11G/ONLINELOG/group_1.256.676172371
+FRA/ORA11G/CONTROLFILE/Backup.275.676172942
• Nom numérique
Format : <+group>.<file>.<incarnation>
Exemple : +DATA.262.676172197
• Alias
Format : <+group>/<alias>
Exemple : +DATA/my_dir/my_other_dir/my_file_name.dbf
• Nom incomplet
Format : <+group>
• Alias
SQL> ALTER TABLESPACE myspace ADD
2 DATAFILE '+DATA/mydir/myspace02.dbf' SIZE 50M;
• Nom incomplet
SQL> ALTER TABLESPACE myspace ADD
2 DATAFILE '+DATA' SIZE 50M;
+DATA/ORA11G/ONLINELOG/group_5.269.699798885
+FRA/ORA11G/ONLINELOG/group_5.256.699799169
FULL_PATH S A FILE_TYPE
------------------------------------------------------- - - --------------
--
+DATA/cluster03 Y Y
+DATA/cluster03/ASMPARAMETERFILE Y Y
+DATA/cluster03/ASMPARAMETERFILE/REGISTRY.253.692923731 Y N
ASMPARAMETERFILE
+DATA/cluster03/OCRFILE Y Y
+DATA/cluster03/OCRFILE/REGISTRY.255.692923735 Y N OCRFILE
+DATA/RACDB Y Y
+DATA/RACDB/DATAFILE Y Y
+DATA/RACDB/DATAFILE/UNDOTBS1.258.692926341 Y N DATAFILE
+DATA/RACDB/DATAFILE/EXAMPLE.264.692926563 Y N DATAFILE
+DATA/RACDB/DATAFILE/UNDOTBS2.265.692926841 Y N DATAFILE
+DATA/RACDB/DATAFILE/USERS.259.692926341 Y N DATAFILE
+DATA/RACDB/DATAFILE/SYSTEM.256.692926339 Y N DATAFILE
+DATA/RACDB/DATAFILE/SYSAUX.257.692926339 Y N DATAFILE
+DATA/RACDB/CONTROLFILE Y Y
+DATA/RACDB/CONTROLFILE/Current.260.692926519 Y N CONTROLFILE
+DATA/RACDB/ONLINELOG Y Y
+DATA/RACDB/ONLINELOG/group_1.261.692926525 Y N ONLINELOG
+DATA/RACDB/ONLINELOG/group_2.262.692926529 Y N ONLINELOG
+DATA/RACDB/ONLINELOG/group_4.267.692926921 Y N ONLINELOG
+DATA/RACDB/ONLINELOG/group_3.266.692926919 Y N ONLINELOG
+DATA/RACDB/TEMPFILE Y Y
+DATA/RACDB/TEMPFILE/TEMP.263.692926547 Y N TEMPFILE
+DATA/RACDB/PARAMETERFILE Y Y
+DATA/RACDB/PARAMETERFILE/spfile.268.692926927 Y N PARAMETERFILE
+DATA/RACDB/spfileracdb.ora N N PARAMETERFILE
25 rows selected.
Répertoires ASM
• Les groupes de disques ASM contiennent une structure de
répertoires hiérarchique générée par le système pour le
stockage des fichiers ASM.
Groupes de disques
Bases de données
Fichiers
Répertoires ASM
Les groupes de disques ASM contiennent une structure de répertoires hiérarchique générée
par le système pour le stockage des fichiers ASM. Le nom généré par le système qu'ASM
affecte à chaque fichier représente un chemin dans cette hiérarchie. Voici un exemple de nom
de fichier généré par le système :
+DATA/racdb/DATAFILE/SYSTEM.262.676172197
Le signe plus représente l'utilisateur root du système de fichiers ASM. Le répertoire DATA est
le répertoire parent de tous les fichiers du groupe de disques DATA. Le répertoire racdb est
le répertoire parent de tous les fichiers de la base de données racdb, et le répertoire
DATAFILE contient tous les fichiers de données de la base racdb.
Vous pouvez définir vos propres répertoires dans cette hiérarchie pour stocker les alias que
vous créez. Ainsi, vous pouvez disposer d'alias conviviaux pour les fichiers ASM, mais aussi
de chemins conviviaux pour ces noms. Par exemple, le répertoire défini par l'utilisateur qui
suit peut être utilisé pour stocker un ensemble d'alias de fichier :
+DATA/racdb/my_directory
Les répertoires définis par l'utilisateur peuvent être créés à n'importe quel niveau sous les
répertoires des groupes de disques. Autrement dit, ils ne peuvent pas être créés au niveau
racine (+).
Exemples :
SQL> ALTER DISKGROUP DATA ADD DIRECTORY '+DATA/mydir';
Vous pouvez aussi exécuter toutes ces opérations depuis Enterprise Manager.
Exemples :
SQL> ALTER DISKGROUP DATA ADD ALIAS '+DATA/mydir/system.dbf'
2 FOR '+DATA/sample/datafile/system.262.676172197';
Affecter des fichiers à une zone d'un disque avec Enterprise Manager
Un fichier ASM peut être affecté à une zone de disque via Enterprise Manager. Dans la page
Edit File, vous pouvez indiquer si les extents principaux et les extents miroir sont affectés à la
zone externe (Hot) ou interne (Cold). Pour un fichier de journalisation en ligne, qui nécessite
des écritures fréquentes, il est recommandé de sélectionner l'option Hot pour les extents
primaires et les extents miroir. Dans l'exemple de la diapositive, c'est l'option Cold qui est
sélectionnée.
Exemples :
SQL> ALTER DISKGROUP DATA ADD TEMPLATE unprot ATTRIBUTES (UNPROTECTED);
SQL> ALTER DISKGROUP DATA ADD TEMPLATE reliable ATTRIBUTES (HIGH FINE);
Dans ASMCMD, l'utilisateur peut se connecter en utilisant l'option –a pour définir des
privilèges, SYSASM ou SYSDBA, mais l'utilisateur du système d'exploitation appelant la
commande doit être membre du groupe du système d'exploitation ayant ce privilège. L'option
par défaut est SYSASM. Pour vous connecter avec le privilège SYSDBA, utilisez la syntaxe
suivante :
asmcmd –a SYSDBA
Gérer les listes de contrôle d'accès ASM avec Enterprise Manager (suite)
Dans la page Edit File, il est possible de modifier les autorisations et le propriétaire d'un
fichier ASM, sauf si celui-ci est ouvert.
Quiz
Réponse : 2
Il est possible de sauvegarder une base de données Oracle en utilisant un sous-programme
PL/SQL personnalisé avec DBMS_FILE_TRANSFER, ou en utilisant un référentiel XML
DB. En revanche, RMAN est la méthode recommandée pour sauvegarder les bases de
données Oracle qui résident dans ASM. RMAN est très bien intégré à l'instance ASM et
fournit aux administrateurs de nombreuses fonctionnalités avancées de sauvegarde et de
restauration.
Quiz
Réponses : 1, 2
L'option trois n'est pas une bonne réponse car les alias ne sont pas admis pour certains fichiers
ASM.
Synthèse
ASM
Objectifs
utilisateur
Instance ASM
Système Systèmes de
de fichiers fichiers ou
clusterisé applications
Vue du système basées sur
ASM
d'exploitation des disques
mkfs, mount,…
Volume dynamique
ASM (unité de blocs)
/dev/asm/volname-id
Disque ASM
Fichier
de volume
Vue d'ASM
Groupes de disques ASM ASM
Processus ADVM
Disque ASM
Processus ADVM
Quelques processus sont ajoutés à l'instance ASM lorsqu'un volume est activé. Ces processus
ne sont pas lancés lorsqu'il n'existe aucun volume configuré.
• Le processus VDBG (Volume Driver Background) transmet au pilote ADVM (ASM
Dynamic Volume Manager) les demandes ASM de verrouillage ou déverrouillage en vue
d'un rééquilibrage, d'un redimensionnement de volume, d'une mise hors ligne de disque,
d'un ajout ou d'une suppression de disque, ou d'un démontage forcé de groupe de disques.
VDBG est un processus en arrière-plan fatal. Un arrêt non planifié de ce processus
entraîne l'arrêt de l'instance ASM.
• Les processus VBGn (Volume Background) attendent les demandes provenant du
gestionnaire de volumes dynamiques qui doivent être coordonnées avec l'instance ASM.
Un exemple d'une telle demande est l'ouverture ou la fermeture d'un fichier de volume
ASM lorsque le gestionnaire de volumes dynamiques est averti de l'ouverture d'un
volume (éventuellement suite à une demande de montage du système de fichiers) ou de la
fermeture d'un volume ouvert (éventuellement suite à une demande de démontage du
système de fichiers). La mort non planifiée de l'un de ces processus n'a aucun effet sur
l'instance ASM.
• Le processus VMB (Volume Membership Background) assure la coordination entre les
membres du cluster et l'instance ASM.
Exemple :
• La colonne de stripe est 8, la largeur de stripe est de 16 Ko.
• Les 200 premiers Ko d'un fichier du système de fichiers sont
écrits sous la forme de 13 morceaux de 16 Ko entre huit
unités d'allocation.
Exemple :
• Groupe de 8 disques avec redondance externe
• Unités d'allocation de 1 Mo (taille par défaut)
• Un autre fichier ACFS de 90 Ko est écrit sous forme de six
morceaux de 16 Ko entre les huit mêmes unités d'allocation.
Créez le volume :
$ asmcmd volcreate -d DATA -s 100M testvol
Consultez les informations sur le volume :
$ asmcmd volinfo –d DATA testvol
Définissez un répertoire de points de montage :
$ mkdir /u01/app/oracle/acfsdata/testvol
Etendre ASMCMD
pour les volumes dynamiques
Syntaxe de commande :
asmcmd volcreate dgname volname -s size
[-r redundancy][-w stripe_width]
[-c stripe_columns] [-p [hot|cold]]
[-i [hot|cold]]
asmcmd volresize dgname volname -s newsize [-f]
asmcmd voldelete dgname volname
Extensions Linux/UNIX
• Créer un système de fichiers ACFS :
mkfs [-vf] -t acfs [-b blksz] [-n name ] device [blocks]
$ mkfs -t acfs /dev/asm/vol1-nnn
• Monter un système de fichiers ACFS :
mount [-v] -t acfs [-o options] device dir
$ mount -t acfs /dev/asm/vol1-nnn \
Extensions Linux/UNIX
Les commandes d'administration étendent les commandes standard à l'aide d'options pour
gérer les différences entre ACFS et les autres systèmes de fichiers. La plupart de ces
extensions utilisent les paramètres courants propres au système de fichiers.
Les exemples de la diapositive montrent la syntaxe la plus courante. Chaque commande doit
être saisie sur une ligne. Le fichier d'unité est /dev/asm/volume-nnn, le nom de volume
étant complété par un identificateur de groupe de disques correspondant à –nnn dans la
diapositive ci-dessus.
Remarque : La barre oblique inverse indiquée pour la commande MOUNT dans l'exemple
ci-dessus est un caractère de suite, qui sert seulement à la mise en forme.
Clichés ACFS
Clichés ACFS :
• Ils utilisent l'espace de façon efficace. Ils peuvent contenir
différents éléments :
– Métadonnées
– Versions d'origine des blocs modifiés
– Fichiers dispersés
Clichés ACFS
Un cliché (snapshot) Oracle ACFS est une image instantanée en ligne d'un système de fichiers
Oracle ACFS, accessible en lecture seule. Initialement, un cliché référence seulement les
informations d'allocation d'espace de stockage gérées par le système de fichiers. Avant la
modification ou la suppression d'un extent de fichier Oracle ACFS, la valeur en cours de
celui-ci est copiée dans le cliché via la fonction copy-on-write (copie uniquement s'il y a
modification).
Les clichés ACFS fournissent une méthode économique pour conserver l'état d'un volume à
un point dans le temps. Lorsqu'un cliché est créé, un ensemble de métadonnées concernant le
volume est créé sur celui-ci. Les métadonnées contiennent la structure de répertoires et les
noms de tous les fichiers. Le cliché est constitué de pointeurs désignant les blocs du volume
qui n'ont pas changé depuis sa création, et des blocs eux-mêmes si le fichier a changé. Une
fois le cliché créé, la version d'origine des blocs de données y est écrite à mesure que les
fichiers changent. Les clichés vous permettent de récupérer les fichiers supprimés, de rétablir
un fichier tel qu'il se présentait au moment du cliché, et de sauvegarder un jeu de fichiers
cohérent.
Vous pouvez afficher les noms des clichés avec la commande du système d'exploitation :
ls /u01/app/oracle/acfsdata/testvol/.ACFS/snaps
Afficher un cliché
Afficher un cliché
Avec Enterprise Manager, vous pouvez afficher le contenu d'un cliché et rechercher des
fichiers ou des répertoires. L'exemple affiche le répertoire orahome sous snapshot_3.
Sauvegardes ACFS
Sauvegardes ACFS
Les systèmes de fichiers ACFS sont compatibles avec différentes solutions de sauvegarde et
de restauration. Oracle Secure Backup et les autres outils de sauvegarde de niveau entreprise
permettent d'effectuer des sauvegardes complètes et incrémentielles des systèmes de fichiers
en lisant les fichiers correspondants à l'aide d'une interface native du système d'exploitation et
en enregistrant les résultats sur un support de stockage (bande, disque). Si le système de
fichiers est actif, les résultats de la sauvegarde reflètent la nature dynamique des
modifications de fichier dans le système de fichiers. Les clichés d'un système de fichiers
ACFS peuvent être utilisés pour fournir une vue instantanée stable aux outils de sauvegarde.
Si le sous-système de stockage prend en charge les domaines atomiques de copie, par exemple
Netapp ou EMC, un administrateur système peut utiliser un cliché d'unité de stockage pour
sauvegarder les systèmes de fichiers ACFS.
Performances ACFS
Performances ACFS
Les schémas ACFS d'allocation du stockage et d'accès tirent parti de la distribution et de
l'équilibrage des segments de fichiers ASM entre les disques ASM d'un groupe. L'allocation
de l'espace de stockage ACFS distribue les extents de fichiers ACFS entre les segments de
fichier ASM pour une distribution plus importante des données et un meilleur parallélisme des
E/S. Les techniques ACFS de mise en cache des utilisateurs et des métadonnées prennent en
charge différents modèles d'E/S provenant d'applications autres que des bases de données
avec des taux élevés de succès en mémoire cache. Cela permet un trafic d'E/S réduit au niveau
du fichier ASM sous-jacent et des mises à jour différées des données modifiées dans le cache.
Les journaux de transactions ACFS sont d'abord mis à jour dans la mémoire. Le transfert réel
des informations de journalisation et des données est effectué en différé via des mises à jour
périodiques du fichier ASM associé.
Vues ACFS
Vues ACFS
Les informations et la disponibilité des vues dynamiques des performances d'ASM varient
selon l'instance qui interroge la vue. Pour ACFS, ces vues ne sont accessibles qu'à partir de
l'instance ASM.
La vue V$ASM_FILESYSTEM contient une ligne pour chaque système de fichiers monté.
Elle inclut l'utilisation de l'espace, et l'utilisation de l'espace par les clichés.
La vue V$ASM_ACFSVOLUMES contient une ligne pour chaque fichier d'unité ACFS qui est
membre d'un système de fichiers ACFS monté.
Des informations similaires peuvent être obtenues à l'aide de la commande ASMCMD
volinfo. Le résultat de la commande volinfo inclut les volumes non montés. En revanche,
les informations sur l'utilisation de l'espace ne sont pas fournies par la commande volinfo.
La commande acfsutil info fs fournit des informations détaillées sur chaque système de
fichiers monté, notamment l'utilisation de l'espace, l'espace utilisé par les clichés, le nom de
volume et la configuration de striping. La commande acfsutil est disponible pour
l'utilisateur root ou administrator.
Quiz
Réponse : 2
D'autres systèmes de fichiers peuvent être créés sur les volumes ADVM, mais ils ne sont pas
des systèmes de fichiers clusterisés simplement parce qu'ils sont sur un volume ADVM.
Synthèse
Présentation de l'exercice 10 :
Gérer ACFS
Dans cet exercice, vous allez :
• gérer un système de fichiers ACFS
– création
– enregistrement
– montage
• gérer les clichés ACFS
Annexe A
Exercices et solutions
Dans cet exercice, vous explorerez l'environnement de cluster que vous serez amené à
installer et à gérer dans le cadre du cours.
1) Dans un cluster Oracle, il existe des informations qui sont importantes pour une
installation réussie. Plusieurs sont spécifiques de chaque cluster. Pour que ce document
soit suffisamment générique pour pouvoir être utilisé par tous les participants tout en étant
assez spécifique pour permettre à chacun de réussir son installation, un fichier
d'environnement nommé /home/oracle/labs/st_env.sh a été créé. Ce fichier
contient les informations propres à votre cluster. Notez qu'il ne s'agit pas d'un script fourni
avec le logiciel Oracle. Il a été développé spécialement pour ce cours.
2) Ouvrez une session VNC en tant qu'utilisateur du système d'exploitation Oracle sur le
premier noeud. (Le formateur vous indiquera le nom à utiliser). Cliquez sur l'icône VNC
export ST_DB1_NAME=orcl
export ST_DB1_INSTANCE1=orcl1
export ST_DB1_INSTANCE2=orcl2
export ST_DB1_INSTANCE3=orcl3
export
ST_DB1_HOME=/u01/app/oracle/acfsmount/11.2.0/sharedhome/dbhome_1
# Database 2 definitions (standby, rcat for example)
export ST_DB2_NAME=orcl
export ST_DB2_INSTANCE1=orcl1
export ST_DB2_INSTANCE2=orcl2
export ST_DB2_INSTANCE3=orcl3
export ST_DB2_HOME=/u01/app/oracle/product/11.2.0/dbhome_1
# Database 3 definitions
5) L'environnement de cette classe peut varier. Les noms de noeuds seront différents pour
chaque cluster et pour chaque configuration générée dans le cadre du cours. Recherchez
les valeurs correspondant à votre cluster et notez-les.
Remarque : Les variables d'environnement créées pour le cours commencent par ST_ et
portent le préfixe $. Par exemple, la variable ST_NODE1 est référencée par $ST_NODE1.
a) Définissez les variables d'environnement du fichier st_env.sh pour votre session de
terminal. Pour définir les variables d'une session à partir d'un script, vous devez faire
en sorte que ce dernier s'exécute dans le même shell. Cette opération est effectuée à
l'aide de la commande "." comme indiqué dans l'exemple ci-après.
$ . /home/oracle/labs/st_env.sh
9) Vérifiez que les variables d'environnement du cluster ont été définies dans votre
environnement. Utilisez la commande env | grep ST_.
Dans cet exercice, vous allez effectuer les tâches prérequises pour installer correctement
Oracle Grid Infrastructure. Vous configurerez ASMLib pour gérer les disques partagés et,
pour finir, vous installerez Oracle Grid Infrastructure 11.2 et vérifierez le résultat. En outre,
vous créerez des groupes de disques ASM et un système de fichiers ACFS via ASMCA.
$ su -
Password: oracle << Le mot de passe n'est pas affiché
# . /home/oracle/labs/st_env.sh
# /home/oracle/labs/less_02/usrgrp.sh
Creating mailbox file: File exists
Changing password for user grid.
passwd: all authentication tokens updated successfully.
2) En tant qu'utilisateur root, créez les répertoires de base oracle et grid. Exécutez
cette étape sur vos trois noeuds.
# mkdir -p /u01/app/grid
# chown -R grid:oinstall /u01/app
# chmod -R 775 /u01/app/grid
# mkdir -p /u01/app/oracle
# chown -R oracle:oinstall /u01/app/oracle
4) En tant qu'utilisateur root, lancez le démon du cache local de résolution de noms sur les
trois noeuds à l'aide de la commande service ncsd start. Exécutez cette étape sur
vos trois noeuds.
[root]# service nscd start
Starting nscd: [ OK ]
# ssh $ST_NODE2 service nscd start
root's password: oracle << Le mot de passe n'est pas affiché
Starting nscd: [ OK ]
[root]# ssh $ST_NODE3 service nscd start
PATH=$PATH:$HOME/bin
export PATH
umask 022
# cat /home/oracle/labs/less_02/profile
# /etc/profile
pathmunge () {
if ! echo $PATH | /bin/egrep -q "(^|:)$1($|:)" ; then
if [ "$2" = "after" ] ; then
PATH=$PATH:$1
else
PATH=$1:$PATH
fi
fi
# ksh workaround
if [ -z "$EUID" -a -x /usr/bin/id ]; then
EUID=`id -u`
UID=`id -ru`
fi
# Path manipulation
if [ "$EUID" = "0" ]; then
pathmunge /sbin
pathmunge /usr/sbin
if [ -x /usr/bin/id ]; then
USER="`id -un`"
LOGNAME=$USER
MAIL="/var/spool/mail/$USER"
fi
HOSTNAME=`/bin/hostname`
HISTSIZE=1000
for i in /etc/profile.d/*.sh ; do
if [ -r "$i" ]; then
. $i
fi
done
unset i
unset pathmunge
# cat /home/oracle/labs/less_02/limits.conf
#* soft core 0
#* hard rss 10000
# cat /home/oracle/labs/less_02/limits.sh
cp /home/oracle/labs/less_02/profile /etc/profile
cp /home/oracle/labs/less_02/bash_profile
/home/oracle/.bash_profile
cp /home/oracle/labs/less_02/bash_profile
/home/grid/.bash_profile
cp /home/oracle/labs/less_02/limits.conf
/etc/security/limits.conf
7) (Sur le premier noeud uniquement) Créez les disques ASM requis pour les exercices.
Le script /home/oracle/labs/less_02/createdisk.sh fourni effectue cette
opération. Examinez le script, puis exécutez-le en tant qu'utilisateur root. Exécutez cette
étape sur le premier noeud uniquement.
# cat /home/oracle/labs/less_02/createdisk.sh
oracleasm init
oracleasm createdisk ASMDISK01 /dev/sda1
oracleasm createdisk ASMDISK02 /dev/sda2
oracleasm createdisk ASMDISK03 /dev/sda3
oracleasm createdisk ASMDISK04 /dev/sda5
oracleasm createdisk ASMDISK05 /dev/sda6
oracleasm createdisk ASMDISK06 /dev/sda7
oracleasm createdisk ASMDISK07 /dev/sda8
oracleasm createdisk ASMDISK08 /dev/sda9
oracleasm createdisk ASMDISK09 /dev/sda10
oracleasm createdisk ASMDISK10 /dev/sda11
oracleasm createdisk ASMDISK11 /dev/sdb1
# /home/oracle/labs/less_02/createdisk.sh
Creating /dev/oracleasm mount point: /dev/oracleasm
Loading module "oracleasm": oracleasm
Mounting ASMlib driver filesystem: /dev/oracleasm
Writing disk header: done
Instantiating disk: done
Writing disk header: done
Instantiating disk: done
Writing disk header: done
Instantiating disk: done
Writing disk header: done
Instantiating disk: done
Writing disk header: done
Instantiating disk: done
Writing disk header: done
Instantiating disk: done
Writing disk header: done
Instantiating disk: done
Writing disk header: done
Instantiating disk: done
Writing disk header: done
Instantiating disk: done
Writing disk header: done
Instantiating disk: done
Writing disk header: done
Instantiating disk: done
Writing disk header: done
Instantiating disk: done
Writing disk header: done
Instantiating disk: done
Writing disk header: done
Instantiating disk: done
8) En tant qu'utilisateur root, balayez les disques pour vérifier qu'ils sont disponibles à
l'aide de la commande oracleasm scandisks. Exécutez une commande
oracleasm listdisks pour vous assurer que tous les disques sont configurés.
Exécutez cette étape sur vos trois noeuds.
# oracleasm exit
# oracleasm init
Creating /dev/oracleasm mount point: /dev/oracleasm
Loading module "oracleasm": oracleasm
Mounting ASMlib driver filesystem: /dev/oracleasm
# oracleasm listdisks
ASMDISK01
ASMDISK02
ASMDISK03
ASMDISK04
ASMDISK05
ASMDISK06
ASMDISK07
ASMDISK08
ASMDISK09
ASMDISK10
ASMDISK12
ASMDISK13
ASMDISK14
[grid]$ . /home/oracle/labs/st_env.sh
[grid]$ echo $ST_GNS_NAME
cluster01-gns.example.com
Name: cluster01-gns.example.com
Address: 192.0.2.155
b) Pour démarrer une session VNC, cliquez sur l'icône VNC sur le bureau, puis
connectez-vous à la session de l'utilisateur grid. Pour l'exemple qui précède, vous
écririez host01:3. Ouvrez une fenêtre de terminal, accédez au répertoire
intermédiaire indiqué par le formateur et lancez OUI en exécutant la commande
runInstaller à partir du répertoire $ST_SOFTWARE_STAGE_GRID.
[grid]$ ./runInstaller
c) Dans la page Select Installation Option, sélectionnez l'option "Install and Configure
Grid Infrastructure for for a Cluster" et cliquez sur Next.
d) Dans la page Select Installation Type, sélectionnez Advanced Installation et cliquez
sur Next.
e) Dans la page Product Langages, sélectionnez toutes les langues et cliquez sur Next.
f) La page "Grid Plug and Play Information" apparaît. Vérifiez que la case Configure
GNS est sélectionnée. Entrez les données appropriées avec soin. N'IMPROVISEZ
PAS. Si vous n'êtes pas certain d'une valeur, DEMANDEZ CONFIRMATION A
VOTRE FORMATEUR. Vous devez compléter les champs suivants :
• Cluster Name
• SCAN Name
• SCAN Port
• GNS Subdomain
• GNS Address
Les valeurs indiquées ci-après sont basées sur les données des exemples présentés
précédemment. Pour poursuivre l'exemple, affectez les valeurs suivantes :
• Cluster Name: cluster01 (Votre valeur sera différente. Utilisez le
nom noté à l'étape 6 de l'exercice 1.)
• SCAN Name: cluster01-scan.cluster01.example.com
(Votre valeur sera différente.)
• SCAN Port: 1521 (DEFAULT)
• GNS Sub Domain: cluster01.example.com
(Votre valeur sera différente. Le sous-domaine est
\$ST_CLUSTER_NAME.$ST_NODE_DOMAIN.)
l) Sélectionnez l'option "Do not use Intelligent Platform Management Interface (IPMI)"
dans la page Failure Isolation et cliquez sur Next pour continuer.
m) Dans la page Privileged Operating System Groups, sélectionnez "asmdba" pour le
groupe ASM Database Administrator (OSDBA), "asmoper" pour le groupe ASM
Instance Administration Operator (ASMOPER), et "asmadmin" pour le groupe ASM
Instance Administrator (OSASM). Cliquez sur Next pour continuer.
n) Dans la page Specify Installation Location, assurez-vous qu'Oracle Base est
/u01/app/grid et que Software Location est /u01/app/11.2.0/grid.
Cliquez sur Next.
o) Dans la page Create Inventory, le champ Inventory Directory doit contenir
/u01/app/oraInventory, et le champ oraInventory Group Name, oinstall.
fs.file-max = 327679
fs.file-max = 6815744
net.ipv4.ip_local_port_range = 9000 65500
net.core.wmem_max = 262144
net.core.wmem_max = 1048576
[root]# exit
logout
[grid]$ exit
q) Cliquez sur Finish dans l'écran Summary. Dans cet écran, vous pouvez surveiller la
progression de l'installation.
r) Lorsque les opérations à distance sont terminées, la fenêtre Execute Configuration
Scripts apparaît. Vous êtes invité à exécuter les scripts orainstRoot.sh et root.sh
# . /home/oracle/labs/st_env.sh
# /u01/app/oraInventory/orainstRoot.sh
Changing permissions of /u01/app/oraInventory.
Adding read,write permissions for group.
Removing read,write,execute permissions for world.
# /u01/app/11.2.0/grid/root.sh
Running Oracle 11g root.sh script...
Checking swap space: must be greater than 500 MB. Actual 3007
MB Passed
The inventory pointer is located at /etc/oraInst.loc
The inventory is located at /u01/app/oraInventory
'UpdateNodeList' was successful.
#
Checking swap space: must be greater than 500 MB. Actual 3007
MB Passed
The inventory pointer is located at /etc/oraInst.loc
The inventory is located at /u01/app/oraInventory
'UpdateNodeList' was successful.
#
s) Une fois les scripts exécutés sur les deux noeuds, cliquez sur le bouton OK pour
fermer la boîte de dialogue. Les assistants de configuration continuent à s'exécuter à
partir de la page Setup.
t) Lorsque les assistants ont terminé, cliquez sur le bouton Close dans la page Finish
pour quitter l'installeur.
2) Une fois l'installation terminée, vous devez vérifier l'installation. Vous devez vous assurer
que la pile logicielle fonctionne comme il faut. Exécutez la commande crsctl stat
res –t :
[grid]$ /u01/app/11.2.0/grid/bin/crsctl stat res –t
--------------------------------------------------------------
ora.host01.vip
1 ONLINE ONLINE host01
ora.host02.vip
1 ONLINE ONLINE host02
ora.oc4j
1 OFFLINE OFFLINE
ora.scan1.vip
1 ONLINE ONLINE host02
ora.scan2.vip
1 ONLINE ONLINE host01
ora.scan3.vip
1 ONLINE ONLINE host01
The inventory is located at /u01/app/oraInventory
;; QUESTION SECTION:
;cluster01-scan.cluster01.example.com. IN A
;; ANSWER SECTION:
cluster01-scan.cluster01.example.com. 120 IN A 192.0.2.231
cluster01-scan.cluster01.example.com. 120 IN A 192.0.2.229
cluster01-scan.cluster01.example.com. 120 IN A 192.0.2.232
;; AUTHORITY SECTION:
cluster01-gns-vip.cluster01.example.com. 10800 IN NS cluster01-
gns-vip.cluster01.example.com.
;; ADDITIONAL SECTION:
cluster01-gns-vip.cluster01.example.com. 10800 IN A 192.0.2.155
4) Utilisez la commande dig pour vérifier que le serveur de noms retransmet correctement
les demandes d'adresse du sous-domaine du cluster au service GNS en vue de leur
résolution.
# cat /etc/resolv.conf
domain example.com
nameserver 10.216.104.27
search example.com
;; QUESTION SECTION:
; cluster01-scan.cluster01.example.com. IN A
;; ANSWER SECTION:
cluster01-scan.cluster01.example.com. 120 IN A
10.196.180.214
cluster01-scan.cluster01.example.com. 120 IN A
10.196.180.233
cluster01-scan.cluster01.example.com. 120 IN A
10.196.182.230
;; AUTHORITY SECTION:
cluster01.example.com. 86400 IN NS cluster01-
gns.example.com.
;; ADDITIONAL SECTION:
cluster01-gns.example.com. 86400 IN A 10.196.183.12
Dans cet exercice, vous allez créer des groupes de disques ASM supplémentaires pour
prendre en charge les activités de la suite du cours. Vous allez créer un groupe de disques
pour les systèmes de fichiers ACFS et un autre groupe pour la zone de récupération rapide
(FRA).
1) Dans une session VNC pour l'utilisateur grid, ouvrez une fenêtre de terminal en tant
qu'utilisateur grid, puis définissez l'instance +ASM1 comme environnement oracle avec
l'outil oraenv.
[grid]$ . oraenv
ORACLE_SID = [grid] ? +ASM1
The Oracle base for ORACLE_HOME=/u01/app/11.2.0/grid is
/u01/app/grid
3) Créez un groupe de disques nommé ACFS avec quatre disques et une redondance externe
– sélectionnez les disques ASMDISK05 à ASMDISK08. Définissez la compatibilité
ADVM des attributs du groupe avec la valeur 11.2.0.0 .0.
Etape Description de l'écran/la page Options ou valeurs
a. Configure ASM :DiskGroups Cliquez sur Create.
b. Create DiskGroup Entrez :
Disk Group Name: ACFS
Dans la section Redundancy, sélectionnez
"External (None)".
Dans la section Select Member Disk,
sélectionnez :
ASMDISK05
ASMDISK06
ASMDISK07
ASMDISK08
Cliquez sur Show Advanced Options.
Dans la section Disk Group Attributes,
définissez la compatibilité ADVM avec la
valeur 11.2.0.0.0.
Cliquez sur OK.
c. Disk Group:Creation Cliquez sur OK.
4) A l'aide de ASMCMD, créez un groupe de disques nommé FRA comprenant les disques
ASMDISK09 à ASMDISK11 avec redondance externe. Utilisez la commande ci-après.
asmcmd mkdg FRA_dg_config.xml
Examinez le fichier FRA_dg_config.xml, puis exécutez la commande.
[grid]$ cat /home/oracle/labs/less_02/FRA_dg_config.xml
<dg name="FRA" redundancy="external">
<dsk> <dsk string="/dev/oracleasm/disk/ASMDISK09"/> </dsk>
<dsk> <dsk string="/dev/oracleasm/disk/ASMDISK10"/> </dsk>
<dsk> <dsk string="/dev/oracleasm/disk/ASMDISK11"/> </dsk>
<a name="compatible.asm" value="11.2"/>
<a name="compatible.rdbms" value="11.2"/>
Dans cet exercice, vous allez créer un volume ASM qui sera utilisé comme répertoire
ORACLE_HOME partagé pour une base de données servant de référentiel Enterprise
Manager. Créez ce volume dans le groupe de disques nommé ACFS. Le nom de volume est
DBHOME_1, et le point de montage est
/u01/app/oracle/acfsmount/11.2.0/sharedhome.
1) Démarrez ASM Configuration Assistant (ASMCA).
$ asmca
2) Dans le groupe de disques ACFS, créez un volume ASM nommé DBHOME_1 d'une taille
de 6 Go.
Etape Description de l'écran/la page Options ou valeurs
3) Ouvrez une fenêtre de terminal et devenez l'utilisateur root, avec le mot de passe
oracle. Créez le répertoire de points de montage
/u01/app/oracle/acfsmount/11.2.0/sharedhome.
Effectuez ces opérations sur les trois noeuds.
$ su – root
Password: oracle << Le mot de passe n'est pas affiché
[root]# mkdir -p /u01/app/oracle/acfsmount/11.2.0/sharedhome
[root]# . /home/oracle/labs/st_env.sh
Dans cet exercice, vous démarrez l'installation automatique d'une base de données Oracle
RAC qui sera utilisée dans ce cours pour activer Enterprise Manager Database Control.
1) Dans une session VNC pour l'utilisateur oracle (host01 : 1). Définissez l'équivalence
ssh pour l'utilisateur oracle entre les deux noeuds du cluster. Sur l'un d'eux, ouvrez une
fenêtre de terminal en tant qu'utilisateur oracle. Nommez l'autre à la place de
remote_host dans l'exemple.
[oracle]$ cd /home/oracle/labs/silent_inst
[oracle]$ ./ssh_setup.sh
oracle@host02's password: oracle << Le mot de passe n'est pas
affiché
Warning: Permanently added 'gr7213,10.196.180.13' (RSA) to the
2) Vérifiez que l'utilisateur oracle de la session est membre des groupes requis. Les
groupes requis sont les suivants : dba, oinstall, oper et asmdba. Si les groupes
n'apparaissent pas, utilisez la commande su – oracle pour les réinitialiser.
Remarque : Les groupes sont uniquement initialisés pour cette fenêtre de terminal.
$ id
uid=501(oracle) gid=502(oinstall) groups=501(dba),502(oinstall)
[oracle]$ su - oracle
Password: oracle <<Le mot de passe n'est pas affiché
[oracle@gr7212 ~]$ id
uid=501(oracle) gid=502(oinstall)
groups=501(dba),502(oinstall),503(oper),505(asmdba)
6) Exécutez le script root.sh sur les deux noeuds pour terminer l'installation.
-- Sur le premier noeud
# /u01/app/oracle/acfsmount/11.2.0/sharedhome/dbhome_1/root.sh
Check
/u01/app/oracle/acfsmount/11.2.0/sharedhome/dbhome_1/install/root
_host01_2009-09-11_10-35-54.log for the output of root script
#
# /u01/app/oracle/acfsmount/11.2.0/sharedhome/dbhome_1/root.sh
Check
/u01/app/oracle/acfsmount/11.2.0/sharedhome/dbhome_1/install/root
_host02_2009-09-11_10-43-07.log for the output of root script
#
Exercices - Chapitre 3
Dans ces exercices, vous vérifierez, arrêterez et démarrerez Oracle Clusterware. Vous
ajouterez et supprimerez les fichiers de configuration Oracle Clusterware, et sauvegarderez
Oracle Cluster Registry et Oracle Local Registry.
Dans cet exercice, vous vérifiez le statut d'Oracle Clusterware à l'aide des commandes du
système d'exploitation et de l'utilitaire crsctl. Par ailleurs, vous démarrerez et arrêterez
Oracle Clusterware.
1) Connectez-vous au premier noeud du cluster en tant qu'utilisateur grid. Vous pouvez
utiliser le script oraenv pour définir ORACLE_SID, ORACLE_HOME, PATH,
ORACLE_BASE et LD_LIBRARY_PATH pour votre environnement.
$ id
uid=502(grid) gid=501(oinstall)
groups=501(oinstall),504(asmadmin),505(asmdba),506(asmoper)
$ . oraenv
ORACLE_SID = [grid] ? +ASM1
2) En utilisant les commandes du système d'exploitation, vérifiez que les processus des
démons Oracle Clusterware s'exécutent sur le noeud actuel. (Conseil : La plupart des
processus de démon Oracle Clusterware ont des noms qui terminent par d.bin.)
$ pgrep -l d.bin
12895 ohasd.bin
14838 mdnsd.bin
14850 gipcd.bin
14862 gpnpd.bin
14916 ocssd.bin
15062 octssd.bin
15166 oclskd.bin
15181 crsd.bin
15198 evmd.bin
15222 oclskd.bin
15844 gnsd.bin
24709 oclskd.bin
3) A l'aide de l'utilitaire crsctl, vérifiez qu'Oracle Clusterware est en cours d'exécution sur
le noeud actuel.
$ crsctl check crs
CRS-4638: Oracle High Availability Services is online
CRS-4537: Cluster Ready Services is online
CRS-4529: Cluster Synchronization Services is online
CRS-4533: Event Manager is online
4) Vérifiez le statut de toutes les ressources de cluster qui sont gérées par Oracle Clusterware
pour tous les noeuds.
$ crsctl stat res -t
-------------------------------------------------------------
NAME TARGET STATE SERVER STATE_DETAILS
-------------------------------------------------------------
Local Resources
-------------------------------------------------------------
ora.ACFS.dg
ONLINE ONLINE host01
ONLINE ONLINE host02
ora.DATA.dg
ONLINE ONLINE host01
ONLINE ONLINE host02
ora.FRA.dg
ONLINE ONLINE host01
ONLINE ONLINE host02
ora.LISTENER.lsnr
ora.scan1.vip
1 ONLINE ONLINE host02
ora.scan2.vip
1 ONLINE ONLINE host01
ora.scan3.vip
1 ONLINE ONLINE host01
5) Tentez d'arrêter Oracle Clusterware sur le noeud actuel en étant connecté en tant
qu'utilisateur grid. Que se passe-t-il et pourquoi ?
$ crsctl stop crs
CRS-4563: Insufficient user privileges.
CRS-4000: Command Stop failed, or completed with errors.
7) Si l'utilitaire crsctl n'arrête pas Oracle Clusterware, relancez la commande sur le même
noeud.
# /u01/app/11.2.0/grid/bin/crsctl stop crs
CRS-2791: Starting shutdown of Oracle High Availability Services-
managed resources on 'host01'
CRS-2673: Attempting to stop 'ora.crsd' on 'host01'
CRS-2790: Starting shutdown of Cluster Ready Services-managed
resources on 'host01'
CRS-2679: Attempting to clean 'ora.acfs.dbhome1.acfs' on 'host01'
8) Tentez de vérifier le statut d'Oracle Clusterware une fois qu'il est arrêté.
$ crsctl check crs
CRS-4639: Could not contact Oracle High Availability Services
$ . oraenv
ORACLE_SID = [grid] ? +ASM2
The Oracle base for ORACLE_HOME=/u01/app/11.2.0/grid is
/u01/app/grid
$ exit
Connection to host02 closed.
$
11) Redémarrez Oracle Clusterware sur le premier noeud en tant qu'utilisateur root. Revenez
au compte grid et vérifiez les résultats.
Remarque : Vous pouvez être amené à vérifier le statut de toutes les ressources plusieurs
fois jusqu'à ce qu'elles soient toutes redémarrées. Vous savez que tout est terminé lorsque
la ressource ora.orcl.db a la valeur Open pour State Details. Le redémarrage des
ressources peut prendre plusieurs minutes.
$ su -
Password: oracle << Le mot de passe n'est pas affiché
ora.FRA.dg
OFFLINE OFFLINE host01
ONLINE ONLINE host02
ora.LISTENER.lsnr
ONLINE ONLINE host01
ONLINE ONLINE host02
ora.acfs.dbhome1.acfs
ONLINE ONLINE host01
ONLINE ONLINE host02
ora.asm
ONLINE ONLINE host01 Started
ONLINE ONLINE host02
ora.eons
Dans cet exercice, vous allez définir la position actuelle des disques votants et des fichiers
OCR (Oracle Cluster Registry). Vous ajouterez ensuite un autre emplacement OCR et le
supprimerez.
1) Recourez à l'utilitaire crsctl pour déterminer l'emplacement des disques votants
actuellement utilisés par l'installation Oracle Clusterware.
$ crsctl query css votedisk
## STATE File Universal Id File Name Disk
group
-- ----- ----------------- --------- -----
-----
2) Utilisez l'outil ocrcheck pour déterminer l'emplacement des fichiers OCR (Oracle
Clusterware Registry).
$ ocrcheck
Status of Oracle Cluster Registry is as follows :
Version : 3
Total space (kbytes) : 262120
Used space (kbytes) : 3228
Available space (kbytes) : 258892
ID : 1581544792
Device/File Name : +DATA
Device/File integrity check
succeeded
3) Vérifiez que le groupe de disques ASM FRA est actuellement en ligne pour tous les
noeuds à l'aide de l'utilitaire crsctl.
$ crsctl stat res ora.FRA.dg -t
-----------------------------------------------------------
4) Si le groupe de disques ASM FRA n'est pas en ligne, recourez à l'utilitaire asmcmd pour
monter le groupe de disques FRA.
Remarque : Cette étape n'est pas nécessaire si le groupe est déjà en ligne sur chaque
noeud. Vérifiez le résultat. Vous pouvez être amené à exécuter les commandes sur chaque
5) Basculez vers le compte root et ajoutez un deuxième emplacement OCR stocké dans le
groupe de disques ASM FRA. Utilisez la commande ocrcheck pour vérifier les
résultats.
$ su -
Password: oracle << Le mot de passe n'est pas affiché
# /u01/app/11.2.0/grid/bin/ocrcheck
Status of Oracle Cluster Registry is as follows :
Version : 3
Total space (kbytes) : 262120
Used space (kbytes) : 3228
Available space (kbytes) : 258892
ID : 1581544792
Device/File Name : +DATA
Device/File integrity check
succeeded
Device/File Name : +FRA
Device/File integrity check
succeeded
7) Ouvrez une connexion à votre deuxième noeud en tant qu'utilisateur root, puis
supprimez le deuxième fichier OCR qui a été ajouté à partir du premier noeud. Quittez la
connexion à distance et vérifiez les résultats lorsque vous avez terminé.
# . /home/oracle/labs/st_env.sh
# ssh $ST_NODE2
root@host02's password: oracle << Le mot de passe n'est pas
affiché
Last login: Thu Aug 25 13:04:32 2009 from host01.example.com
# exit
Connection to host02 closed.
# /u01/app/11.2.0/grid/bin/ocrcheck
Status of Oracle Cluster Registry is as follows :
Version : 3
Total space (kbytes) : 262120
Used space (kbytes) : 3228
Available space (kbytes) : 258892
ID : 1581544792
Device/File Name : +DATA
Device/File integrity check
succeeded
Dans cet exercice, vous définissez l'emplacement d'Oracle Local Registry (OLR) et effectuez
des sauvegardes des fichiers OCR et OLR.
1) Recourez à l'utilitaire ocrconfig pour répertorier les sauvegardes automatiques du
registre OCR (Oracle Cluster Registry) et le ou les noeuds sur lesquels elles ont été
effectuées.
# /u01/app/11.2.0/grid/bin/ocrconfig -showbackup
4) Affichez uniquement les sauvegardes manuelles qui ont été exécutées et indiquez le noeud
pour lequel la sauvegarde a été enregistrée. La sauvegarde logique apparaît-elle dans la
liste ?
# /u01/app/11.2.0/grid/bin/ocrconfig -showbackup manual
Device/File Name :
/u01/app/11.2.0/grid/cdata/host01.olr
Device/File integrity check
succeeded
Avant de commencer cet exercice, vérifiez que vous avez effectué les opérations
suivantes sur le troisième noeud : exercice 2-1: 1, 2, 3, 4, 5, 6, 8.
Dans cet exercice, vous allez étendre le cluster au troisième noeud qui vous est affecté.
Remarque
• Tous les scripts que vous devez exécuter pour cet exercice se trouvent sur le
premier noeud dans le répertoire /home/oracle/labs/node_addition.
• Sauf indication contraire, vous êtes connecté sur le premier noeud en tant
qu'utilisateur grid à partir d'une session de terminal.
$
2) Vérifiez que vous pouvez vous connecter au troisième noeud à partir du premier sans
avoir à indiquer de mot de passe.
$ . /home/oracle/labs/st_env.sh
$ ssh $ST_NODE3 date
Fri Sep 4 10:38:10 EDT 2009
$
3) Vérifiez que vous avez configuré les variables d'environnement correctement pour que
l'utilisateur grid pointe vers votre installation Oracle Grid.
$ . oraenv
ORACLE_SID = [grid] ? +ASM1
The Oracle base for ORACLE_HOME=/u01/app/11.2.0/grid is
/u01/app/grid
$
4) Vérifiez les étapes de préinstallation pour le troisième noeud à l'aide de l'utilitaire de
vérification de cluster. Vous constatez que les scripts de correction n'ont pas été exécutés
sur le troisième noeud.
$ . /home/oracle/labs/st_env.sh
$
$ cluvfy stage -pre crsinst -n $ST_NODE3
5) Générez le script de correction pour le troisième noeud en utilisant cluvfy avec l'option
–fixup.
$ cluvfy stage -pre crsinst -n $ST_NODE3 –fixup
Performing pre-checks for cluster services setup
7) A l'aide de CVU (Cluster Verification Utility), vérifiez que vous pouvez ajouter le
troisième noeud au cluster.
$ . /home/oracle/labs/st_env.sh
$
$ cluvfy stage -pre crsinst -n $ST_NODE3
Checking swap space: must be greater than 500 MB. Actual 3755
MB Passed
Oracle Universal Installer, Version 11.2.0.1.0 Production
Copyright (c) 1999, 2009, Oracle. All rights reserved.
-----------------------------------------------------------------
------------
Cluster Node Addition Summary
Global Settings
Source: /u01/app/11.2.0/grid
New Nodes
Space Requirements
New Nodes
host03
/: Required 4.76GB : Available 32.38GB
Installed Products
Product Names
Oracle Grid Infrastructure 11.2.0.1.0
9) Connectez-vous en tant que root sur le troisième noeud à partir d'une session de
terminal, et exécutez les scripts suivants :
/u01/app/oraInventory/orainstRoot.sh et
/u01/app/11.2.0/grid/root.sh.
[grid]$ . /home/oracle/labs/st_env.sh
[grid]$ ssh root@${ST_NODE3}
root@host03's password:
Last login: Tue Sep 29 09:59:03 2009 from host01.example.com
# /u01/app/oraInventory/orainstRoot.sh
Creating the Oracle inventory pointer file (/etc/oraInst.loc)
Changing permissions of /u01/app/oraInventory.
Adding read,write permissions for group.
Removing read,write,execute permissions for world.
Dans cet exercice, vous emploierez Oracle Clusterware pour protéger l'application Apache.
Dans cet exercice, vous emploierez Oracle Clusterware pour protéger l'application Apache.
Pour ce faire, vous créez une adresse IP virtuelle (VIP) pour Apache (HTTPD), un script
d'action, puis une ressource.
1) En tant que root, lancez le script /home/oracle/labs/st_env.sh. Vérifiez ensuite
que les packages RPM Apache; httpd, httpd-devel et httpd-manual sont
installés sur les deux premiers noeuds.
# su –
Password: oracle <<Le mot de passe n'est pas affiché
# . /home/oracle/labs/st_env.sh
httpd-2.2.3-22.0.1.el5
httpd-devel-2.2.3-22.0.1.el5
httpd-manual-2.2.3-22.0.1.el5
[root]# . /home/oracle/labs/st_env.sh
2) En tant qu'utilisateur root, démarrez l'application Apache sur le premier noeud à l'aide
de la commande apachectl start.
# apachectl start
Dans une session VNC sur l'un des trois noeuds, accédez à la page de test Apache sur le
premier noeud. Par exemple, si le premier noeud est nommé host01, l'adresse HTTP doit
être du type :
http://host01.example.com
3) Créez un script d'action pour gérer l'application. Ce script doit être accessible par tous les
noeuds sur lesquels la ressource applicative peut résider.
a) En tant qu'utilisateur root, créez dans le répertoire /usr/local/bin un script
nommé apache.scr qui démarre l'application, l'arrête, vérifie son statut et effectue
un nettoyage si l'application ne s'arrête pas correctement. Assurez-vous que l'hôte
indiqué dans la variable WEBPAGECHECK est le premier noeud. Utilisez le fichier
/home/oracle/labs/less_05/apache.scr.tpl comme modèle pour créer
le script. Définissez le script comme exécutable et testez-le.
# cp /home/oracle/labs/less_05/apache.tpl
/usr/local/bin/apache.scr
# vi /usr/local/bin/apache.scr
#!/bin/bash
HTTPDCONFLOCATION=/etc/httpd/conf/httpd.conf
WEBPAGECHECK=http://host01.example.com:80/icons/apache_pb.gif
case $1 in
'start')
/usr/sbin/apachectl -k start -f $HTTPDCONFLOCATION
RET=$?
;;
'stop')
/usr/sbin/apachectl -k stop
RET=$?
;;
'clean')
/usr/sbin/apachectl -k stop
RET=$?
;;
'check')
/usr/bin/wget -q --delete-after $WEBPAGECHECK
RET=$?
;;
*)
RET=0
;;
esac
# 0: success; 1 : error
if [ $RET -eq 0 ]; then
Sauvegardez le fichier
# chmod 755 /usr/local/bin/apache.scr
# apache.scr start
Vérifiez la page Web
# apache.scr stop
La page Web ne doit plus s'afficher
b) En tant qu'utilisateur root, créez dans le répertoire /usr/local/bin un script
nommé apache.scr qui démarre l'application, l'arrête, vérifie son statut et effectue
un nettoyage si l'application ne s'arrête pas correctement. Assurez-vous que l'hôte
indiqué dans la variable WEBPAGECHECK est le deuxième noeud. Utilisez le fichier
/home/oracle/labs/less_05/apache.scr.tpl comme modèle pour créer
le script. Définissez le script comme exécutable et testez-le.
# ssh $ST_NODE2
root@host02's password: oracle<< Le mot de passe n'est pas
affiché
# cp /home/oracle/labs/less_05/apache.tpl
/usr/local/bin/apache.scr
# vi /usr/local/bin/apache.scr
#!/bin/bash
HTTPDCONFLOCATION=/etc/httpd/conf/httpd.conf
WEBPAGECHECK=http://host02.example.com:80/icons/apache_pb.gif
case $1 in
'start')
/usr/sbin/apachectl -k start -f $HTTPDCONFLOCATION
RET=$?
;;
'stop')
/usr/sbin/apachectl -k stop
RET=$?
;;
'clean')
/usr/sbin/apachectl -k stop
RET=$?
;;
'check')
/usr/bin/wget -q --delete-after $WEBPAGECHECK
RET=$?
;;
*)
RET=0
;;
esac
# 0: success; 1 : error
if [ $RET -eq 0 ]; then
Sauvegardez le fichier
# chmod 755 /usr/local/bin/apache.scr
# apache.scr start
Vérifiez la page Web
# apache.scr stop
La page Web ne doit plus s'afficher
4) Ensuite, vous devez valider le code retour d'un échec de la vérification à l'aide du nouveau
script. Le serveur Apache NE doit s'exécuter sur aucun des noeuds. Exécutez
apache.scr check et testez immédiatement le code retour en lançant la commande
echo $?. Elle doit être exécutée immédiatement après la commande apache.scr
check car la variable de shell $? contient le code exit de la commande précédente
exécutée à partir du shell. Une vérification infructueuse doit renvoyer le code exit 1. Vous
devez effectuer cette opération sur les deux noeuds.
# apache.scr check
# echo $?
1
$ . oraenv
ORACLE_SID = [grid] ? +ASM1
AUTO_START=restore
CARDINALITY=1
CARDINALITY_ID=0
CHECK_INTERVAL=30
CREATION_SEED=123
CURRENT_RCOUNT=0
DEFAULT_TEMPLATE=
DEGREE=1
DESCRIPTION=
ENABLED=1
FAILOVER_DELAY=0
FAILURE_COUNT=0
FAILURE_HISTORY=
10) Vérifiez qu'Apache ne s'exécute PAS sur le second noeud. Pour cela, la méthode la plus
simple consiste à vérifier les processus /usr/sbin/httpd -k start -f
/etc/httpd/conf/httpd.confd qui s'exécutent à l'aide de la commande ps.
# . /home/oracle/labs/st_env.sh
# ssh $ST_NODE2 ps -ef|grep -i "httpd –k"
root@host02's password: oracle << Le mot de passe n'est pas
affiché
#
# cat /home/oracle/labs/less_05/monitor.sh
while true
do
ps -ef | grep -i "httpd -k"
sleep 1
done
12) Vérifiez le basculement du premier noeud vers le deuxième noeud avec la commande
crsctl stat resource myApache –t.
# /u01/app/11.2.0/grid/bin/crsctl stat resource myApache –t
--------------------------------------------------------------
NAME TARGET STATE SERVER STATE_DETAILS
--------------------------------------------------------------
Cluster Resources
--------------------------------------------------------------
myApache
1 ONLINE ONLINE host02
Dans ce chapitre, vous travaillerez avec les fichiers journaux Oracle Clusterware et
apprendrez à utiliser la commande ocrdump et cluvfy.
Dans cet exercice, vous examinerez le fichier d'alertes d'Oracle Clusterware puis packagerez
différents fichiers journaux dans un format approprié pour l'envoi à My Oracle Support.
1) En étant connecté en tant qu'utilisateur grid au premier noeud, recherchez et consultez le
contenu du fichier d'alertes d'Oracle Clusterware.
$ . oraenv
ORACLE_SID = [grid] ? +ASM1
The Oracle base for ORACLE_HOME=/u01/app/11.2.0/grid is
/u01/app/grid
$ . /home/oracle/labs/st_env.sh
:q!
$ pwd
/u01/app/11.2.0/grid/log/host01/cssd
$ ls -alt ocssd*
-rw-r--r-- 1 grid oinstall 7564217 Sep 1 14:06 ocssd.log
-rw-r--r-- 1 grid oinstall 52606470 Sep 1 06:06 ocssd.l01
3) Basculez vers l'utilisateur root et configurez les variables d'environnement pour Grid
Infrastructure. Accédez au répertoire /home/oracle/labs et exécutez le script
diagcollection.pl pour collecter tous les fichiers journaux qui peuvent être
envoyés à My Oracle Support pour l'analyse du problème.
$ su -
Password: oracle << Le mot de passe n'est pas affiché
# . oraenv
# cd /home/oracle/labs
Dans cet exercice, vous travaillerez avec l'utilitaire OCRDUMP et ferez un dump du fichier
binaire au format texte et en XML.
1) En étant connecté au compte grid, faites un dump du contenu du registre OCR vers la
sortie standard et comptez le nombre de lignes de résultat.
$ ocrdump -stdout | wc -l
469
2) Basculez vers l'utilisateur root, faites un dump du contenu du registre OCR vers la sortie
standard et comptez le nombre de lignes de résultat. Comparez les résultats à ceux de
l'étape précédente. En quoi les résultats diffèrent-ils ?
$ su -
# . oraenv
ORACLE SID = [root] ? +ASM1
The Oracle base for ORACLE_HOME=/u01/app/11.2.0/grid is
/u01/app/grid
# ocrdump -stdout | wc -l
3243
3) Faites un dump des 25 premières lignes du registre OCR vers la sortie standard au
format XML.
# ocrdump -stdout -xml | head -25
<OCRDUMP>
<TIMESTAMP>09/01/2009 16:55:11</TIMESTAMP>
<COMMAND>/u01/app/11.2.0/grid/bin/ocrdump.bin -stdout -xml
</COMMAND>
<KEY>
<NAME>SYSTEM</NAME>
<VALUE_TYPE>UNDEF</VALUE_TYPE>
<VALUE><![CDATA[]]></VALUE>
<USER_PERMISSION>PROCR_ALL_ACCESS</USER_PERMISSION>
<GROUP_PERMISSION>PROCR_READ</GROUP_PERMISSION>
<OTHER_PERMISSION>PROCR_READ</OTHER_PERMISSION>
<USER_NAME>root</USER_NAME>
<GROUP_NAME>root</GROUP_NAME>
<KEY>
<NAME>SYSTEM.version</NAME>
<VALUE_TYPE>UB4 (10)</VALUE_TYPE>
<VALUE><![CDATA[5]]></VALUE>
<USER_PERMISSION>PROCR_ALL_ACCESS</USER_PERMISSION>
<GROUP_PERMISSION>PROCR_READ</GROUP_PERMISSION>
<OTHER_PERMISSION>PROCR_READ</OTHER_PERMISSION>
<USER_NAME>root</USER_NAME>
<GROUP_NAME>root</GROUP_NAME>
>>>> Ou <<<<<
# scp $ST_NODE2:/u01/app/11.2.0/grid/cdata/cluster01/day.ocr
/home/oracle/labs/day.ocr
root@host02's password: oracle << Le mot de passe n'est pas
affiché
day.ocr 100% 7436KB 7.3MB/s 00:00
3,5c3,4
< <TIMESTAMP>09/01/2009 17:25:28</TIMESTAMP>
< <DEVICE>/home/oracle/labs/day.ocr</DEVICE>
< <COMMAND>/u01/app/11.2.0/grid/bin/ocrdump.bin -xml -backupfile
/home/oracle/labs/day.ocr /home/oracle/labs/day_ocr.xml
</COMMAND>
---
> <TIMESTAMP>09/01/2009 17:17:56</TIMESTAMP>
> <COMMAND>/u01/app/11.2.0/grid/bin/ocrdump.bin -xml
/home/oracle/labs/ocr_current_dump2 </COMMAND>
8438c8437
< <VALUE><![CDATA[2009/08/31 00:17:43]]></VALUE>
---
# exit
$
Dans cet exercice, vous utiliserez CLUVFY pour vérifier l'état de différents composants
du cluster.
1) Déterminez l'emplacement de l'utilitaire cluvfy et de son fichier de configuration.
$ . /home/oracle/labs/st_env.sh
$ which cluvfy
/u01/app/11.2.0/grid/bin/cluvfy
$ cd $ORACLE_HOME/cv/admin
$ pwd
/u01/app/11.2.0/grid/cv/admin
$ cat cvu_config
#Nodes for the cluster. If CRS home is not installed, this list
will be
#picked up when -n all is mentioned in the commandline argument.
#CV_NODE_ALL=
2) Affichez les options et les noms des étapes qui peuvent être utilisées avec cluvfy.
$ cluvfy stage -list
USAGE:
cluvfy stage {-pre|-post} <stage-name> <stage-specific options>
[-verbose]
4) Affichez la liste des composants qui peuvent être contrôlés avec cluvfy.
$ cluvfy comp -list
USAGE:
cluvfy comp <component-name> <component-specific options> [-
verbose]
USAGE:
cluvfy comp space [-n <node_list>] -l <storage_location>
-z <disk_space>{B|K|M|G} [-verbose]
<node_list> is the comma separated list of non-domain qualified
nodenames, on which the test should be conducted. If "all" is
specified, then all the nodes in the cluster will be used for
verification.
<storage_location> is the storage path.
<disk_space> is the required disk space, in units of
bytes(B),kilobytes(K),megabytes(M) or gigabytes(G).
DESCRIPTION:
Checks for free disk space at the location provided by '-l'
option on all the nodes in the nodelist. If no '-n' option is
given, local node is used for this check.
6) Vérifiez sur chaque noeud du cluster que le répertoire /tmp comporte au moins 200 Mo
d'espace libre à l'aide de l'utilitaire cluvfy. Utilisez le mode verbose.
$ cluvfy comp space -n $ST_NODE_LIST2 -l /tmp -z 200M -verbose
Dans ces exercices, vous ajusterez les paramètres d'initialisation ASM, arrêterez et
démarrerez des instances, et surveillerez le statut de celles-ci.
Dans cet exercice, vous allez ajuster les paramètres d'initialisation dans le fichier SPFILE,
puis arrêterez et redémarrerez les instances ASM sur les noeuds locaux et distants.
1) Vous pouvez être amené à reconfigurer les groupes de disques pour transférer les données
les plus anciennes sur les disques les plus lents. Ce type d'opération est lancé pendant les
périodes de maintenance planifiée dans les heures creuses, mais le rééquilibrage n'est
généralement pas terminé lors de la reprise des activités normales. Il y a donc un certain
impact sur les performances. La valeur du paramètre d'initialisation ASM_POWER_LIMIT
définit la vitesse de l'opération de rééquilibrage. Déterminez la valeur actuelle et
augmentez-la de 2.
a) Ouvrez une fenêtre de terminal sur le premier noeud, devenez l'utilisateur grid, et
configurez l'environnement pour utiliser l'instance +ASM1. Connectez-vous à
Connected to:
Oracle Database 11g Enterprise Edition Release 11.2.0.1.0 -
Production
With the Real Application Clusters and Automatic Storage
Management options
System altered.
2) En raison des autres opérations de maintenance, vous souhaitez que l'instance +ASM1
gère l'opération de rééquilibrage. Par conséquent, vous définissez ASM_POWER_LIMIT
avec la valeur 1 sur l'instance +ASM2 et avec la valeur 5 sur l'instance +ASM1.
System altered.
System altered
2 asm_power_limit 1
3 asm_power_limit 3
SQL>
3) Quittez l'application SQL*Plus.
SQL> exit
4) Il est nécessaire d'arrêter l'instance ASM et les applications associées, ACFS, la base de
données et le processus d'écoute de chaque noeud pour une opération de maintenance sur
le câblage physique. Arrêtez toutes les applications, ASM et le processus d'écoute associé
à +ASM2 à l'aide de srvctl.
a) Dans une nouvelle fenêtre de terminal, connectez-vous en tant qu'utilisateur oracle
et arrêtez Enterprise Manager sur le premier noeud.
[oracle]$ . oraenv
ORACLE_SID = [oracle] ? orcl
The Oracle base for
ORACLE_HOME=/u01/app/oracle/acfsmount/11.2.0/sharedhome/dbhome_1
is /u01/app/oracle
c) Vérifiez que la base de données est arrêtée sur ST_NODE1. La commande pgrep
montre qu'aucun processus en arrière-plan orcl n'est en cours.
[oracle]$ pgrep –lf orcl
e) Tentez d'arrêter l'instance ASM sur ST_NODE1 à l'aide de l'option de forçage –f.
[grid]$ srvctl stop asm -n $ST_NODE1 -f
PRCR-1014 : Failed to stop resource ora.asm
PRCR-1065 : Failed to stop resource ora.asm
[root]# df -h
Filesystem Size Used Avail Use% Mounted on
/dev/mapper/VolGroup00-LogVol00
9.7G 4.1G 5.1G 45% /
/dev/xvda1 99M 20M 74M 22% /boot
tmpfs 1.1G 154M 871M 16% /dev/shm
/dev/mapper/VolGroup01-LogVol00
30G 4.5G 24G 16% /u01
192.0.2.10:/mnt/shareddisk01/software/software
60G 40G 17G 71% /mnt/software
[root]#
Connecting to
(DESCRIPTION=(ADDRESS=(PROTOCOL=IPC)(KEY=LISTENER)))
TNS-12541: TNS:no listener
TNS-12560: TNS:protocol adapter error
TNS-00511: No listener
Linux Error: 2: No such file or directory
5) Redémarrez toutes les ressources de cluster sur le noeud ST_NODE1.
[root]# crsctl start cluster -n $ST_NODE1
CRS-2672: Attempting to start 'ora.cssdmonitor' on 'host01'
CRS-2676: Start of 'ora.cssdmonitor' on 'host01' succeeded
CRS-2672: Attempting to start 'ora.cssd' on 'host01'
CRS-2672: Attempting to start 'ora.diskmon' on 'host01'
CRS-2676: Start of 'ora.diskmon' on 'host01' succeeded
CRS-2676: Start of 'ora.cssd' on 'host01' succeeded
CRS-2672: Attempting to start 'ora.ctssd' on 'host01'
CRS-2676: Start of 'ora.ctssd' on 'host01' succeeded
CRS-2672: Attempting to start 'ora.asm' on 'host01'
CRS-2672: Attempting to start 'ora.evmd' on 'host01'
CRS-2676: Start of 'ora.evmd' on 'host01' succeeded
CRS-2676: Start of 'ora.asm' on 'host01' succeeded
CRS-2672: Attempting to start 'ora.crsd' on 'host01'
CRS-2676: Start of 'ora.crsd' on 'host01' succeeded
6) Vérifiez que les ressources, la base de données et Enterprise Manager sont redémarrés sur
ST_NODE1. La commande crsctl status resource –n $ST_NODE1 indique que
l'instance ASM est en ligne et que le volume ACFS dbhome1 est monté.
[root]# crsctl status resource -n $ST_NODE1
NAME=ora.ACFS.dg
TYPE=ora.diskgroup.type
TARGET=ONLINE
STATE=ONLINE
NAME=ora.DATA.dg
TYPE=ora.diskgroup.type
TARGET=ONLINE
STATE=ONLINE
NAME=ora.FRA.dg
TYPE=ora.diskgroup.type
TARGET=ONLINE
STATE=ONLINE
NAME=ora.LISTENER.lsnr
TYPE=ora.listener.type
TARGET=ONLINE
STATE=ONLINE
NAME=ora.LISTENER_SCAN1.lsnr
NAME=ora.acfs.dbhome1.acfs
TYPE=ora.acfs.type
TARGET=ONLINE
STATE=ONLINE
NAME=ora.asm
TYPE=ora.asm.type
TARGET=ONLINE
STATE=ONLINE
NAME=ora.eons
TYPE=ora.eons.type
TARGET=ONLINE
STATE=ONLINE
NAME=ora.gsd
TYPE=ora.gsd.type
TARGET=OFFLINE
STATE=OFFLINE
NAME=ora.host01.vip
TYPE=ora.cluster_vip_net1.type
CARDINALITY_ID=1
TARGET=ONLINE
STATE=ONLINE
NAME=ora.net1.network
TYPE=ora.network.type
TARGET=ONLINE
STATE=ONLINE
NAME=ora.ons
TYPE=ora.ons.type
TARGET=ONLINE
STATE=ONLINE
NAME=ora.registry.acfs
TYPE=ora.registry.acfs.type
TARGET=ONLINE
STATE=ONLINE
NAME=ora.scan1.vip
TYPE=ora.scan_vip.type
CARDINALITY_ID=1
TARGET=ONLINE
STATE=ONLINE
[root]#
11) En tant qu'utilisateur root sur le premier noeud, lancez le cluster sur le deuxième noeud
(ST_NODE2).
[root@host01 ~]# crsctl start cluster -n $ST_NODE2
CRS-2672: Attempting to start 'ora.cssdmonitor' on 'host02'
CRS-2676: Start of 'ora.cssdmonitor' on 'host02' succeeded
CRS-2672: Attempting to start 'ora.cssd' on 'host02'
CRS-2672: Attempting to start 'ora.diskmon' on 'host02'
CRS-2676: Start of 'ora.diskmon' on 'host02' succeeded
CRS-2676: Start of 'ora.cssd' on 'host02' succeeded
CRS-2672: Attempting to start 'ora.ctssd' on 'host02'
CRS-2676: Start of 'ora.ctssd' on 'host02' succeeded
CRS-2672: Attempting to start 'ora.evmd' on 'host02'
CRS-2672: Attempting to start 'ora.asm' on 'host02'
CRS-2676: Start of 'ora.evmd' on 'host02' succeeded
CRS-2676: Start of 'ora.asm' on 'host02' succeeded
CRS-2672: Attempting to start 'ora.crsd' on 'host02'
CRS-2676: Start of 'ora.crsd' on 'host02' succeeded
[root]#
12) L'instance orcl ST_NODE2 a-t-elle démarré ? Utilisez la commande svrctl status
database –orcl en tant que l'un quelconque des utilisateurs (oracle, grid ou root)
dès lors que l'environnement oracle est défini pour cet utilisateur.
Remarque : La base de données peut prendre quelques minutes à redémarrer. Si l'instance
orcl2 ne s'exécute pas, relancez la commande "status" jusqu'à ce que le statut de
l'instance orcl2 soit "running".
[root]# . oraenv
ORACLE SID = [root] ? +ASM1
The Oracle base for ORACLE_HOME=/u01/app/11.2.0/grid is
/u01/app/grid
[root]# srvctl status database -d orcl
Instance orcl1 is running on node host01
13) Enterprise Manager a-t-il redémarré sur le deuxième noeud (ST_NODE2) ? Vérifiez-le. En
tant qu'utilisateur oracle, connectez-vous au deuxième noeud et exécutez emctl
status dbconsole.
[root]# exit
logout
[oracle]$ . oraenv
ORACLE_SID = [oracle] ? orcl
The Oracle base for
ORACLE_HOME=/u01/app/oracle/acfsmount/11.2.0/sharedhome is
/u01/app/oracle
14) Configurez Database Control pour surveiller l'instance ASM sur le premier noeud. Ouvrez
une fenêtre de terminal sur le premier noeud, préparez l'environnement Oracle puis
utilisez la commande "lsnrctl status" pour déterminer l'adresse IP du processus d'écoute.
Utilisez la deuxième adresse IP indiquée.
[oracle]$ . oraenv
ORACLE_SID = [+ASM1] ? orcl
The Oracle base for
ORACLE_HOME=/u01/app/oracle/acfsmount/11.2.0/sharedhome/dbhome_1
is /u01/app/oracle
[oracle]$ lsnrctl status
Connecting to (ADDRESS=(PROTOCOL=tcp)(HOST=)(PORT=1521))
STATUS of the LISTENER
------------------------
Alias LISTENER
Version TNSLSNR for Linux: Version 11.2.0.1.0 -
Production
Start Date 30-SEP-2009 14:42:04
Uptime 0 days 0 hr. 55 min. 11 sec
Trace Level off
Security ON: Local OS Authentication
SNMP OFF
Listener Parameter File
/u01/app/11.2.0/grid/network/admin/listener.ora
Listener Log File
/u01/app/grid/diag/tnslsnr/gr7212/listener/alert/log.xml
Listening Endpoints Summary...
(DESCRIPTION=(ADDRESS=(PROTOCOL=ipc)(KEY=LISTENER)))
(DESCRIPTION=(ADDRESS=(PROTOCOL=tcp)(HOST=10.196.180.12)(PORT=152
1)))
(DESCRIPTION=(ADDRESS=(PROTOCOL=tcp)(HOST=10.196.180.213)(PORT=15
21)))
Services Summary...
Service "+ASM" has 1 instance(s).
Instance "+ASM1", status READY, has 1 handler(s) for this
service...
Service "orcl.example.com" has 1 instance(s).
Instance "orcl1", status READY, has 1 handler(s) for this
service...
Service "orclXDB.example.com" has 1 instance(s).
Instance "orcl1", status READY, has 1 handler(s) for this
service...
The command completed successfully
Dans les exercices qui suivent, vous allez ajouter, configurer et supprimer des groupes de
disques, effectuer des rééquilibrages, et surveiller les statistiques d'E/S concernant les disques
et les groupes de disques.
Dans cet exercice, vous modifierez la configuration d'un groupe de disques, puis vérifierez les
opérations de rééquilibrage résultantes. Vous déterminerez les clients connectés aux groupes
de disques existants, puis effectuerez des vérifications sur les groupes.
Etant donné que le groupe asmadmin n'a qu'un seul membre, grid, ouvrez une fenêtre de
terminal et devenez l'utilisateur grid du système d'exploitation pour cet exercice.
Vous pouvez effectuer ces opérations avec différents outils tels que EM, ASMCMD et
ASMCA.
1) Le groupe de disques FRA comprend plus de disques que nécessaire. Vous allez donc
supprimer le disque ASMDISK11. Pour cela, utilisez ASMCMD.
a) En tant qu'utilisateur grid du système d'exploitation sur le premier noeud, vérifiez
que le groupe de disques FRA est monté. S'il ne l'est pas, montez-le sur les deux
b) Utilisez la commande chdg avec XML. Notez que la commande est saisie sur une
seule ligne.
chdg <chdg name="FRA" power="5"> <drop> <dsk name="ASMDISK11"/>
</drop> </chdg>
[grid]$ asmcmd
ASMCMD> chdg <chdg name="FRA" power="5"> <drop> <dsk
name="ASMDISK11"/> </drop> </chdg>
ASMCMD>
2) En vue d'ajouter un autre disque au groupe DATA, effectuez une vérification des
métadonnées du groupe. Utilisez la commande chkdg.
ASMCMD> chkdg DATA
5) Déterminez les clients qui utilisent ASM et ACFS. Cela est utile pour identifier les clients
qui empêchent l'arrêt d'ASM. Utilisez la commande ASMCMD lsct. Notez que le client
de base de données est indiqué, ainsi que le client ACFS asmvol. L'instance +ASM1 du
cluster est également indiquée car le registre OCR et les disques votants figurent dans le
groupe de disques ASM DATA. Ouvrez une fenêtre de terminal sur le premier noeud en
tant qu'utilisateur grid. Pour que ASMCMD s'exécute, l'environnement Grid
Infrastructure doit être défini.
[grid]$ . oraenv
ORACLE_SID = [+ASM1] ? +ASM1
The Oracle base for ORACLE_HOME=/u01/app/11.2.0/grid is
/u01/app/grid [grid]$ asmcmd lsct
DB_Name Status Software_Version Compatible_version
Instance_Name Disk_Group
+ASM CONNECTED 11.2.0.1.0 11.2.0.1.0 +ASM1
DATA
asmvol CONNECTED 11.2.0.1.0 11.2.0.1.0 +ASM1
ACFS
b) Examinez les statistiques relatives aux E/S disque à l'aide de la commande lsdsk --
statistics.
[grid]$ asmcmd
ASMCMD> lsdsk --statistics
Reads Write Read_Errs Write_Errs Read_time Write_Time
Bytes_Read Bytes_Written Voting_File Path
6893 10103 0 0 324.968 74.8
664005632 300485632 Y ORCL:ASMDISK01
10273 11096 0 0 338.432 84.596
743536128 346663936 Y ORCL:ASMDISK02
6345 10971 0 0 283.62 59.944
599138304 246011392 Y ORCL:ASMDISK03
153 0 0 0 1 0
1568768 0 N ORCL:ASMDISK05
124 4 0 0 1.056 .016
1490944 16384 N ORCL:ASMDISK06
97 0 0 0 1.1 0
397312 0 N ORCL:ASMDISK07
99 0 0 0 1.152 0
405504 0 N ORCL:ASMDISK08
897 1027 0 0 3.792 5.224
48025600 118779904 N ORCL:ASMDISK09
447 631 0 0 4.644 3.8
23568384 92385280 N ORCL:ASMDISK10
2050 7008 0 0 6.436 199.012
29081600 1234462720 N ORCL:ASMDISK12
7) Exécutez les commandes ASMCMD suivantes pour rétablir la configuration initiale des
groupes de disques DATA et FRA.
[grid]$ asmcmd chdg /home/oracle/labs/less_08/reset_DATA.xml
[grid]$ asmcmd chdg /home/oracle/labs/less_08/reset_FRA.xml
Dans cet exercice, vous allez gérer les fichiers, les répertoires et les modèles ASM.
Dans cet exercice, vous allez utiliser différents outils pour accéder à la hiérarchie des fichiers
ASM, gérer les alias, gérer les modèles et déplacer les fichiers vers différentes zones de
disque.
1) ASM est conçu pour stocker les fichiers de base de données dans une structure
hiérarchique. Naviguez dans les fichiers de la base de données orcl avec ASMCMD.
[grid]$ asmcmd
ASMCMD> ls
ACFS/
DATA/
FRA/
ASMCMD> ls DATA
+DATA/ORCL/CONTROLFILE/:
CONTROLFILE HIGH FINE AUG 31 13:00:00 Y
Current.263.695918587
+DATA/ORCL/DATAFILE/:
DATAFILE MIRROR COARSE AUG 31 13:00:00 Y
EXAMPLE.264.695918623
DATAFILE MIRROR COARSE SEP 01 04:00:00 Y
SYSAUX.260.695918435
DATAFILE MIRROR COARSE AUG 31 13:00:00 Y
SYSTEM.258.695918433
DATAFILE MIRROR COARSE AUG 31 13:00:00 Y
UNDOTBS1.259.695918437
DATAFILE MIRROR COARSE AUG 31 13:00:00 Y
UNDOTBS2.257.695918879
DATAFILE MIRROR COARSE AUG 31 13:00:00 Y
USERS.268.695918437
+DATA/ORCL/ONLINELOG/:
ONLINELOG MIRROR COARSE AUG 31 13:00:00 Y
group_1.262.695918591
ONLINELOG MIRROR COARSE AUG 31 13:00:00 Y
group_2.261.695918595
ONLINELOG MIRROR COARSE AUG 31 13:00:00 Y
group_3.265.695918947
ONLINELOG MIRROR COARSE AUG 31 13:00:00 Y
group_4.256.695918951
+DATA/ORCL/PARAMETERFILE/:
+DATA/ORCL/TEMPFILE/:
TEMPFILE MIRROR COARSE AUG 31 13:00:00 Y
TEMP.267.695918609
N
spfileorcl.ora => +DATA/ORCL/PARAMETERFILE/spfile.266.695918955
ASMCMD>
2) La structure par défaut n'est pas nécessairement la plus utile pour certains sites. Créez un
ensemble d'alias pour les répertoires et les fichiers d'un système de fichiers. Utilisez
5) Créez un autre fichier de données pour le tablespace XYZ. Autorisez le fichier à recevoir
un nom par défaut. Les deux fichiers ont-ils eu des noms affectés par le système ?
Etape Description de l'écran/la page Options ou valeurs
a. Tablespaces Sélectionnez le tablespace XYZ.
Cliquez sur Edit.
b. Edit Tablespace: XYZ Dans la section Datafiles, cliquez sur Add.
c. Add Datafile Cliquez sur Continue.
d. Edit Tablespace: XYZ Cliquez sur Show SQL.
e. Show SQL Remarque : SQL fournit uniquement le nom
du groupe de disques.
6) Déplacez les fichiers du tablespace XYZ dans la zone " hot " du groupe de disques
DATA.
Etape Description de l'écran/la page Options ou valeurs
a. Disk Group: DATA: Files Cliquez sur l'onglet General.
b. Disk Group: DATA: General Dans la section Advanced Attributes, cliquez
sur Edit.
c. Edit Advanced Attributes for Disk Modifiez la valeur Database Compatibility en
Group: DATA 11.2.0.0.
Affichez le code SQL.
d. Show SQL Remarquez la clause SET ATTRIBUTE.
7) Créez un modèle qui remplace l'emplacement par défaut des fichiers par la zone "hot".
Etape Description de l'écran/la page Options ou valeurs
a. Disk Group: DATA: Files Cliquez sur l'onglet Templates.
b. Disk Group: DATA: Templates Cliquez sur Create.
c. Create Template Entrez :
Template Name: HOT_FILES
Dans la section Regions, sélectionnez les
options Primary Hot et Mirror Hot.
Cliquez sur Show SQL.
d. Show SQL Notez la clause de définition d'attributs.
[oracle]$ . oraenv
ORACLE_SID = [orcl] ? orcl
The Oracle base for
ORACLE_HOME=/u01/app/oracle/acfsmount/11.2.0/sharedhome is
/u01/app/oracle
[oracle]$ sqlplus sys@orcl as sysdba
Connected to:
Oracle Database 11g Enterprise Edition Release 11.2.0.1.0 -
Production
With the partitioning, Real Application Clusters, Automatic
Storage Management, OLAP,
Data Mining and Real Application Testing options
SQL>
Table created.
SQL>
10) Interrogez la nouvelle table. Sélectionnez toutes les lignes afin de forcer une activité de
lecture, avec la commande suivante : SELECT * FROM CUST_COPY. Utilisez la
commande SET PAGESIZE 300 pour accélérer le processus d'affichage.
SQL> SET PAGESIZE 300
SQL> SELECT * FROM CUST_COPY;
… /* rows removed */
100055 Andrew Clark
F
1978 Married 77 Cumberland Avenue
74673 Duncan 51402
SC 52722
SQL>
11) Affichez les statistiques d'E/S par zone. Utilisez d'abord Enterprise Manager, puis
ASMCMD.
a) Affichez les statistiques d'E/S par zone avec Enterprise Manager.
Etape Description de l'écran/la page Options ou valeurs
a. Disk Group: DATA Files Cliquez sur l'onglet Performance.
b. Disk Group: DATA: Performance Dans la section Disk Group I/O Cumulative
Statistics, observez les valeurs Hot Reads et
Hot Writes.
12) Supprimez les tablespaces et les modèles créés dans cet exercice.
a) En tant qu'utilisateur oracle du système d'exploitation, connectez-vous à la base de
données orcl, puis utilisez le script drop_XYZ.sh pour supprimer le tablespace XYZ.
Connected to:
Oracle Database 11g Enterprise Edition Release 11.2.0.1.0 -
Production
With the partitioning, Real Application Clusters, Automatic
Storage Management, OLAP,
Data Mining and Real Application Testing options
SQL> @/home/oracle/labs/less_09/drop_XYZ.sql
SQL>
SQL> DROP TABLESPACE XYZ INCLUDING CONTENTS AND DATAFILES;
Tablespace dropped.
SQL>
SQL> EXIT;
Disconnected from Oracle Database 11g Enterprise Edition Release
11.2.0.1.0 - Production
With the partitioning, Real Application Clusters, Automatic
Storage Management, OLAP,
Data Mining and Real Application Testing options
[oracle]$
Dans cet exercice vous allez créer, enregistrer et monter un système de fichiers ACFS. En
outre, vous contrôlerez les clichés ACFS.
Dans cet exercice vous allez créer, enregistrer et monter un système de fichiers ACFS.
Vous verrez les modules ACFS qui sont chargés pour ACFS. Vous créerez, utiliserez et
gérerez les clichés ACFS.
1) Ouvrez une fenêtre de terminal sur le premier noeud et devenez l'utilisateur root. A l'aide
de la commande lsmod, listez les modules actuellement chargés. Utilisez la commande
grep pour afficher uniquement ceux dont le nom comprend la chaîne ora. Notez les trois
premiers modules dans la liste qui suit. Ces modules sont requis pour activer ADVM et
ACFS. Le module oracleasm est chargé pour activer la gestion ASMlib des disques
ASM. Vérifiez les trois noeuds. Si les pilotes ACFS ne sont pas chargés, chargez-les avec
Grid_home/bin/acfsload. Les pilotes sont chargés et enregistrés automatiquement
lorsqu'un volume ACFS est créée avec ASMCA. Dans ce cas, la configuration doit être
/* on ST_NODE1 */
[root@host01]# . /home/oracle/labs/st_env.sh
/* on second node */
[root@host01]# ssh $ST_NODE2 lsmod| grep ora
root@host02's password: oracle << Le mot de passe n'est pas
affiché
oracleacfs 787588 3
oracleadvm 177792 7
oracleoks 226784 2 oracleacfs,oracleadvm
oracleasm 46356 1
/* on ST_NODE3 */
[root@host01 ~]# df -h
Filesystem Size Used Avail Use% Mounted on
/dev/mapper/VolGroup00-LogVol00
9.7G 2.6G 6.6G 28% /
/dev/xvda1 99M 20M 74M 22% /boot
tmpfs 1.1G 482M 543M 48% /dev/shm
/dev/mapper/VolGroup01-LogVol00
30G 4.7G 24G 17% /u01
192.0.2.10:/mnt/shareddisk01/software/software
[root@host01 ~]#
[root@host01 ~]#
[grid@host03 ~]$
[root@host01 ~]#
… Lines removed …
inflating:
/u01/app/oracle/acfsmount/images/gridInstall/view_image.gif
extracting:
/u01/app/oracle/acfsmount/images/gridInstall/white_spacer.gif
[oracle@host01 less_10]$
7) Vérifiez que les fichiers ont été extraits.
[oracle@host01]$ ls -R /u01/app/oracle/acfsmount/images
/u01/app/oracle/acfsmount/images:
gridInstall lost+found
/u01/app/oracle/acfsmount/images/gridInstall:
asm.gif t20108.gif t30104.gif t30119d.gif
bullet2.gif t20109a.gif t30105.gif t30119.gif
bullet.gif t20109b.gif t30106.gif t30120a.gif
divider.gif t20110.gif t30107.gif t30120b.gif
gradient.gif t20111a.gif t30108a.gif t30121d.gif
MoveAllButton.gif t20111b.gif t30108.gif t30123a.gif
MoveButton.gif t20111c.gif t30109.gif t30123b.gif
rpm-oracleasm.gif t20111.gif t30110.gif t30123c.gif
show_me.gif t20112.gif t30111.gif t30201.gif
t10101.gif t20113.gif t30112a.gif t30202.gif
t10102.gif t20113h.gif t30112.gif t30203.gif
t10103.gif t20114c.gif t30113a.gif t30204a.gif
t10201.gif t20114login.gif t30113b.gif t30204.gif
t10202.gif t20114server.gif t30114a.gif t30205.gif
12) Quelle est la quantité d'espace employée par les clichés et les fichiers qui sont stockés
dans le système de fichiers IMAGES. Utilisez la commande acfsutil info pour
rechercher ces informations.
[root@host01]# /sbin/acfsutil info fs
/u01/app/oracle/acfsmount/images
13) Restaurez asm.gif dans le système de fichiers à partir du cliché. Cette opération peut
être effectuée à l'aide de commandes du système d'exploitation ou d'Enterprise Manager.
La solution présentée utilise des commandes du système d'exploitation.
a) Le cliché est une représentation du système de fichiers. Vous pouvez le parcourir
comme s'il s'agissait du système de fichiers complet. Vous pouvez utiliser toutes les
commandes du système d'exploitation relatives aux fichiers. Recherchez le fichier
asm.gif dans le cliché. La commande find est employée dans la solution. Exécutez
cette opération en tant qu'utilisateur root.
[root]$ cd /u01/app/oracle/acfsmount/images/gridInstall
[root]$ find . –name asm.gif
find: ./.ACFS/.fileid: Permission denied
find: ./.ACFS/repl: Permission denied
find: ./.ACFS/snaps/snap_001/.ACFS/.fileid: Permission denied
find: ./.ACFS/snaps/snap_001/.ACFS/repl: Permission denied
find: ./.ACFS/snaps/snap_001/.ACFS/snaps: Permission denied
find: ./.ACFS/snaps/snap_001/lost+found: Permission denied
./.ACFS/snaps/snap_001/gridInstall/asm.gif
find: ./.ACFS/snaps/snap_002/.ACFS/.fileid: Permission denied
find: ./.ACFS/snaps/snap_002/.ACFS/repl: Permission denied
find: ./.ACFS/snaps/snap_002/.ACFS/snaps: Permission denied
find: ./.ACFS/snaps/snap_002/lost+found: Permission denied
find: ./lost+found: Permission denied
14) Démontez le système de fichiers Images des trois noeuds. Cette commande doit être
[root@host01]# cd
[root@host01 ~]#
Dans cet exercice, vous désinstallerez la base de données RAC, en laissant le clusterware
installé sur trois noeuds.
1) Ouvrez une fenêtre de terminal en tant qu'utilisateur oracle du système d'exploitation sur
le premier noeud et définissez l'environnement avec les commandes oraenv et
st_env.sh. Entrez le nom de la base de données lorsque vous y êtes invité.
[oracle@host01]$ . oraenv
ORACLE_SID = [oracle] ? orcl
The Oracle base for
ORACLE_HOME=/u01/app/oracle/acfsmount/11.2.0/sharedhome is
/u01/app/oracle
[oracle] $ . /home/oracle/labs/st_env.sh
RAC Database
The nodes on which this database has instances: [host01, host02]
The instance names: [orcl1, orcl2]
The local instance name on node: orcl1
The diagnostic destination location of the database:
/u01/app/oracle/diag/rdbms/orcl
Storage type used by the Database: ASM
Database Check Configuration END
Delete directory
'/u01/app/oracle/acfsmount/11.2.0/sharedhome/dbhome_1' on the
local node : Done
<<< Les messages d'échec suivants sont prévus >>>
Failed to delete the directory
'/u01/app/oracle/acfsmount/images'. The directory is in use.
Failed to delete the directory
'/u01/app/oracle/acfsmount/11.2.0/sharedhome/.ACFS/.fileid'. The
directory is in use.
Failed to delete the directory
'/u01/app/oracle/acfsmount/11.2.0/sharedhome/.ACFS/repl'. The
directory is in use.
Failed to delete the directory
'/u01/app/oracle/acfsmount/11.2.0/sharedhome/.ACFS/snaps'. The
directory is in use.
Failed to delete the directory
'/u01/app/oracle/acfsmount/11.2.0/sharedhome/.ACFS'. The
directory is not empty.
Failed to delete the directory
'/u01/app/oracle/acfsmount/11.2.0/sharedhome/lost+found'. The
directory is in use.
[oracle@host01 ~]$
Objectifs
Cluster A Cluster B
Noeud 1 Noeud 1
Noeud 2
Clusterware cloné
Script clone.pl
Le script PERL clone.pl est employé à la place de l'utilitaire graphique OUI pour
effectuer l'installation sur les nouveaux noeuds afin qu'ils puissent être intégrés dans un
cluster existant ou devenir des noeuds valides dans un nouveau cluster. Le script peut être
exécuté directement sur la ligne de commande ou à une invite de commande pour les
plates-formes Windows. Le script clone.pl accepte plusieurs paramètres en entrée, saisis
directement sur la ligne de commande. Etant donné que le script clone.pl admet des
paramètres qui peuvent inclure des accolades, des apostrophes et des guillemets, il est
recommandé de créer un script shell pour exécuter le script PERL clone.pl et d'y inclure
les arguments. Il est ainsi plus facile d'apporter des corrections en cas d'erreur de syntaxe.
Sept arguments peuvent être transmis en tant que paramètres au script clone.pl. Quatre
d'entre eux indiquent les variables d'environnement, et les autres, les options de traitement. Si
votre plate-forme n'inclut pas d'interpréteur PERL, vous pouvez en télécharger un à l'adresse :
http://www.perl.org
E01=ORACLE_BASE=${ORACLE_BASE}
Quiz
Réponse : 1
Quiz
Réponse : 2
Synthèse