Beruflich Dokumente
Kultur Dokumente
fr
clefs N° 58 - Automne 2009 Dans les secrets de l’Univers
ISSN 0298-6248
N° 58
Automne 2009
clefs
Dans les secrets
de l’Univers
253 Avant-propos
par Catherine Cesarsky
453 Voir l'invisible : petite histoire
Clefs CEA N° 58 – AUTOMNE 2009 d'une grande conquête
Image principale de couverture par Jean-Marc Bonnet-Bidaud
La nébuleuse par réflexion NGC 1999
située dans la constellation d'Orion. Cette
image a été prise par la caméra MegaCam,
développée au CEA, qui est placée au foyer
du télescope de l'Observatoire Canada-
France-Hawaii (CFHT) installé au sommet
I. L’ASTROPHYSIQUE ET L’EXPLORATION
du volcan Mauna Kea, à 4 200 m d'altitude,
sur la grande île d'Hawaii. DE L’UNIVERS
image MegaCam (CEA) par le CFHT
& Coelum
Images en médaillon
haut : Inspection et vérifications
fonctionnelles de l'imageur de la caméra
infrarouge MIRI, l'un des instruments
qui équiperont le télescope spatial
103 Les étoiles ensemencent l’Univers
103 Les enseignements du Soleil,
par Sylvaine Turck-Chièze
143 Sonder l'intérieur des étoiles,
39
James Webb. Le CEA a la responsabilité
scientifique et technique de cet imageur. par Rafael A. García
L. Godart/CEA 163 Du Soleil aux étoiles,
bas : Tests d'alignement de l'imageur de par Allan Sacha Brun
MIRI effectués au CEA. 173 Voyage dans les nurseries stellaires,
F. Rhodes/CEA
par Vincent Minier, Philippe André
Pictogramme des pages intérieures et Frédérique Motte
Notre Galaxie, la Voie lactée.
NASA/JPL-Caltech/R. Hurt (SSC) 223 L'origine des éléments lourds, 440 Les galaxies : une évolution
Revue éditée par le CEA par Stéphane Mathis pleine de paradoxes
Direction de la communication 263 L'explosion des supernovae, 443 La vie des galaxies actives,
Bâtiment Siège par Thierry Foglizzo
91191 Gif-sur-Yvette Cedex - (France) par Marc Sauvage et Frédéric Galliano
Tél. : 01 64 50 10 00 273 Les restes de supernova, 483 Un trou noir mystérieux,
Fax (rédaction) : 01 64 50 17 22 par Anne Decourchelle et Jean Ballet par Andrea Goldwurm
Directeur de la publication 283 Astres de haute énergie : 503 Élucider le mécanisme d'accélération
Xavier Clément
des sources de surprises, des rayons cosmiques,
Rédactrice en chef par Sylvain Chaty, Stéphane Corbel
Marie-José Loverini par Jean Ballet, Anne Decourchelle
marie-jose.loverini@cea.fr
et Jérôme Rodriguez et Isabelle Grenier
313 Mémo A Sonder l'Univers sur toute 523 À la recherche des grands ancêtres,
Rédactrice en chef adjointe
Martine Trocellier la gamme lumineuse par Emanuele Daddi
martine.trocellier@cea.fr
563 Formation des galaxies :
Comité scientifique une histoire paradoxale, par David Elbaz
Bernard Bonin, Gilles Damamme, Céline
Gaiffier, Étienne Klein, François Pupat,
Gérard Sanchez, Gérard Santarini
Iconographie
Florence Klotz
18 603 La morphogenèse des galaxies,
par Frédéric Bournaud
Avant-propos
Nous sommes en 2009, quatre centième ont déjà reçu des bourses ERC (pour European
anniversaire des premières observations de Galilée, Research Council). Au départ, le CEA s'est investi
et ceci donne lieu à une célébration internationale dans le spatial lorsque la France et l'Europe décidè-
dans le cadre de l'Année mondiale de l'astronomie, rent de se lancer dans les sciences spatiales. On pensa
proclamée par les Nations-unies et coordonnée, au immédiatement à la détection des rayonnements
niveau mondial, par l'Union astronomique interna- cosmiques de haute énergie (photons X et gamma,
tionale (UAI) et l'Unesco. En tant que Présidente de particules), qui ne pénètrent pas dans l'atmosphère
l'UAI, je me complais à dire que cette année célèbre terrestre, et donc au CEA qui, en raison de sa
aussi l'âge d'or de l'astrophysique. En effet, les avan- mission principale, détenait une expertise reconnue
cées spectaculaires de la technologie depuis dans la détection de ces rayonnements. Le CEA fut
une trentaine d'années, et l'utilisation exceptionnelle d'emblée l'un des principaux laboratoires européens
que les astrophysiciens ont su en faire, ont amené à à embarquer des détecteurs de rayonnements de
un bouleversement complet de notre vision et de haute énergie sur des ballons, des fusées puis des
notre compréhension de l'Univers et de ses compo- satellites.
santes, du comportement interne du Soleil à la Aux côtés des chercheurs et ingénieurs dévelop-
formation des étoiles et des planètes, de l'évolution pant des instruments se greffèrent des astrophysi-
des galaxies que l’on appréhende maintenant prati- ciens qui raffermirent le lien entre le savoir-faire
quement sur les 14 milliards d'années de vie de expérimental et l'interprétation des résultats en
l'Univers à celle des grandes structures, ces vastes termes d'avancées des connaissances sur l'Univers.
toiles d'araignée qui traversent l’espace. La physique Au fil des ans, cette collaboration fructueuse amena
fondamentale se trouve également en révolution, en une forte augmentation de la capacité, pour le CEA,
particulier la physique des particules élémentaires, à proposer des instruments et les missions les mieux
pour tenter d'identifier le moteur de l'expansion à même de résoudre les problèmes les plus brûlants,
accélérée de l'Univers et les mystérieux porteurs de ce qui lui permit d'être sélectionné par des instances
masse qui constituent la matière noire, composante nationales et internationales pour de nombreux
très dominante de matière dans l’Univers. instruments dans l'espace et au sol. Notons, par
Dans cette explosion de connaissances, le CEA exemple, le grand succès de la caméra aux rayons
tire parti de ses atouts exceptionnels pour être un gamma Sigma embarquée sur un satellite russe, et
acteur conséquent, recevant une reconnaissance qui découvrit les microquasars, trous noirs de masse
internationale qui ne cesse de croître. Ainsi, trois stellaire qui sont le siège de phénomènes analogues
chercheurs du CEA impliqués dans cette thématique à ceux étant à l’œuvre dans les quasars.
L. GODART/CEA
L’intérêt vers de nouvelles thématiques scien- MEGACAM qu'ils ont construite pour le télescope
tifiques, tels le contenu en gaz des galaxies et CFHT, et depuis l'espace avec XMM-Newton, en
l’étude de la formation des étoiles, ainsi que l’op- attendant la large moisson de données sur le fond
portunité de tirer profits de synergies avec les du ciel cosmologique espérée du satellite Planck.
équipes de la Direction de la recherche technolo- Aujourd’hui, le CEA a également acquis de
gique (DRT), amena les astrophysiciens du CEA à se fortes compétences en simulations numériques.
lancer aussi dans l’astronomie infrarouge au début Ceci permet des avancées importantes dans des
des années 80. L’Agence spatiale européenne (ESA) sujets aussi étudiés depuis le sol et l’espace par les
préparait le premier observatoire infrarouge spatial, chercheurs du CEA. Ainsi, après le succès de l’ex-
ISO, et le CEA avait la possibilité de prendre la périence GOLF, qui a mesuré les oscillations du
responsabilité principale d’un instrument phare, Soleil, une modélisation détaillée de l’intérieur de
la caméra. Il fallait pour cela disposer de matrices de notre étoile se trouve en cours. L’accélération des
détecteurs infrarouge qui, à cette époque, ne rayons cosmiques est aussi simulée, en synergie avec
pouvaient être importés des USA. Ces détecteurs les observations de satellites, à l’instrumentation
demandaient un développement spécifique pour desquels le CEA a aussi participé (XMM-Newton et
pouvoir fonctionner avec un faible fond et le INTEGRAL) et d’autres, où il est associé à la
Laboratoire infrarouge du Leti se lança dans l’aven- science, tels le récent satellite Fermi et, au sol, HESS,
ture, avec succès. Les résultats d’ISOCAM sur la qui détecte les rayons gamma de haute énergie avec
formation des étoiles et l’évolution des galaxies, une bonne précision de positionnement. Les résul-
démontrant que les sursauts de formation d’étoiles tats les plus spectaculaires concernent les simula-
et les galaxies à très fort flux infrarouge étaient beau- tions de l’évolution des grandes structures de
coup plus fréquents dans le passé, ont révolutionné l’Univers. Elles mettent en valeur l’importance de la
le sujet. Aujourd’hui, un très grand nombre d’as- chute de courants de gaz froid dans les régions où
trophysiciens de par le monde étudient les diverses la masse s’assemble, et permettent de mieux
étapes d’évolution des galaxies ; les résultats préparer les missions futures de mesures des
d’ISOCAM ont été confirmés et considérablement propriétés de la matière noire et de l’énergie noire
étendus par le satellite américain Spitzer et l’on au sein desquelles le CEA joue un rôle moteur.
attend maintenant des avancées importantes avec le L’avenir proche s’annonce brillant, avec l’ex-
satellite Herschel, qui vient d’être lancé. Pour ploitation continue de XMM-Newton – qui, entre
Herschel, la DRT a développé des matrices de détec- autres, amène au CEA des résultats extraordinaires
teurs novateurs, également utilisés au sol sur le sur les amas de galaxies – d’INTEGRAL, de Fermi,
radiotélescope APEX, et la Direction des sciences de des instruments au sol, et les débuts d’Herschel et de
la matière (DSM) a participé très activement à la Planck ; en parallèle, au Cern, le LHC pourrait percer
construction de deux des trois instruments. le mystère de la nature de la matière noire. En même
L’astronomie au sol, aussi, a fait de grandes avan- temps, le CEA joue un rôle majeur dans la concep-
cées et il est devenu nécessaire d’en développer les tion d’une caméra/spectromètre infrarouge,
instruments avec des méthodes quasi industrielles. destinée au JWST, l’ambitieux successeur de Hubble,
Le savoir-faire acquis par le CEA avec le spatial fit pour un nouvel instrument en astronomie gamma,
qu’il a pu également déployer un instrument d'en- réalisé en coopération avec la Chine, et en principal
vergure, VISIR, sur l'un des télescopes géants du promoteur pour l'Europe d'une nouvelle mission de
VLT, qui amène des informations uniques sur les cosmologie.
disques protostellaires où se forment les planètes. Pour l’avenir plus lointain, de nombreuses possi-
Les chercheurs de l'Institut de recherche sur les lois bilités se profilent dans le spatial, et la chasse aux
fondamentales de l’Univers (Irfu) sont aussi forte- neutrinos de haute énergie depuis le fond des mers
ment impliqués dans la cosmologie et mènent des va commencer. La grande aventure cosmique du
études observationnelles depuis le sol avec la caméra CEA va se poursuivre.
CEA
ration de chercheurs, désormais réunis au sein du SAp,
vient de livrer une caméra de très haute technologie Découverte des rayons X cosmiques : préparation et envoi d’un
destinée au cœur d’Herschel, le plus grand télescope ballon stratosphérique depuis Aire-sur-l’Adour (mai 1965).
spatial jamais satellisé mais aussi petit bijou de la
recherche, sachant capter les plus faibles rayonnements cocotte-minute et du polystyrène ; pour enregistrer
infrarouges de l’Univers. Entre ces deux performances, leurs données, ils ne disposent que d’un simple
les astrophysiciens du SAp marqueront de leur magnétophone à bande du commerce. Récupéré
empreinte chaque étape d’une des plus excitantes après le vol, ce simple enregistreur offrira au CEA
aventures scientifiques de tous les temps : la détection l’une de ses premières historiques : la détection de
des rayonnements « invisibles » du cosmos, totalement rayons X de haute énergie émanant de plusieurs
inaccessibles à nos yeux humains seulement adaptés à sources situées dans la constellation du Cygne.
la lumière de notre étoile, le Soleil. Pourtant, les chercheurs n’en sont qu’à leurs premiers
étonnements. En 1967, des radioastronomes anglais
Réussir avec les moyens du bord découvrent des signaux radio rapides et réguliers
En juin 1962, une importante découverte bouleverse, dans le ciel. Une fois écartée l’hypothèse, brièvement
à nouveau, la conception que les astrophysiciens se envisagée, de signaux émis par des extraterrestres,
font alors du ciel. On la doit à une équipe améri- une autre supposition voit le jour : ces « pulsations »
caine, dirigée par Roberto Giacconi, Prix Nobel en proviendraient d’étoiles à neutrons, en rotation très
2002. Celui-ci imagine de placer des détecteurs de rapide, baptisées pulsars pour pulsating stars.
rayons X à bord d’une fusée Aerobee pour tenter de
mesurer les rayons X du Soleil réfléchis par la surface
de la Lune. Aucun rayon ne put être capté par la Lune
mais, en balayant le ciel, les instruments embarqués
reçurent une forte bouffée de rayons X en prove-
nance d’une région de la constellation du Scorpion.
Baptisée Scorpius-X1, cette source restera longtemps
une énigme pour les astrophysiciens. Il faudra plus
de cinq ans pour comprendre que les rayons X de
l’Univers proviennent d’étoiles exotiques très denses,
de naines blanches, d’étoiles à neutrons ou même
de trous noirs. Avec cette découverte s’ouvrait une
nouvelle fenêtre d’observation sur le cosmos.
À cette époque, la France n’a pas encore développé
son programme de fusée, aussi les chercheurs du
CEA durent-ils faire preuve d’ingéniosité pour conti-
nuer leurs observations. Faute de mieux, l’idée leur
vint d’embarquer leurs instruments de mesure sur
des ballons stratosphériques pouvant s’élever à
40 kilomètres d’altitude.
Le 21 mai 1965, un vol inaugural se déroule sur la
CEA
CEA
rayons gamma puis de les désintégrer en particules
Première détection des rayons X de haute énergie des
chargées produisant des traces d’étincelles. Pour pulsars : tête de fusée française Véronique portant
reconstituer la direction du rayon gamma, ces traces les détecteurs de rayons X (décembre 1968).
sont photographiées grâce à une caméra de film
16 mm. Cette fois, l’opération se déroule à Gap disposer de satellites scientifiques et accéder ainsi
(Hautes-Alpes). Un ballon emporte le détecteur à durablement à l’espace. L’Europe devra attendre 1972
40 000 mètres d’altitude. Les résultats sont une pour disposer d’un tel satellite, TD-1. Les astrophysi-
nouvelle fois au rendez-vous des chercheurs du CEA ciens du CEA exploitent cette première opportunité
qui démontrent, les premiers, que les pulsars émet- qui leur est offerte en plaçant trois de leurs instru-
tent aussi des rayons gamma dans l’Univers. ments sur le satellite qui tournera en orbite jusqu’en
1974. Parmi eux, S-133, une toute nouvelle chambre
Du ballon au satellite à étincelles de 40 kg, munie cette fois d’une caméra
La poursuite des recherches suppose alors de vaincre électronique de télévision baptisée VIDICON. Mal-
une limitation essentielle : la durée de vie trop courte heureusement, ce vol sera un échec, la proximité d’au-
des ballons et des fusées. Pour cela, il faut pouvoir tres instruments ayant induit un formidable bruit de
fond de particules parasites et noyé l’expérience sous
de fausses détections. Cet apprentissage profitera au
satellite Cos-B, lancé en août 1975, avec une chambre
à étincelles de 114 kg, fruit d’une large collaboration
européenne. Avec une longévité affichée de sept ans,
ce projet volera la vedette à son concurrent américain,
SAS-II, programmé pour seulement six mois, mais
aussi en raison d’un résultat scientifique majeur : l’ob-
tention de la première image complète de la galaxie en
rayons gamma.
L’exploration du domaine des hautes énergies X et
gamma se poursuivra jusqu’à aujourd’hui grâce à
l’implication du CEA dans les missions SIGMA/Granat
(1989), XMM-Newton (1999) et INTEGRAL (2002).
Désormais, la vision des astrophysiciens s’ouvre sur
des milliers de sources témoignant de cet Univers
violent où les températures se chiffrent en millions de
degrés. En revanche, du côté du rayonnement infra-
rouge, les obstacles ne se laisseront pas vaincre facile-
ment : d’abord, l’atmosphère reste un écran à franchir
CEA
CEA
l’accident de la navette américaine Challenger, en 1986, caméras astronomiques dédiées à l’observation
et la disparition de l’ex-URSS, en 1991. de la lumière visible dotées, elles, de centaines de
millions d’éléments d’image.
En attendant la grande symphonie Dans beaucoup de domaines encore, les « lu-
du cosmos… nettes » des chercheurs dépassent à peine celle
L’Europe décide alors de relever le défi avec son projet de Galilée. L’exploration spatiale de l’invisible a
de satellite ISO (pour Infrared Space Observatory), toujours dû s’adapter au rythme des innovations
conçu pour embarquer la première caméra infrarouge technologiques : chaque fois, des outils spéci-
dans l’espace. Il faut dire que le satellite astronomique fiques durent être inventés et surtout portés
américain IRAS (pour Infrared Astronomical Satellite), au-delà de l’atmosphère. Ainsi, petit à petit,
lancé en 1983 pour six mois, n’avait donné qu’un la part inconnue de l’Univers se réduit inexo-
premier aperçu du ciel infrarouge. Pourtant, aucun rablement. Pendant longtemps, les astro-
laboratoire européen ne semble en mesure de cons- physiciens ont donc été dans la position d’un
truire la caméra d’ISO. Seules deux unités du CEA, le mélomane qui n’entendrait que le son d’un seul
SAp et le Laboratoire d’électronique de technologies instrument dans l’interprétation d’un ensemble Première chambre
de l’information (Leti) peuvent s’engager à fournir les musical mais qui, progressivement, élargirait sa à étincelles satellisée :
détecteurs de l’instrument et assurer leur intégration perception à l’ensemble de l’orchestre. Aujourd’hui, expérience S 133
embarquée à bord du
dans un ensemble optique complexe pesant moins de le vœu des scientifiques serait de pouvoir enfin écouter satellite européen TD-1
10 kg. Sous l’impulsion de Catherine Cesarsky, l’ensemble de la grande symphonie du cosmos. (mars 1972).
ISOCAM (la caméra d’ISO) rejoint l’espace, en 1995,
pour trois ans. Avec sa batterie de détecteurs semi- > Jean-Marc Bonnet-Bidaud
conducteurs de seulement 32 x 32 pixels, cette caméra Service d’astrophysique (SAp)
réalisera une mosaïque d’images révélant tout le détail Institut de recherche sur les lois fondamentales de l’Univers (Irfu)
Direction des sciences de la matière (DSM)
des nébuleuses de gaz et de poussières où naissent les Unité mixte de recherche astrophysique
étoiles. Elle n’est surpassée aujourd’hui que par le interactions multi-échelles
récent satellite Spitzer. (CEA-Université Paris 7-CNRS).
CEA Centre de Saclay (Orme des Merisiers)
Aujourd’hui, dans le vaste arc-en-ciel de l’invisible, un
seul domaine demeure encore inexploré : celui de l’in-
frarouge lointain, proche des ondes radio. Pour relever
ce nouveau défi de l’observation de ce rayonnement Rayonnements cosmiques : les dates
de très faible énergie, il faut repousser encore plus loin clés de leur découverte
les limites actuelles de la technologie. La caméra du
futur est équipée de détecteurs spécifiques, appelés Il ne faut pas se fier aux couleurs que nous donne à voir l’arc-en-ciel car il
bolomètres. Le défi consiste à éviter qu’elle ne se fasse ne s’agit que d’une infime fraction de la palette des couleurs existantes. Notre
aveugler par son environnement. Pour y parvenir, les œil humain ne peut les percevoir étant uniquement adapté à la lumière de
astrophysiciens doivent obtenir leur refroidissement notre étoile, le Soleil. C’est donc grâce aux travaux en laboratoire que d’au-
jusqu’à quelques millidegrés au-dessus du zéro absolu. tres rayonnements ont pu être découverts, étape par étape, par les cher-
Certaines de ces caméras fonctionnent déjà depuis le cheurs :
sol à partir d’étroites fenêtres atmosphériques laissant • 1800 : Le physicien William Herschel, s’aidant d’un simple prisme et de
passer une partie de ce rayonnement. Mais la première thermomètres, parvient à démontrer qu’en-deçà « du rouge » existe un autre
rayonnement capable de chauffer le thermomètre : l’infrarouge. Il s’agit de
grande exploration se fait désormais depuis l’espace
la première avancée véritablement significative.
grâce au satellite Herschel de l’Agence spatiale euro-
• 1800 : Procédant à une expérience similaire, Wilhem Ritter découvre qu’au-
péenne (ESA) lancé avec succès le 14 mai 2009. À son delà « du violet » un rayonnement s’avère capable de noircir le papier d’ar-
bord, il emporte PACS (pour Photoconductor Array gent : c’est l’ultraviolet.
Camera and Spectrometer), caméra dotée de la plus • 1810 à 1864 : James Maxwell unifie l’électricité et le magnétisme, ce qui lui
grande matrice de bolomètres jamais construite, un permet d’avancer que la lumière visible n’est que le cas particulier d’un
succès majeur pour le CEA. Comme toutes les vraies phénomène plus général : les ondes électromagnétiques.
• 1895 : Wilhelm Röntgen découvre que les décharges électriques dans les
tubes à vide produisent des rayons encore inconnus (qu’il baptise donc rayons
X) capables de traverser le verre.
• 1896 : Henri Becquerel découvre la radioactivité naturelle : de l’intérieur des
noyaux d’atomes d’uranium émanent des rayonnements inconnus qui
impressionnent les plaques photographiques.
• 1898 : Pierre et Marie Curie découvrent d’autres matériaux « radioactifs »
(le polonium, le thorium, le radium), lesquels émettent des rayonnements
baptisés rayons alpha et bêta (en réalité des particules).
• 1900 : Paul Villard découvre un rayonnement radioactif capable de traverser
le plomb : le rayonnement gamma.
les étudier. Aujourd’hui, cette discipline fête tout juste ces 50 ans.
Caméra ISOCAM pour l’infrarouge (novembre 1995).
I. L’ASTROPHYSIQUE
ET L’EXPLORATION
DE L’UNIVERS
Que sont la Lune, le Soleil, les étoiles? Pourquoi se déplacent-ils au cours
du temps? Ont-ils toujours été là? De ces interrogations sont nés les grands
récits de création et les cosmogonies. Les progrès des moyens d’observation,
de l'œil nu aux satellites modernes, en passant par la lunette de Galilée
et les télescopes géants, ont transformé la contemplation en astronomie, puis
en astrophysique. La spéculation intellectuelle n’a pas disparu pour autant :
l’astrophysique moderne repose sur un constant va-et-vient entre l’observation
et l’élaboration de théories explicatives. L’entrée en lice des ordinateurs
a introduit dans le jeu un troisième élément, l’expérimentation numérique,
qui consiste à observer le comportement de modèles informatiques décrivant
les objets de l’Univers.
Qui voit loin dans l'espace remonte le temps. L’astronomie repose sur ce
constat imposé par le fait que la lumière se propage à une vitesse finie. Il en
résulte que plus les moyens d’observation sont puissants, plus ils révèlent
un Univers «jeune», voire primordial. Car l’Univers n’est pas éternel. Il a bel
et bien une histoire, que les astrophysiciens s’efforcent aujourd’hui de retracer
en détail. Selon le scénario communément admis, dit à «big bang», l’Univers
est en expansion depuis 13,7 milliards d’années. Le fond diffus cosmologique
nous montre que, âgé de 380000 ans, l’Univers était encore très dense, très
chaud et quasiment homogène. À partir des minuscules grumeaux de cette
«soupe» primordiale, la gravité a engendré les structures hautement
hiérarchisées que nous connaissons aujourd’hui avec ses étoiles regroupées
en galaxies, elles-mêmes assemblées au sein d'amas de galaxies. Ces objets
eux-mêmes naissent et meurent, modifiant les conditions de naissance, et donc
les caractéristiques, des générations ultérieures.
Est-ce à dire que le scénario est désormais écrit? Certes pas. Beaucoup reste
à apprendre sur la formation de ces objets et l’origine de leur diversité. De plus,
cet approfondissement n’est pas à l’abri de surprises de taille, voire de remises
en cause radicales. Que l’on songe par exemple à la découverte de planètes
extrasolaires, détectées depuis 1995 et vues directement pour la première fois
en novembre 2008. Ou à l’existence d’une matière noire, supposée dès 1933 et
toujours pas identifiée. Plus mystérieuse encore est l’énergie noire, introduite
en 1998 pour expliquer l’accélération «récente» de l’expansion universelle.
Les astrophysiciens comptent beaucoup sur une nouvelle génération
d’instruments, qu’ils soient dans l’espace (Fermi, Herschel, Planck,
James Webb) ou au sol (ALMA, ELT). Sans oublier le LHC, nouvel accélérateur
du Cern, puisque la physique des particules, science de l’infiniment petit,
et l’astrophysique, science de l'infiniment grand, se rejoignent pour comprendre
les premiers instants de l'Univers.
Restent enfin les questions fondamentales de la forme et de la finitude de
l’Univers. Étonnamment, ces interrogations essentielles pourraient recevoir
des réponses avant que les «détails» fins de l’histoire des objets soient élucidés.
Bien qu'elles nous paraissent éternelles, les étoiles naissent, vivent et meurent.
Dès sa naissance dans les nuages moléculaires interstellaires, la masse du nouvel astre
détermine son destin : durée de vie, couleur et devenir final. Durant leur vie « adulte », les étoiles
se comportent comme d'immenses réacteurs thermonucléaires « brûlant » de l'hydrogène pour
synthétiser des éléments chimiques plus lourds, jusqu'au fer pour les plus massives. Objets
en rotation, sièges de courants de convection, arborant pour la plupart une intense activité
magnétique, les étoiles mènent une existence agitée. Les étoiles moyennes et petites finissent
leur vie comme des naines blanches. Les plus grosses s’effondrent en une gigantesque
débauche d’énergie, produisant des supernovae avant de se transformer en étoiles à neutrons
ou en trous noirs. Ces explosions disséminent leurs couches extérieures. Paradoxalement, c’est
donc lors de leur mort que les étoiles fécondent l’espace interstellaire en éléments nouveaux.
Comprendre le scénario de leur naissance et l'origine de leur masse, c'est donc approcher
l'origine de la composition de l'Univers.
Les étoiles
ensemencent l’Univers
Les enseignements du Soleil
Le Soleil est sans doute une étoile « banale ». Sa proximité lui confère cependant
un statut particulier : celui de laboratoire de physique stellaire et de plasmas denses.
Il est maintenant étudié comme une étoile magnétique en interaction avec la Terre.
Le Soleil et l’atome
Très vite, ce domaine fascinant a fait progresser
notre compréhension des étoiles. Les réactions
nucléaires, qui transforment des noyaux légers en
noyaux plus lourds, constituent donc la source
d’énergie manquante. En ce qui concerne le Soleil,
il s’agit essentiellement de la fusion de noyaux
d’hydrogène (le plus simple de tous les noyaux
University of Colorado
puisqu’il ne comprend qu’un proton) pour donner
de l'hélium (le plus petit des autres : deux protons
et deux neutrons). Le premier à relier ce monde de
l’infiniment petit à celui de l’infini grand, en 1920,
fut l’astrophysicien anglais Arthur Eddington. En George Gamow, connu pour sa participation à la théorie
1929, les physiciens britannique Robert d’Escourt du big bang, a joué un rôle crucial dans la compréhension
des réactions nucléaires intervenant dans les étoiles.
Atkinson et allemand Friedrich Houterman Il a démontré qu’à cause de la répulsion coulombienne,
publient un article conjoint, expliquant qu’aux elles ne peuvent avoir lieu que si les vitesses relatives
températures régnant au centre des étoiles, les des réactants sont très élevées. Ainsi la réaction proton-
proton, base de la transformation d'hydrogène en hélium
atomes sont généralement dépouillés de tous leurs (4 p + 2 e - 4
He + 2 νe + 27 MeV), se produit-elle à 5 keV et
électrons, et donc chargés positivement. Il se forme non pas à 1,3 keV (correspondant aux 15 millions de degrés
alors un plasma, sorte de « soupe » constituée régnant au cœur du Soleil). C’est pourquoi elles sont plus
d’ions positifs et d’électrons libres négatifs. La rares que prévu, ce qui explique la longévité du Soleil.
température, donc l’agitation, y est telle que deux
charges électriques de même signe, au lieu de se
repousser comme dans le monde ordinaire, peuvent De la théorie à l’expérience
surmonter la barrière coulombienne pour inter- Pendant longtemps, ces résultats sont restés pure-
agir. À la même époque, George Gamow, un physi- ment théoriques car impossibles à tester au labora-
cien d’origine ukrainienne, montre que cette toire. Il fallait donc les confronter à la réalité en
interaction requiert une énergie supérieure à « sondant » le Soleil lui-même. C’est devenu
l’énergie thermique. C’est pourquoi seul un petit possible très récemment, avec le lancement en 1995
nombre de protons est concerné. En effet, en du satellite SoHO (Solar and Heliospheric
moyenne, une seule réaction/cm3 a lieu chaque Observatory), placé au point de Lagrange L1. Il
année, par 40 milliards de protons présents dans emporte une douzaine d’instruments, dont GOLF
cette surface. Cette « rareté » explique la longévité (Global Oscillations at Low Frequencies) et MDI
de l’astre. Il faut en effet environ 10 milliards d’an- (Michelson Doppler Imager), deux appareils de
nées pour transformer près de la moitié de la masse mesures héliosismiques – ils observent la propa-
du Soleil d’hydrogène en hélium. Autre enseigne- gation des ondes acoustiques au sein de l’astre, les
ment essentiel : cette interaction, dite faible, remet « tremblements de Soleil » en quelque sorte. Leurs
en cause l’idée que le proton et le neutron sont des données, confrontées au CEA avec des modèles
particules fondamentales puisque l’un se trans- numériques de l’étoile, ont confirmé des prévisions
forme en l’autre. Elle nécessite l’intervention d’une comme la distribution maxwellienne(1) des vitesses
nouvelle particule imaginée par l’Autrichien des particules. Elles ont également permis de déter-
Wolfgang Pauli en 1930, le neutrino, dont la masse miner avec une précision de 1 % la probabilité
n’est toujours pas connue. d’interaction entre deux protons. Cette valeur était
Après cette phase de transformation d’hydrogène jusque-là estimée théoriquement, en s’appuyant sur
en hélium, le cœur du Soleil va se contracter et sa la durée de vie du neutron.
température centrale augmenter. Elle sera alors suffi-
sante pour que les noyaux d’hélium surmontent la
(1) Distribution maxwellienne : les particules n’ont pas toutes
barrière coulombienne (2,5 fois plus forte que dans la même vitesse mais des vitesses réparties aléatoirement autour
le cas de l’hydrogène) et interagissent à leur tour. d’une moyenne.
0,12
0,03
0,10
0,02 0,08
0,06
c2/c2
/
0,01
0,04
0,00 0,02
0,00
-0,01
-0,02
0,0 0,2 0,4 0,6 0,8 1,0 0,0 0,2 0,4 0,6 0,8 1,0
rayon/rayon solaire rayon/rayon solaire
Figure 1.
À gauche, différence radiale du carré de la vitesse du son (c) extraite des modes acoustiques détectés par
les instruments GOLF et MDI, et celle obtenue avec un modèle sismique du Soleil (en vert) ou avec un modèle classique
basé sur les abondances solaires déterminées par les raies d’absorption dans la photosphère (en orange, deux valeurs
de composition sont ici montrées). À droite, différence obtenue pour la densité du plasma () qui varie entre 150 g/cm3
au cœur et 10-7 g/cm3 dans l’atmosphère solaire.
Les mesures sismiques confirment également des permettent de calculer le profil actuel de la vitesse
hypothèses générales sur l’évolution des étoiles. En du son dans le Soleil et de le comparer à ce qui est
effet les équations qui régissent cette évolution extrait de la mesure des nombreux modes acous-
(équilibre hydrostatique, transfert d’énergie par tiques (figure 1). En introduisant les résultats des
rayonnement ou convection, conservation de la mesures sismiques réelles dans ces modèles numé-
masse, évolution temporelle des abondances(2)… ) riques, les chercheurs prédisent le flux de neutrinos
émis par les réactions nucléaires(3). Or des installa-
tions de détection des neutrinos solaires mesurent
ce flux au Japon, au Canada, en Italie et en Russie.
L’accord remarquable entre l’héliosismologie et la
Ω Soleil détection des neutrinos, après 30 ans de recherche,
souligne la complémentarité de ces deux disciplines.
Les processus régissant les grandes étapes de l’évo-
circulation zone lution des étoiles de masse comparable au Soleil
méridienne convective semblent donc aujourd’hui bien compris.
Figure 2.
(2) Les proportions relatives des différents éléments.
Vision dynamique de l’intérieur solaire montrant les deux zones classiques : en rouge
la région radiative et en jaune la région où le transport d’énergie est dominé par (3) Il s’agit des réactions proton-proton (dites pp)
la convection. Se surimposent des circulations méridiennes, des ondes acoustiques et du cycle CNO (carbone-azote-oxygène).
(modes p) et des ondes internes, ainsi que des champs magnétiques avec des (4) D’après l’astronome américain George Ellery Hale
composantes poloïdales et toroïdales. (1868-1938).
minima (1996-2006).
Clairement, les variations du
champ magnétique prennent de
plus en plus d’importance avec
l’éloignement de la photosphère.
d’ailleurs justifiée car la rotation ou le champ suivre l’évolution de tous les indicateurs au cours du
magnétique interne n’ont qu’un faible impact sur la cycle d’activité solaire. D’une durée d’environ onze
structure interne… que veulent précisément décrire ans, ce cycle dit de Hale(4) est connu depuis Galilée.
ces équations. Il est caractérisé par la migration des taches solaires
Pour dépasser ce cadre conceptuel et aller vers une d’une latitude de 60° vers l’équateur. Lorsque le
vision complète et unifiée du Soleil, il faudra là champ magnétique dipolaire s’inverse, le nombre
encore exploiter les mesures de SoHO, qui observe de taches s’amenuise ou disparaît, puis un deuxième
toutes les manifestations de la dynamique solaire, cycle s’amorce. Le retour aux polarités initiales
qu’elles soient internes ou externes (figure 2). En demande environ 22 ans.
utilisant les raies d’absorption du fer et de l’hélium
dans l’atmosphère solaire, le satellite explore des Un astre bien agité
températures très différentes allant de quelques Les astrophysiciens du CEA veulent aujourd’hui
dizaines de milliers de degrés à plusieurs millions comprendre la ou les sources internes d’activité du
de degrés entre la photosphère et la couronne Soleil, pour mieux en apprécier la variabilité. En
(figure 3). La longévité de ce satellite permet de effet un Soleil très actif éjecte des particules qui
SoHO (ESA-NASA)
Un ensemble de processus magnétiques et méca-
niques interfèrent de manière complexe. Le phéno-
mène de dynamo – la création d’un champ
magnétique par la circulation de particules électri-
Une aurore boréale. Ce phénomène est dû à la pénétration dans la haute atmosphère quement chargées – régénère cette activité et
terrestre d’un flux de particules en provenance du Soleil. implique l’ensemble de la région convective.
ment de l'intérieur des étoiles. Ils devaient Une nouvelle approche expérimentale, RA
densité de puissance spectrale
106
se contenter de paramètres globaux ou de l'astérosismologie, a apporté une réponse.
surface : rayon, masse, luminosité, spec- Elle s'inspire de la sismologie terrestre,
RA + SGR + GR
tre électromagnétique… La détection des qui analyse la propagation souterraine des
104
neutrinos solaires, porteurs d'une infor- ondes acoustiques générées par les trem-
mation sur les conditions thermodyna- blements de terre ou des explosions
miques régnant au centre du Soleil, a contrôlées. De la même manière, l'astéro- GR
102
repoussé quelque peu ces limites. Les sismologie – dite héliosismologie lors-
astrophysiciens restaient cependant sur qu'elle s'applique au Soleil – étudie la SGR
bruit de fond
leur faim : comment « pénétrer » à l'inté- propagation d'ondes acoustiques ou de instrumental
R. A. García/CEA - Spécifique
0
gravité (figure 1) à l'intérieur des étoiles, 10
pour en déduire une information sur leur
structure et leur dynamique internes.
Contrairement à la Terre, le Soleil – ainsi 10-2
10-6 10-5 10-4 10-3 10-2
qu'une multitude d'étoiles du même
fréquence (Hz)
type – « vibre » en permanence sous l'effet
des mouvements convectifs de la région Figure 1.
extérieure. Ces mouvements, similaires à Densité de puissance spectrale du Soleil,
obtenue à partir du déplacement Doppler
ceux observés dans de l'eau qui bout dans
mesuré par GOLF (en noir) et du bruit de fond
une casserole chauffée par le fond, instrumental (en rouge). Pour les ondes
évacuent l'énorme quantité d'énergie acoustiques (fréquence supérieure
créée par les réactions centrales de fusion à 5.10-4 Hz), le spectre solaire présente
un maximum autour de 3.10-3 Hz. La forte
thermonucléaire. puissance vers les fréquences basses provient
des turbulences associées essentiellement
La musique du Soleil aux mouvements granulaires (GR),
supergranulaires (SGR) et au passage
Les cellules convectives(1) frappent la surface des régions actives (RA).
du Soleil et engendrent des ondes sonores
SMM/IAC
qui se propagent ensuite à l'intérieur de (1) Une cellule convective correspond à une
l'étoile, de la même manière que des chocs « bulle » de matière chaude (moins dense)
Vue d'artiste de l'intérieur du Soleil montrant qui monte, puis se refroidit et donc redescend,
sur la peau d'un tambour créent des ondes pour se réchauffer et remonter.
les trajectoires des modes de gravité pendant
leur propagation dans la zone radiative, partie dans l'instrument. Le Soleil joue donc le rôle (2) Une octave correspond à un doublement
la plus interne du Soleil (70 % en rayon). d'une énorme caisse de résonance (figure 2). de fréquence.
roAp
qui vibre à 440 Hz. La fréquence des ondes ␥ Dor • Ceph : céphéides classiques
étoiles de type solaire • Mira : étoiles variables
solaires est centrée autour de 0,003 Hz, ce 0 de type Mira
1 M Soleil
qui correspond à une période de cinq • SR : variables semi-
DBV
minutes. régulières
• sdBV : étoiles sous-naines
Bien que récente, l'héliosismologie a déjà
variables
apporté une ample moisson de connais- -2 • GW Vir : étoiles de type GW
sances sur la globalité de notre étoile : DAV Virginis
profondeur de la base de la zone convec- • DBV : naines blanches
5,0 4,5 4,0 3,5 variables de type spectral DB
tive, abondance de l'hélium en surface,
log (température effective) • DAV : naines blanches
profil de densité, profil de rotation interne, variables de type spectral DA
diffusion des éléments… (voir Les ensei-
Figure 2.
gnements du Soleil, p. 10 et Voyage dans
Diagramme de Hertzsprung-Russell, montrant la relation entre la température effective
les lumières de l'Univers, p. 90). Actuel- et la luminosité des étoiles, où sont indiquées les principales familles d'étoiles pulsantes dans
lement se développe une sismologie les bandes d'instabilité. Les lignes continues correspondent à des chemins d'évolution pour
locale, qui s'intéresse aux phénomènes des étoiles de différentes masses solaires (1, 4 et 20 masses solaires de bas en haut). Sont
également représentées les étoiles dans la séquence principale d'âge zéro (– – – –), les étoiles dans
dynamiques de « courte » durée dans la branche horizontale (–... –... ) et la séquence de refroidissement des naines blanches ( ....... ).
des régions proches de la surface. Les
champs de vitesse et de température du l'astérosismologie est en plein essor. > Rafael A. García
plasma solaire sous la surface révèlent, CoRoT a déjà observé des centaines Service d'astrophysique (SAp)
Institut de recherche sur les lois fondamentales
par exemple, la structure sous-jacente d'étoiles de types spectraux bien diffé-
de l’Univers (Irfu)
des taches solaires. Avec le lancement rents, à divers stades de leur évolution. Direction des sciences de la matière (DSM)
du satellite franco-européen CoRoT Autant de données qui affineront la théorie Unité mixte de recherche astrophysique
interactions multi-échelles
(Convection, Rotation et Transits plané- de l'évolution dynamique des étoiles (voir (CEA-Université Paris 7-CNRS)
taires – Cnes, ESA), le 27 décembre 2006, L'origine des éléments lourds, p. 22). CEA Centre de Saclay (Orme des Merisiers)
masse/masse de l’étoile
de milliards d’autres dans la Voie lactée. Le étoiles étoiles de
naines étoiles massives type solaire
taux de détection
nombre d'étoiles de type solaire (type spec- 0,8 (type M) 0,8
O B A F G K M
30 000 10 000 6 000 3 000 > Allan Sacha Brun
augmentation de la température diminution de la température Service d'astrophysique (SAp)
Institut de recherche sur les lois fondamentales
température de surface (K)
de l’Univers (Irfu)
Direction des sciences de la matière (DSM)
Figure 2. Unité mixte de recherche astrophysique
Simulations numériques tridimensionnelles de la magnétohydrodynamique de divers types interactions multi-échelles
d'étoiles repérées sur le diagramme de Hertzsprung-Russell, effectuées dans le cadre du projet (CEA-Université Paris 7-CNRS)
européen STARS2 (www.stars2.eu). RGB signifie branche des géantes rouges. CEA Centre de Saclay (Orme des Merisiers)
estimé en recensant
sa population d’étoiles
bleues, jaunes ou rouges.
notre échelle, les étoiles paraissent inaccessibles peu d’énergie dans l’espace puisque leur température
À et éternelles. Et pourtant elles naissent, vivent et
meurent. Chacune des centaines de milliards d'étoiles
ne dépasse pas les 1 300 K en surface, elles peuvent
exister durant des milliards d’années. Le Soleil, étoile
qui composent une galaxie est en effet une « simple » moyenne s’il en est, devrait vivre environ 10 milliards
boule de gaz – principalement de l’hydrogène – où se d’années. Le lecteur l’a compris : c’est la masse d’une
produisent et s’entretiennent des réactions de fusion étoile qui dicte son destin. Elle détermine sa durée de
thermonucléaire, accompagnées d’un dégagement de vie, son intensité lumineuse ou sa capacité à créer des
chaleur et de lumière. Plus une étoile est grosse ou éléments lourds. Elle préside aussi à sa mort, par
massive, plus elle a de combustible, donc plus elle exemple sous forme de supernova, et donc à l’impact
brille, plus elle fabrique des éléments lourds comme de cette disparition sur l’écologie galactique (dispersion
de l’oxygène, du carbone ou du fer… et plus vite elle de matière recyclable dans le milieu interstellaire).
épuise ses réserves (voir L'origine des éléments lourds,
p. 22). Les plus massives – de 10 à 100 fois la masse La naissance des étoiles
du Soleil – sont très chaudes (de 10 000 à 30 000 K en Le destin d’une étoile serait ainsi scellé dès sa
surface) et émettent essentiellement des ultraviolets. naissance. Or cet épisode est encore mal connu.
Elles nous apparaissent bleues et disparaissent après Comment le milieu interstellaire, ce gaz raréfié
quelques dizaines de millions d’années. À l’opposé, les contenant quelques centaines d’atomes et molé-
petites étoiles brillent peu, nous apparaissent rouges cules par litre, peut-il engendrer des objets aussi
et mènent une vie tranquille. Ne dispersant que très massifs ? Comment certaines parties d’un nuage
Wolfgang Brandner (JPL/IPAC), Eva K. Grebel (Univ. Washington), You-Hua Chu (Univ. Illinois Urbana-
solaire) y sont minoritaires. Il en va de même pour
les étoiles très petites (un dixième de la masse solaire ou
moins). La majorité des étoiles nouveau-nées ont donc
une masse de l’ordre de celle du Soleil. Cette répartition
des masses au sein d’un amas, que les astrophysiciens
appellent « fonction de masse initiale », est-elle univer-
selle ? Autrement dit, les populations d’étoiles ont-
elles toutes la même composition, où qu’on les observe
dans l’Univers ? La question est aujourd’hui posée.
Une autre grande question, portant sur les étoiles,
taraude les scientifiques. Quand et comment se
détermine la masse d’un astre particulier au sein
d’un amas ? Pour y répondre, les astrophysiciens du
CEA mènent une véritable étude démographique
des populations d’étoiles, de la gestation à la nais-
102
nombre d’objets N/logM
-200
(arcsec)
101
0,5 parsec
-400
NGC 2068
F. Motte/Ph. André/AIM-CEA
100
SCUBA 850 m
13⬘⬘
-600
0 -200 -400 10-2 10-1 100 101 102
(arcsec) masse M /masse solaire
Figure 2.
À gauche, image des condensations préstellaires au sein de NGC 2068, une région de formation d’étoiles dans la constellation d’Orion. Les observations ont été
réalisées avec la caméra de bolomètres SCUBA – installée sur le James Clerk Maxwell Telescope situé à Hawaii – aux longueurs d’onde submillimétriques
à 850 microns. Chaque fragment pourrait donner naissance à une ou deux étoiles. 1 parsec (pc) = 206 265 ua.
À droite, nombre de condensations préstellaires en fonction de leur masse. La distribution de masse des condensations (en bleu) reproduit globalement
la forme de la fonction de masse initiale estimée aujourd’hui pour les étoiles de notre Galaxie (en noir) avec un décalage d’un facteur ε ⵑ
ⵑ 25 % vers les grandes
masses. Cela signifie que toute la masse contenue dans une condensation n’est pas totalement transformée en masse stellaire. Ce résultat suggère que
les masses des étoiles de type solaire sont déterminées principalement par le processus de fragmentation du nuage moléculaire au stade préstellaire.
-61° 05’ 40
NGC 3576
30
déclinaison (J2000)
-10’
déclinaison (J2000)
1 parsec
-61° 20’
-15’ 20
V. Minier/Ph. André/AIM-CEA et J. Schedler
V. Minier/Ph. André/AIM-CEA et J. Schedler
-20’ P–ArTéMiS 10
450 m
-61° 25’ 0
11h 14min 13min 12min 11min
h min s s s s
11 12 20 00 40 20
ascension droite (J2000)
a b ascension droite (J2000)
Figure.
103 a. Le gaz froid et les cocons des embryons d’étoiles sont des zones
masse de l’enveloppe proto-stellaire/
classe O totalement opaques, apparaissant comme des régions très sombres dans
Menveloppe >> Métoile la Voie lactée. L’observation de l’émission du monoxyde de carbone (CO)
102 montre que ces bandes sombres sont les plus denses en gaz (contour
blanc traçant la distribution de rayonnement émis par le CO).
b. Pour « percer » ces condensations préstellaires, les astronomes
masse solaire
100 les grains de poussière, qui ne représentent qu’un pour cent de la masse
totale du gaz avec lequel ils cohabitent. Ils absorbent l’intensité
lumineuse émise autour d’eux et la restituent dans l’infrarouge, et pour
classe I
10-1 Menveloppe < Métoile les plus froids dans l’infrarouge submillimétrique. La mesure de leur
énergie a révélé huit fragments à l’intérieur de NGC 3576.
c. Ce diagramme représente la masse du cocon de poussière d’une
0,2 MSoleil 1 MSoleil 3 MSoleil 8 MSoleil 15 MSoleil 50 MSoleil
10-2 proto-étoile et sa luminosité, qui déterminent dans quelle phase précoce
(classe 0 ou classe I) se trouvent les proto-étoiles de NGC 3576.
100 102 104 106 La classe I est une phase plus évoluée que la classe 0. À partir de
luminosité bolométrique/luminosité solaire modèles théoriques, il est possible de prédire la masse finale du
c futur astre, soit entre 8 et 50 fois la masse du Soleil pour ces étoiles.
Observer les étoiles naissantes sont des objets trop froids pour émettre aux
Pour trancher entre ces deux scénarios, et introduire longueurs d’onde visibles, et les observer requiert
les bonnes conditions initiales dans les simulations des instruments à haute résolution angulaire dans
numériques, la meilleure façon reste d’observer les domaines infrarouge et submillimétrique
directement des populations d’étoiles en phase (figure 3). Plusieurs grands télescopes sont très
précoce. Les astronomes recherchent donc des objets attendus au cours des prochaines années pour
intermédiaires représentant toutes les étapes de la approfondir et peut-être révolutionner les connais-
séquence allant du nuage moléculaire aux très jeunes sances actuelles sur les premières étapes de la forma-
étoiles, et ce pour tous les types de masse. Ils réali- tion stellaire.
sent l’étude quantitative de ces populations en déter- L’observatoire spatial Herschel(2) (voir Voyage dans
minant leurs caractéristiques comme la luminosité, les lumières de l'Univers, p. 90), une mission scienti-
la température, la densité et la masse des cocons. fique de l’ESA, mesurera, pour la première fois, la
Toutes données qui nourriront les modèles des quantité d’énergie émise par les cocons stellaires.
astrophysiciens (encadré). Cependant les condensa-
tions préstellaires et les plus jeunes proto-étoiles (2) Voir http://herschel.cea.fr
(secondes)
0
F. Motte/N. Schneider/AIM-CEA
-5
-10
10 5 0 -5 -10
(secondes)
Figure 3.
À gauche, image en infrarouge d’un ensemble de nuages moléculaires formant des étoiles massives dans la constellation du Cygne. Le rayonnement infrarouge
est émis par les grains de poussière. En haut à droite, zoom sur une zone du nuage dans laquelle des condensations proto-stellaires sont observées
grâce au rayonnement émis par les poussières très froides aux longueurs d’onde millimétriques. En bas à droite, une étoile massive naît à l’intérieur
d’une condensation proto-stellaire en accrétant de la matière et en rejetant une partie à travers des flots moléculaires (contours en rouge et en bleu).
Ces études exigent de combiner des cartographies de grandes zones avec des observations fines.
Herschel, lancé le 14 mai 2009 par une fusée astronomes déduiront la répartition des masses des
Ariane 5, sondera les nuages moléculaires à la fragments préstellaires. Ils construiront ainsi des
recherche des condensations glacées dans lesquelles courbes démographiques représentant la réparti-
naissent les étoiles, des naines brunes aux étoiles tion des condensations préstellaires et des embryons
massives. Il part donc à la recherche des fragments d’étoiles. En comparant ces courbes à celles consta-
de nuages moléculaires susceptibles de s’effondrer. tées dans les populations d’étoiles matures de notre
À partir de la mesure de leur luminosité, les Galaxie, les astronomes pourront conclure sur l’ori-
gine de la masse des astres : innée (si les courbes sont
comparables) ou acquise (si elles sont différentes).
Herschel travaille dans une « gamme » comprise
entre un centième et une dizaine de masses solaires.
Le télescope APEX (Atacama Pathfinder Experi-
ment) situé au Chili, et qui sera équipé en 2011 de
la caméra de bolomètres ArTéMiS du CEA/Irfu
(voir Voyage dans les lumières de l'Univers, p. 90),
prêtera main-forte à Herschel. En effet, avec l’aug-
mentation de la taille des télescopes, et donc de la
finesse des observations, les scientifiques peuvent
sonder des condensations plus lointaines dans
lesquelles naissent les étoiles massives.
ESO
V838 Monocerotis
supergéante rouge
de la constellation
de la Licorne,
photographiée par
le télescope spatial Hubble,
est située à environ
20 000 années-lumière.
NASA and The Hubble Heritage Team (AURA/STScI)
éritables réacteurs thermonucléaires, les étoiles rations ultérieures d'étoiles. Pour comprendre
V fabriquent des noyaux lourds à partir des
éléments primordiaux créés au moment du
comment ce qui était à l'origine essentiellement une
boule d'hydrogène peut, à la fin de son existence,
big bang : hydrogène, hélium et deutérium. Lorsque disperser des éléments lourds dans l'espace, il faut
l'astre arrive en fin de vie, ces éléments enrichissent remonter le « film » de cette évolution. Quand une
les couches externes puis le milieu interstellaire. étoile a achevé sa phase de formation (voir Voyage
Cela modifie la composition chimique des galaxies dans les nurseries stellaires, p. 17), elle entre dans sa
et donc les sites potentiels de formation des géné- séquence principale, très longue période durant
enveloppe
convective
95%
R=0 180 000 539 000 696 000 km R=0 553 000 1 500 000 2 540 000 km
(0,52 MSoleil) (0,98 MSoleil) (0,97 Métoile)
T6 = 15,5 7,5 1,5 T = 5 800 K T6 = 30,5 21 5,3 T = 24 000 K
Figure 1.
Structures d'une étoile de même masse que le Soleil (à gauche) et d'une étoile neuf fois plus massive (à droite). Les rayons R,
les températures T (en K) ou T6 (en millions de K) ainsi que les densités sont indiqués pour le centre et les limites des régions
radiatives et convectives. M représente la densité moyenne de l’étoile. Les pourcentages correspondent à la fraction de l'énergie
totale produite.
(arcsec)
Est 0 scopiques et macroscopiques, dont les échelles
spatiales et temporelles diffèrent de plusieurs ordres
de grandeur. Par exemple, l'évolution nucléaire des
étoiles se déroule durant des millions ou des
milliards d'années, alors que des processus hydro-
dynamiques – tels que la convection ou les instabi-
lités conduisant à la turbulence – prennent place sur
0,001
des échelles de temps de l'ordre du mois, voire
moins. Pour relever un tel défi, le CEA s’est forte-
ment investi dans la modélisation et la simulation
des processus magnétohydrodynamiques internes.
0,001 0 0,001
Ce que l'on sait aujourd'hui des mécanismes de
(arcsec)
ESO
transport du moment cinétique et de la matière à
Figure 2.
l'intérieur des étoiles peut se décrire comme suit.
Achernar, une étoile de type B de 6,07 fois la masse solaire. Elle est très aplatie du fait de Dans les régions radiatives des étoiles, l'énergie
sa rotation très rapide : en surface, sa vitesse de rotation vaut 150 fois celle du Soleil. créée par les réactions nucléaires est transportée par
l'interaction entre les photons et la matière. Le
plasma stellaire est en effet peu opaque, et les
Xc = 0,0 photons sont absorbés et réémis des millions de
0,9 fois au cours de leurs collisions avec les atomes
luminosité solaire
4
⍀ • 104 (s-1)
1,5 1,5
0,5
> Stéphane Mathis
Service d'astrophysique (SAp)
0 Institut de recherche sur les lois fondamentales de l’Univers (Irfu)
Direction des sciences de la matière (DSM)
Unité mixte de recherche astrophysique
0,5 interactions multi-échelles (CEA-Université Paris 7-CNRS)
CEA Centre de Saclay (Orme des Merisiers)
1,0
1,5
1,5 1,0 0,5 0 0,5 1,0 1,5
POUR EN SAVOIR PLUS
rayon/rayon de l’étoile
« Physics, Formation and Evolution of Rotating
Figure 4.
Stars » par André Maeder, Astronomy &
Champ magnétique fossile d'une étoile de type A (de 2,37 fois Astrophysics Library, Springer (2009).
la masse solaire et trois fois le rayon solaire).
400 km
6 000 km fer 1s 60 km neutrino
sphère > Thierry Foglizzo
Service d'astrophysique (SAp)
Institut de recherche sur les lois fondamentales
effondrement du cœur de fer choc
de l’Univers (Irfu)
Direction des sciences de la matière (DSM)
Unité mixte de recherche astrophysique
Figure 1. interactions multi-échelles
Vue schématique d'une supernova gravitationnelle. L’effondrement du cœur de fer d’une étoile (CEA-Université Paris 7-CNRS)
massive est ralenti par une onde de choc stationnaire, à environ 200 kilomètres du centre. CEA Centre de Saclay (Orme des Merisiers)
L'explosion d'une supernova libère une milieu, qui se propage vers l'intérieur dans
énergie énorme (de l’ordre de 1044 J), dont la matière éjectée. Plus tard, le milieu
seule une petite fraction sous forme de interstellaire prend le dessus et la matière
lumière visible. Au moment de l’explosion, fraîchement synthétisée ne domine plus.
une supernova brille autant qu'une galaxie Comprimés et chauffés à des dizaines de
entière, mais sa lumière visible décroît millions de degrés par les chocs, les débris
ensuite assez rapidement et disparaît en stella i res e t le m i l i e u e n vi ro n n an t
quelques années. Dans la Voie lactée, les deviennent de puissants émetteurs de
plus récentes observations de supernovae rayons X. C'est ce qui permettra de les
datent de la fin du 16e et du début du 17e détecter. L’atmosphère terrestre constituant
s iècle . B ie n qu e des i nstr uments un écran à ces rayons, les observations
exceptionnels soient maintenant à la depuis le sol sont impossibles : il faut placer
disposition des astronomes, que ce soit au les instruments en orbite. Les satellites
sol ou dans l’espace, aucune nouvelle européen XMM-Newton (voir Voyage dans
supernova n’a pu être observée dans notre les lumières de l'Univers, p. 90) et américain
Galaxie ! Or il se produit en moyenne 2 ou Chandra ont apporté une moisson de
S. Chaty/ESA
éjection et, dans certains
cas, les vents stellaires
d'étoiles massives.
La découverte de microquasars
Au-delà de l’image du trou noir accrétant de la
matière d’une étoile compagnon, des astrophysi-
ciens du CEA/Irfu ont montré dans les années 1990
que de tels objets pouvaient éjecter massivement du couronne courant d’accrétion
plasma sous forme de jets à des vitesses apparem-
Rob Hynes
ment supérieures à celle de la lumière (figure 1). Ces étoile compagnon
astres furent appelés microquasars par analogie avec
les quasars, noyaux actifs de galaxies contenant en
Figure 1.
leur centre un trou noir supermassif (d’une masse Vue d’artiste d’un
de l’ordre de quelques millions à quelques milliards observatoires tels que Fermi ou HESS pourraient microquasar. La matière
de fois celle du Soleil). Cette découverte révolu- alors les détecter (voir Voyage dans les lumières de arrachée de l’étoile
compagnon tombe dans
tionna les recherches dans ce domaine. En effet, il l’Univers, p. 90). le trou noir dans un
pourrait exister une universalité des mécanismes mouvement en spirale.
physiques entre ces deux populations de trous noirs. Des quasars « intermédiaires » ? Un disque se forme autour
Or les manifestations physiques au sein des micro- Un nouveau mystère est apparu ces dernières de l’astre dense et des jets
de matière apparaissent.
quasars se déroulent sur des échelles de temps années. Les puissants observatoires actuels, comme
réduites (de la milliseconde à l’année). Cela permet XMM-Newton, ont détecté des sources très impor-
enfin d’étudier, même indirectement, des phéno- tantes de rayons X dans de nombreuses galaxies
mènes similaires à ceux se produisant au sein des proches de la Voie lactée. Or ces objets semblent
noyaux actifs de galaxies… mais sur des durées bien trop lumineux pour être assimilés à des systè-
tellement longues qu’elles sont inaccessibles à mes binaires X. D’où l’idée qu’il pourrait s’agir
l'échelle humaine. Diverses propriétés du flot (ou de trous noirs d’une masse intermédiaire entre
courant) d’accrétion se firent alors jour, et il devint celle des microquasars et celle des noyaux actifs de
évident que le disque était fortement couplé aux jets galaxies, soit de quelques centaines à quelques
relativistes par l’intermédiaire d’une couronne milliers de fois celle du Soleil. Néanmoins, les
d’électrons chauds qui alimente ces derniers théories actuelles expliquent difficilement la
(figure 1). En outre, la présence de matière ionisée
au sein du disque d’accrétion induit la formation de
raies de matériaux comme le fer. Les effets gravita-
tionnels dus à l’objet compact modifient le profil
d’émission de la matière du disque en rotation.
À l’avenir, grâce entre autres à XEUS (X-ray
Evolving Universe Spectroscopy mission)/IXO
(International X-ray Observatory), ces raies d’émis-
sion renseigneront les astronomes sur la vitesse
de rotation des trous noirs, un de leurs trois para- 12 février 2004
mètres fondamentaux avec la masse et la charge
électrique.
La découverte de diverses corrélations (flux
dans différentes bandes d’énergie, fréquences
d’oscillations quasi périodiques, caractéristiques
spectrales, etc.) démontra de plus que ces jets de
matière peuvent émettre dans les domaines X et
gamma, soit bien au-delà de leur domaine classique 24 mars 2004
de rayonnement en ondes radio. En quelques
années, les jets relativistes se sont donc révélés
comme de puissants émetteurs multi-longueurs Figure 2.
2 arcsec Image de l’émission X autour
d’onde. La découverte directe d’une émission du microquasar H 1743-322.
de rayons X lors de leur interaction avec le milieu N De part et d’autre de la source
interstellaire le confirma (figure 2). Elle prouva en E
centrale, on observe deux
effet sans ambiguïté que ces jets contiennent des sources X mobiles dues
à l’interaction de bulles
S. Corbel
particules de très hautes énergies (> TeV). Une émis- 27 mars 2004 de plasma relativiste avec
sion jusqu’aux rayons gamma est possible : des le milieu interstellaire.
S. Chaty/CEA
Figure 3.
À gauche, un astre enfoui, où l'étoile à neutrons orbite près de l'étoile supergéante, constamment à l'intérieur du vent stellaire.
À droite, une « transitoire rapide », où l'étoile à neutrons, sur une orbite excentrique, pénètre régulièrement dans le vent de l'étoile.
formation de tels trous noirs. Les observations « interdites »(1). Les observations dans l’infrarouge
multi-longueurs d’onde apporteront un nouvel moyen ont montré que ces objets apparaissent
éclairage sur ces astres. Soit elles prouveront l’exis- obscurcis à cause de la présence de matériau absor-
tence d’une nouvelle classe d’objets exotiques, soit il bant (poussière et/ou gaz froid) entourant le système
faudra revoir certaines théories admises concernant binaire dans son ensemble. L'étoile à neutrons orbite
les disques d’accrétion. donc à l'intérieur d'un cocon de gaz froid formé par
le vent de l'étoile supergéante.
Des sources mystérieuses Enfin, une troisième caractéristique révélait une
À l’intérieur même de la Voie lactée, l’observatoire sous-population encore plus inhabituelle parmi
INTEGRAL a lui aussi découvert, en janvier 2003, ces objets. Certaines de ces sources présentent en
un nouveau type de sources de rayons X. Elles sont effet des sursauts d'activité très rapides, de l'ordre de
concentrées dans le plan galactique, et principale- l'heure, et se produisant de manière apparemment
ment dans la direction des bras. Un programme anarchique. Ces astres ont été nommés « transitoires
intensif d'observations a alors été lancé, et les obser- rapides de rayons X à supergéante ». L’archétype en
vatoires XMM-Newton, Chandra et Swift ont localisé est IGR J17544-2619.
précisément une trentaine des sources découvertes L'échantillon de sources étudiées s'amplifiant, il
par INTEGRAL. Les informations spectrales ont apparaît maintenant que les différences entre les astres
révélé que beaucoup d’entre elles présentent une forte enfouis et les transitoires rapides proviennent essen-
absorption intrinsèque, inhabituelle pour des astres tiellement de caractéristiques orbitales (figure 3). En
de haute énergie. Cela constitua une première effet, les astres enfouis s'apparentent aux systèmes
surprise, mais d'autres allaient suivre… binaires de grande masse classiques, contenant une
En plus de ces observations des rayons X, les astro- supergéante avec une étoile à neutrons parcourant
physiciens du CEA/Irfu ont entrepris un programme une orbite très proche, à 2 ou 3 rayons stellaires seule-
multi-longueurs d'onde afin de révéler la nature de ment. L'accrétion de matière – à partir du vent de
ces sources. Cette étude combine, pour un échan- l'étoile – se fait donc en permanence, et l'émission en
tillon de ces objets, une astrométrie précise, une rayons X est persistante. Les « transitoires rapides »
photométrie et une spectroscopie en lumière visible sont des systèmes où l'étoile à neutrons se trouve loin
et infrarouge (proche et moyen). Ici survint la de l'étoile compagnon, sur des orbites circulaires ou
deuxième surprise : la majorité de ces objets sont des excentriques. C’est lorsque l'objet compact traverse le
systèmes binaires de grande masse comprenant des vent de l'étoile, inhomogène et parsemé de grumeaux,
étoiles supergéantes – étoiles très évoluées sorties de que se produisent les sursauts rapides d'activité.
la séquence principale – alors qu'avant le lancement Quand il se trouve loin de l'étoile, en revanche, il n'y
d'INTEGRAL, la plupart des systèmes binaires massifs a pas ou peu d'émission de rayons X.
connus contenaient des étoiles Be – étoiles de la Finalement, il semble qu'il existe dans la nature un
séquence principale de type spectral précoce, en rota- continuum de ces systèmes binaires de grande masse,
tion tellement rapide sur elles-mêmes qu'elles créent dont les caractéristiques d’émission dépendent de la
un disque de matière les entourant. proximité entre objet compact et étoile compagnon,
et de la nature de l'orbite. C’est donc l’interaction
De surprise en surprise entre les deux composants du système qui régit les
Ces nouveaux astres de haute énergie semblent intrin- propriétés de ces astres de haute énergie.
sèquement obscurcis, c’est-à-dire qu’eux-mêmes
absorbent une partie de leur rayonnement. L’astre
IGR J16318-4848 en constitue un exemple extrême :
il s'agit d'une étoile à neutrons orbitant autour d'une
> Sylvain Chaty, Stéphane Corbel
et Jérôme Rodriguez
étoile supergéante d'un type spectral très rare, noté Service d'astrophysique (SAp)
sgB[e] à cause de la présence de raies d'émission Institut de recherche sur les lois fondamentales de l’Univers (Irfu)
Direction des sciences de la matière (DSM)
Unité mixte de recherche astrophysique
(1) Raies spectrales émises par un atome se désexcitant selon interactions multi-échelles (CEA-Université Paris 7-CNRS)
un mode très peu probable. CEA Centre de Saclay (Orme des Merisiers)
ESO
Le rayonnement radio (ou ondes radio)
couvre la zone des fréquences inférieures Les trois « Piliers de la création » dans la nébuleuse de l'Aigle, observés par le télescope spatial
Hubble en visible (à gauche) et en infrarouge (à droite). Le rayonnement infrarouge permet de voir
à 1 GHz, ce qui correspond à des lon- à travers les nuages.
gueurs d'onde supérieures à 30 cm. Le
domaine des micro-ondes s’étend sur la rayons X sont des ondes électroma- de détecter de nouveaux objets ou montré
gamme 30 cm (1 GHz) – 1 mm (300 GHz). gnétiques de haute fréquence dont la des objets déjà connus sous un autre jour.
Les longueurs d’onde relatives au rayon- longueur d'onde est comprise entre Cette capacité à scruter le ciel dans
nement infrarouge IR sont comprises quelques fractions de nm (0,01 nm) et toutes les longueurs d’onde doit beau-
entre 780 nm et 1 mm. Ce domaine est 10 nm. On distingue les rayons X mous coup à la mise en orbite de satellites
subdivisé en IR proche (780 nm – 2,5 m), (les plus grandes longueurs d'onde) et les voués à l’observation des astres, grâce
IR moyen (2,5 – 27 m), IR lointain rayons X durs (de petite longueur d'onde). auxquels il a été possible de s'affranchir
(27 – 100 m) et IR submillimétrique L'énergie des photons associés aux de l’absorption atmosphérique. Aujour-
(100 m – 1 mm). L'infrarouge est souvent rayons X varie entre 100 eV et 100 keV. d’hui, tous les domaines de longueurs
relié à la chaleur car, à température Les rayons gamma (␥) ont une longueur d’onde sont exploités en permanence et
ambiante, les objets émettent spontané- d’onde encore plus courte, inférieure à corrélés entre eux afin de mieux cerner
ment ce type de lumière. La lumière 0,01 nm et les photons correspondants les mécanismes physiques mis en jeu
visible est la partie du spectre électroma- ont une grande énergie, supérieure à dans les objets observés.
gnétique à laquelle l'œil humain est 100 keV. De plus, l’optique instrumentale a elle
sensible. Ce domaine couvre un intervalle Nos yeux ne perçoivent qu’une partie aussi vécu une révolution avec la cons-
de longueurs d’onde allant de 380 nm infime de toute la lumière émise par les truction de télescopes géants aptes à
(violet) à 780 nm (rouge). Les longueurs objets célestes. L’exploitation de toute la collecter la très faible lumière en prove-
d'onde du rayonnement ultraviolet UV se gamme des longueurs d’onde a ouvert nance des astres les plus lointains.
situent entre 380 nm et 10 nm. Les des fenêtres sur l’Univers, qui ont permis Suite page 32
rayons
visible
1021 1020 1019 1018 1017 1016 1015 1014 1013 1012 1011 1010 109 108 107 106 105 104
fréquence (Hz)
région visible
Figure 1.
Spectre électromagnétique.
Les ondes électromagnétiques
se répartissent en familles de
380 400 450 500 550 600 650 700 750 780 (nm) fréquences et de longueurs
d'onde diverses.
MÉMO A
Suite de la page 31 atome ne peut émettre ou absorber une redshift âge de l’Univers
Ces nouveaux télescopes se distinguent quantité quelconque d’énergie. Son ou décalage au moment de
également par l’emploi de techniques énergie n'est susceptible de varier que par vers le rouge l'émission de lumière
innovantes qui ont fait accomplir un bond paliers bien définis, qui dépendent de la (milliards d’années)
en avant à la qualité des images astro- façon dont est arrangé son cortège d’élec- 0 13,7
nomiques : l’optique active (capacité à trons. Au cours d’une émission ou d’une 0,5 8,7 (63,5 %)
déformer la surface du miroir en temps absorption d’énergie, la répartition élec- 1 6,0 (43,8 %)
réel) et l’optique adaptative (correction tronique de l’atome est modifiée. De la
2 3,4 (25 %)
des altérations de l’image dues à l’at- lumière est émise lorsqu’un électron
3 2,2 (16 %)
mosphère, obtenue par déformation du effectue une transition d’un niveau
miroir). d’énergie élevé vers un niveau d’énergie 5 1,2 (8,7 %)
situé plus bas ; l’absorption de lumière 7 0,8 (5,8 %)
Des spectres riches d'informations correspond au passage d’un électron d’un 10 0,5 (3,6 %)
Toute matière dont la température est niveau d’énergie inférieur vers un niveau
Tableau.
supérieure au zéro absolu (0 K, soit supérieur. L’ensemble de ces transitions,
Quelques valeurs représentatives de l’âge de
– 273 °C) émet des ondes électromagné- qui se manifeste sous forme de raies dans l’Univers au moment de l'émission en fonction
tiques qui forment le rayonnement ther- le spectre, est caractéristique d’un atome du redshift de la source observée.
mique. À elle seule, la température fixe la et constitue sa carte d’identité. Ces raies
puissance émise par un corps, propor- d’émission se retrouvent aussi chez les
tionnelle à la puissance quatrième de la molécules, collections d’atomes liés entre ment affecté par son mouvement relatif à
température. Ainsi, un corps dont la eux, seule la gamme de longueurs d’onde l’observateur selon le même principe qui
température absolue est 600 K (soit concernées étant affectée. Quand un gaz rend plus aigu le bruit d'un véhicule qui
environ 320 °C) rayonne une puissance est traversé par de la lumière, il peut s'approche d'un observateur et plus grave
lumineuse seize fois plus grande qu’un absorber celle dont la longueur d’onde celui de l'engin qui s'en éloigne. La varia-
corps à température ambiante (300 K, soit correspond à ses raies. Il en résulte un tion apparente de fréquence (d'autant plus
près de 27 °C). Toutes les longueurs spectre d’absorption, ensemble de raies élevée que la longueur d'onde est plus
d’onde sont présentes dans le rayonne- sombres sur un fond lumineux, une sorte courte) est proportionnelle à la vitesse
ment thermique mais en quantités de code-barres qui permet d’obtenir des relative entre l'observateur et la source.
inégales. C’est encore la température qui informations sur la source et sur le gaz La fréquence s'accroît lorsque la source
établit le spectre du rayonnement émis, absorbant. C'est ainsi que le spectre du lumineuse se rapproche de l'observateur
c'est-à-dire la répartition de l'énergie Soleil est composé d’un spectre continu (décalage vers le bleu ou blueshift) et
entre les différentes longueurs d'onde couvrant toutes les couleurs de l’arc-en- décroît lorsqu'elle s'en éloigne (décalage
présentes. Le maximum d'émission se fait ciel, sur lequel se superposent des raies vers le rouge ou redshift). Plus quantita-
pour une longueur d'onde inversement d’absorption caractéristiques des atomes tivement, le décalage spectral z est égal à
proportionnelle à la température. Autre- présents dans l’atmosphère du Soleil. la variation relative entre la longueur
ment dit, un corps émet l’essentiel de sa Si le spectre d’une source permet de d'onde observée obs et celle prévue dans
lumière pour une longueur d’onde d’au- déterminer sa température et sa compo- le référentiel au repos 0. En d’autres
tant plus élevée qu’il est froid. Notre prin- sition, il offre aussi la possibilité de termes, z = obs/0 - 1. Si z est positif, le
cipale source de lumière, le Soleil, émet mesurer bien d’autres paramètres impor- décalage est vers le rouge et si z est
son maximum de puissance pour de la tants. Ainsi, un champ magnétique sépare négatif, il est vers le bleu. Cet effet a été
lumière visible jaune dont la longueur une raie spectrale en plusieurs raies découvert de façon indépendante par le
d’onde est voisine de 0,5 m. Ceci proches (effet Zeeman). Ce décalage en Français Hippolyte Fizeau (1819-1896) et
correspond à une température de 5 770 K. longueur d’onde est mis à profit pour l'Autrichien Christian Doppler (1803-
Par ailleurs, un corps a la capacité mesurer l’intensité du champ magnétique 1853). Il est notamment utilisé pour
d'émettre de la lumière à des longueurs de certains objets astronomiques. Le connaître la vitesse de déplacement des
d’onde bien particulières. En effet, un spectre d’une source de lumière est égale- étoiles. Ce phénomène physique, nommé
de façon générale effet Doppler, est
appelé effet Doppler-Fizeau lorsqu'il s'ap-
plique aux ondes lumineuses.
Enfin, on constate que les raies du spectre
des objets lointains sont systémati-
quement déplacées vers les grandes
longueurs d'onde (vers le rouge pour le
spectre visible). Ce décalage vers le rouge
est aisément mesurable car les raies
spectrales des atomes sont identifiables
et leurs caractéristiques bien connues
Figure 2.
grâce à des mesures en laboratoire
Spectre d'une source lumineuse sans décalage des raies (en haut) et avec décalage vers le rouge
(en bas). (figure 2). Ce phénomène a été interprété
ns
io
n
io
ill
00
io
ill
0
m
ill
00
00
00
K
m
infrarouge
m
0
1
10
10
10
10
10
10
10
0,
1
1
m
nm
pm
m
nm
cm
0
m
m
nm
m
0
1m
1
1c
10
10
10
10
10
10
1
ondes radio
e
nu e
un
us
Vé cur
rn
te
Te s
e
rapporté des pierres lunaires pour les analyser dans
pt
an
tu
rr
pi
er
ar
Ne
Sa
Ur
Ju
M
M
leurs laboratoires. Des robots ont exploré Mars, étudié
sa surface, mesuré ses vents et constaté l'absence de vie.
Des sondes automatiques ont atterri sur Vénus,
d'autres ont percé ses nuages et révélé les détails de sa
La nébuleuse de la Carène. Grâce à l’observation des sites de formation d’étoiles, les astrophysiciens peuvent imaginer comment il est possible de passer
d’un nuage interstellaire à une nébuleuse proto-stellaire puis à un soleil entouré d’un disque de poussières et de gaz.
Dès que le Soleil a cessé sa contraction, un refroi- agglomérations successives demanderait des durées
dissement brutal s’est produit en un temps relative- supérieures à l'âge de l'Univers. La solution de
ment court à l’échelle astronomique. En effet, une l’énigme n’est apparue que dans les années 1970,
étoile tirant son énergie des réactions thermo- lorsque des simulations ont montré que, dans un
nucléaires se déroulant en son sein est bien moins disque de grains relativement calme, des instabilités
lumineuse qu’une proto-étoile en plein effondre- gravitationnelles locales sont inévitablement créées.
ment. Une partie importante du nuage de gaz s’est Des corps de quelques centaines de mètres se
alors solidifiée en grains d’une taille de l’ordre de forment alors par effondrement. Si au contraire la
quelques microns à quelques millimètres. En nébuleuse primitive est animée de violentes turbu-
quelques dizaines de millions d’années, la nébuleuse lences, des condensations naissent au centre des
gazeuse s’est donc transformée en un disque de tourbillons. Elles ont elles aussi une taille de
grains dont la composition chimique dépend de la quelques centaines de mètres. Bref, dans tous les cas
distance au Soleil. Au fur et à mesure du refroidis- apparaissent ces corps de quelques hectomètres,
sement, divers minéraux et glaces se sont condensés. appelés planétésimaux. Le disque de grains a donc
Les composés réfractaires du calcium, de l'alumi- cédé la place à un disque de planétésimaux.
nium, du magnésium et du titane se solidifient en Par le simple jeu de leurs collisions, ces planété-
dessous de 2 000 K. Les silicates de magnésium, le simaux s’agglomèrent en des corps d’une taille de
feldspath de sodium et de potassium, les oxydes de l’ordre de cinq cents à mille kilomètres, qui peuvent
fer le font vers 1 000 K. Vers 300 degrés au-dessus du être considérés comme des embryons de planètes. Là
zéro absolu, la vapeur d’eau se transforme en glace encore, les collisions jouent un rôle essentiel dans le
et vers quelques dizaines de degrés, des grains solides résultat final. Lorsque les vitesses relatives des deux
de méthane apparaissent. C’est pourquoi seuls les protagonistes sont faibles, ils fusionnent. Si au
éléments réfractaires et d’autres minéraux se sont contraire ils se rencontrent à grande vitesse, ils se
solidifiés près du Soleil. À la périphérie du système, fragmentent. Pour que le matériau s’accumule
au contraire, les glaces d’eau, de dioxyde de carbone, progressivement et donne naissance aux planètes, il
de méthane et d’ammoniac ont dominé la compo- faut donc des collisions relativement « douces ». Cela
sition des grains. Les variations de densité et de ne peut se produire que si les orbites des planété-
composition au sein du système actuel proviennent simaux sont presque semblables, voire, dans l’idéal,
donc des conditions de température régnant dans le qu’elles forment des ellipses concentriques. Si tel est
disque proto-planétaire. bien le cas, cependant, un corps ne peut rassembler
que le matériau se trouvant dans son voisinage
Des « grains » aux planètes immédiat. Le processus d’accrétion s’arrête assez
La création de corps tels que les planètes ou les vite. Pour qu’un objet accumule plus de matière, il
satellites à partir d’aussi petits grains de matière est doit « balayer » une plus grande partie du système,
toutefois restée longtemps mystérieuse. La crois- donc parcourir une orbite excentrique. Mais cela
sance directe de petits grains en grosses planètes par mène à une contradiction. En effet, les collisions
entre ce corps et les autres planétésimaux se produi-
sent alors à des vitesses relatives très élevées… et
aboutissent à la cassure des protagonistes. En d'au-
tres termes, à partir d'un disque de planétésimaux, il
est relativement concevable d'obtenir un système
formé d'une centaine de petites planètes, mais beau-
coup plus improbable d’obtenir quelques grosses
planètes, comme les huit qui peuplent notre système.
Saturne et ses anneaux vus à contre-jour. La planète a été photographiée par la sonde Cassini alors qu'elle masquait le Soleil. La Terre est visible en haut
à gauche. Vous êtes sur la photo !
ESO
Vue d’artiste d’un disque proto-planétaire évasé.
epuis 1995, date de la découverte de la première plus lumineuse, HD97048 est encore très jeune :
D d'entre elles, la recherche de planètes extra-
solaires a été très fructueuse. À ce jour, les astronomes
seulement 3 millions d'années, soit moins d'un
millième de l'âge du Soleil. Elle a été observée en 2006
en comptent plus de 350 à leur tableau de chasse. Les avec l’instrument infrarouge VISIR du VLT (Very
« exoplanètes » – comme d'ailleurs les planètes du Large Telescope), construit par le CEA/Irfu pour l’ESO
système solaire – se sont très probablement formées (voir Voyage dans les lumières de l'Univers, p. 90).
dans les disques de gaz et de poussière entourant les VISIR a démontré l'existence d'un disque s'étendant,
étoiles jeunes. Ces disques jouent un double rôle dans à partir de l’étoile, sur plus de 370 fois la distance entre
les scénarios actuels de formation des planètes : ils la Terre et le Soleil, soit 370 unités astronomiques
apportent la matière qui les constitue, et ils influen- (ua). Les images ont révélé une morphologie bien
cent également leur orbite. Il est donc essentiel de bien particulière : le disque n’est pas plat mais s’évase régu-
les connaître (taille, géométrie, masse, densité…) lièrement vers l'extérieur (figure 1). À sa périphérie,
pour en savoir plus sur la genèse des planètes. soit à 370 ua de son étoile, il atteint une épaisseur de
360 ua. C’est la première fois qu’une telle structure,
Une géométrie inattendue prédite par certains modèles, est directement mise en
L'observation des disques n'est pas une mince affaire. évidence autour d’une étoile aussi massive. Une telle
La présence d'un disque autour d'une étoile a, tout géométrie ne peut s’expliquer que si le disque contient
d'abord, été inférée à partir de la lumière émise par encore beaucoup de gaz, dont la masse a été estimée
le système étoile-disque. En effet, les poussières absor- à au moins 10 fois la masse de Jupiter, soit environ
bent la lumière de l’astre (essentiellement de la 1,9 .1028 kg. La grande quantité de poussière qu’il
lumière visible), chauffent et réémettent cette énergie comporte – plus de 50 fois la masse de la Terre, soit
sous forme de rayonnement infrarouge. À l'obser- près de 3.1026 kg – constitue un autre indice de sa
vation, un couple étoile-disque se signale donc par jeunesse. Selon toute probabilité, les astronomes ont
un excès d’émission infrarouge par rapport à une sous les yeux un disque similaire à la nébuleuse
étoile seule. Faire une image d'un disque est beau- primordiale autour du Soleil dans laquelle sont nées
coup plus difficile et très peu de disques ont été les planètes de notre système, donc la Terre.
résolus spatialement et cartographiés. Un des rares
à l’avoir été entoure l’étoile HD97048, située dans la La migration des planètes
constellation du Caméléon (hémisphère Sud) à une Bien avant la détection de la première planète extra-
distance de 600 années-lumière de la Terre. Deux fois solaire, les théoriciens n'étaient pas sans savoir que
et demie plus massive que le Soleil et quarante fois les planètes en formation dans les disques étaient
Figure 1.
intensité (10-1)
À gauche, image en fausses
couleurs (variant du bleu 59,1
au jaune en fonction
de l'intensité) de l'émission 38,2
infrarouge à la longueur 0,28’’
d'onde de 8,6 μm
de la matière entourant
50 ua 22,8
l'étoile HD97048. Cette
émission est beaucoup plus
étendue que celle d’une 12,1
étoile sans disque,
représentée dans l’encadré
en bas à gauche. À droite, 5,46
le centre de contour
de l'émission infrarouge
(en forme d'ellipse) 1,87
N
est nettement décalé
par rapport à la position
de l'étoile (marquée par 0,449
une flèche), indiquant que
CEA/SAp
cette structure est E 0,222
un disque incliné.
extrêmement mobiles, c’est-à-dire que leur rayon nauté des astrophysiciens s'accorde donc à penser que
orbital pouvait varier de manière considérable, par ces objets se créent beaucoup plus loin de l'astre
suite des effets de marée avec le disque. Ils savaient central, dans les régions du disque suffisamment
également que ces effets de marée avaient tendance froides pour permettre la condensation des glaces
à amener les planètes en formation au voisinage d’eau, puis sont amenés au voisinage de leur étoile par
de leur étoile centrale, leur faisant ainsi décrire effet de marée. Ce processus s’appelle la migration
une trajectoire spirale. Toutefois, ces travaux planétaire. C’est un mécanisme essentiel pour la
étaient restés assez confidentiels, aussi ce fut une formation des systèmes planétaires : sa compréhen-
surprise extraordinaire de constater que 51 Peg b, la sion en profondeur est donc cruciale.
première planète extrasolaire découverte, décrivait en
4,23 jours une orbite de seulement 0,052 ua de rayon Des itinéraires variés
autour de son étoile centrale ! À titre de comparaison, Depuis 1995, les théories de migration planétaire
Mercure, la planète la plus proche du Soleil, décrit ont énormément progressé. Initialement canton-
son orbite en 88 jours, à 0,39 ua de ce dernier. Depuis nées aux études analytiques, elles ont beaucoup
lors, les travaux des théoriciens sur les interactions bénéficié de l’avènement de calculateurs suffisam-
de marée entre disques proto-planétaires et planètes ment puissants pour prédire finement la réponse
en formation se sont retrouvés à l’avant-scène des du disque au cours des nombreuses orbites que
scénarios de formation planétaire. Il n’existe en effet décrit une proto-planète. À l’heure actuelle, il existe
aucun mécanisme viable de formation in situ de différents modes de migration d’une planète dans
planètes géantes aussi près de leur étoile. La commu- un disque. La migration de type I correspond à la
Figure 2.
Résultat d’une simulation
de l’interaction d’une
proto-planète géante
(d’une masse de
Jupiter) et d’un disque
proto-planétaire. Un sillon
(l’anneau sombre,
au travers duquel on voit
les étoiles d’arrière-plan)
a été évidé dans le disque
par la planète. Celle-ci
excite également dans
le disque un sillage spiral,
par effet de marée.
C’est la force exercée
par ce sillage qui fait
CEA
migrer la planète.
CEA-ESO
exotiques, comme la migration « emballée » (ou de 1’’ 12,8 m
type III) des planètes « sous-géantes », ou la migra-
tion « de concert », vers l’extérieur, de planètes Figure 3.
Image du disque de débris autour de l’étoile β-Pictoris, observé avec l’instrument VISIR du VLT.
géantes en résonance(2). Le Service d’astrophysique On peut notamment remarquer la dissymétrie du disque.
du CEA/Irfu, très impliqué dans l’étude de la migra-
tion planétaire, a effectué plusieurs découvertes de
premier plan. Reste toutefois une question essen- astéroïdes, puis régénérées lors de l’évaporation de
tielle : qu'est-ce qui arrête la migration planétaire ? ces comètes passant auprès de leur étoile, ou
À quoi on peut en ajouter une autre : pourquoi les lors de collisions entre astéroïdes. De tels phéno-
planètes de notre système solaire semblent-elles mènes existent d'ailleurs dans le système solaire, et
n’avoir pas migré ? les poussières ainsi créées engendrent la lumière
« zodiacale »(4).
Des débris bien utiles Ces disques de « débris » intéressent les astronomes
Le disque autour des étoiles jeunes a tendance à car une planète peut y « sculpter » des sillons, net-
disparaître sur une échelle de temps d’environ dix tement plus faciles à observer que la planète
millions d’années. En effet, une partie de la matière elle-même. En 1994, le Service d'astrophysique a
se retrouve dans les planètes, une autre est « souf- obtenu les premières images des régions centrales du
flée » au loin par la pression de la lumière émise par disque autour de l’étoile β-Pictoris. Celles-ci ont
l’étoile, une troisième tombe en spirale jusqu'à l'astre révélé une morphologie laissant supposer la
central. Si bien que les étoiles d’âge mûr devraient présence d’une planète dans le système (figure 3).
être dépourvues de disque, et seule la lumière émise Récemment, une équipe du Laboratoire d'astro-
par l’étoile devrait être observée. Et pourtant, lors- physique de l'Observatoire des sciences de
qu’en 1984 le premier satellite infrarouge américain l’Univers de Grenoble a montré qu’il y a au moins
IRAS (InfraRed Astronomical Satellite) a observé des une planète dans ce disque. S'ils ne sont pas le cocon
étoiles comme Vega ou β-Pictoris à des fins de cali- où se forment les exoplanètes, les disques de
bration, il a détecté un excès de lumière infrarouge. « débris » constituent donc au moins une aide
Comment expliquer un tel phénomène ? Y aurait-il précieuse pour les repérer.
encore des poussières autour de ces étoiles ? Eh bien L'étude des disques, structures relativement ténues,
oui, comme l’ont très vite confirmé des observa- repose sur le pouvoir de résolution du télescope,
tions dans le visible de l’étoile β-Pictoris, qui ont c'est-à-dire la finesse des détails qui peuvent être
révélé la présence d’un disque résolu autour de observés. Or, cette résolution dépend directement
l’étoile(3). du diamètre du miroir. En effet, étant donné le
Comment réconcilier cette observation avec les phénomène de diffraction de la lumière, l’image
théories qui prédisaient l’absence de poussière ? d’un objet ponctuel à travers un télescope n’est pas
Les quantités de poussière en jeu sont très faibles, un point, mais une tache : la tache de diffraction.
bien plus faibles que celles contenues dans les Plus grand est le diamètre du télescope, plus petite
disques proto-planétaires. Ce ne sont d'ailleurs pas sera cette tache. L'image d’une étoile à travers
des poussières primaires : elles ont été « stockées » l’E-ELT (European-Extremely Large Telescope ; voir
dans des corps célestes comme des comètes ou des ELT/METIS, un géant de 42 mètres, p. 110), télescope
européen de 42 mètres de diamètre qui entrera en
(1) Demi-grand axe : segment (imaginaire) qui joint le centre service en 2018, aura ainsi une surface 25 fois
d'une ellipse au bord en passant par un des foyers. moindre que celle des images produites par le VLT.
(2) Une résonance a lieu lorsque deux objets orbitant autour Ce sera donc un instrument extraordinaire pour
d'un troisième ont des périodes de révolution dont le rapport
forme une fraction entière simple (par exemple 2/3 pour l’étude des disques !
Neptune et Pluton autour du Soleil).
> Pierre-Olivier Lagage,
(3) Cette lumière visible provient de l'étoile et est simplement
Frédéric Masset et Éric Pantin
diffusée par les poussières, contrairement à la lumière
Service d'astrophysique (SAp)
infrarouge qui est émise par ces poussières elles-mêmes.
Institut de recherche sur les lois fondamentales de l’Univers (Irfu)
(4) Lumière zodiacale : faible lueur visible dans le ciel Direction des sciences de la matière (DSM)
nocturne, s'étendant le long du plan de l'écliptique à partir Unité mixte de recherche astrophysique
des environs du Soleil, peu après le coucher ou avant le lever interactions multi-échelles (CEA-Université Paris 7-CNRS)
de celui-ci. CEA Centre de Saclay (Orme des Merisiers)
Notre Galaxie, la Voie lactée, a la forme d'une belle spirale bien dessinée. Ce disque en
rotation composé de gaz et de plus de deux cents milliards d'étoiles est en effet parcouru,
très lentement, par des ondulations où se concentrent les étoiles les plus jeunes et les plus
lumineuses, qui matérialisent ainsi la forme visible des bras spiraux. Au centre, un bulbe
sphérique au cœur duquel se tapit un trou noir supermassif. Le tout s’entoure d’un vaste
halo de matière noire. Toutes les galaxies de l'Univers ne suivent pas un modèle aussi
ordonné. Certaines, dites elliptiques, adoptent une forme plus sphérique et comprennent
essentiellement de vieilles étoiles aux trajectoires chaotiques. Comment se sont formées
ces deux populations ? Pour retracer l’évolution des galaxies, les astrophysiciens traquent
les objets les plus anciens de l’Univers. Entre évolution spontanée pour les galaxies spirales
et succession de collisions pour les elliptiques, des scénarios se dessinent. De nombreux
paradoxes et mystères demeurent cependant : l’histoire des galaxies n’est pas encore écrite.
d’autres galaxies
où naissent les étoiles
à un rythme plus
ou moins élevé.
observateur du ciel nocturne connaît bien la sur environ 100 000 années-lumière de diamètre. Les
L’ Voie lactée, cette bande luminescente qui
parcourt la voûte céleste. Notre Galaxie nous apparaît
plus récentes mesures situent le système solaire à
26 000 années-lumière du centre, endroit où la Galaxie
ainsi puisque c’est un disque vu de l’intérieur. a une épaisseur de l'ordre de 2 500 années-lumière.
Les astronomes en savent aujourd’hui beaucoup plus
sur sa forme réelle. Sa composante stellaire(1) s'étend (1) La partie visible comprenant les étoiles.
Il s'agit d'une galaxie spirale, c'est-à-dire que le gaz dans les nurseries stellaires, p. 17). Par exemple, la
qui la compose n'est pas réparti uniformément dans présence d’étoiles bleues, donc massives et de courte
le disque mais dessine plusieurs bras spiraux durée de vie, dans une région donnée, indique une
s'enroulant autour du centre (figure 1). En fait, cette formation d’étoiles récente, comme dans l’amas des
apparence est un leurre. En effet, ces bras sont des Pléiades, connu des astronomes amateurs.
structures transitoires, matérialisant dans le disque Les étoiles de notre Galaxie furent historiquement
la propagation de zones de compression dues à la classées en deux populations caractérisées par leurs
rotation différentielle des étoiles et du gaz autour du âge, composition chimique et trajectoire. La popu-
centre galactique(2). Ces ondes de densité balayent lation I regroupe les étoiles qui suivent la rotation du
notre Galaxie comme la houle traverse l'océan. Au disque, en particulier des objets jeunes, riches en
maximum de densité – à la « crête » de la houle – le éléments lourds. Ce sont eux qui affectent la
gaz se transforme en étoiles, créant ainsi la structure physique du milieu interstellaire. La population II
observable qui fait de la Galaxie une « spirale ». rassemble de vieilles étoiles, contenant peu d’élé-
La « faune » galactique se répartit en trois grandes ments lourds, souvent regroupées en amas globu-
catégories : les galaxies elliptiques, spirales, et irré- laires, distribuées dans le halo et parcourant des
gulières ou naines. Ces morphologies traduisent des trajectoires chaotiques. Elles constituent les vestiges
différences fondamentales dans l'histoire des galaxies. de la première vague de formation d’étoiles de la
Par exemple, la majeure partie des étoiles peuplant Galaxie, lorsque celle-ci n’était encore qu’une sphère
les galaxies elliptiques sont apparues il y a une dizaine de gaz en contraction. À l’opposé, la population I est
de milliards d'années, alors que dans les galaxies constituée des étoiles créées après le disque.
spirales les astres continuent à se former aujourd'hui.
Ainsi la Voie lactée contient-elle à la fois des amas … et le reste
d'étoiles dont l'âge est comparable à celui de Les étoiles constituent de loin la composante la plus
l'Univers et d’autres encore en gestation. Le cœur de importante d’une galaxie en termes de puissance
la Galaxie est particulièrement intéressant du point rayonnée, mais pas la seule. Ces concentrations très
de vue de la formation des étoiles. En effet, par le jeu compactes de matière sont en effet très éloignées les
de la gravitation et de la dynamique galactique, c'est unes des autres. Le milieu interstellaire occupe donc
là que se concentrent de grandes quantités de gaz, de l’essentiel du volume Galactique. Et pourtant, avec
formidables forces de compression et un trou noir
supermassif, le tout donnant naissance à la région la
plus active de la Voie lactée, souvent prise comme phase du milieu densité température fraction
modèle pour l'étude de galaxies actives distantes (voir interstellaire (cm-3) (K) du volume (%)
Un trou noir mystérieux, p. 48).
milieu inter-nuage 0,003 1 million 50
Les étoiles… chaud
Mais qu’y a-t-il dans une galaxie ? D’abord des milieu neutre tiède 0,5 8 000 30
étoiles, bien sûr. Un observateur entraîné peut en milieu ionisé tiède 0,1 8 000 25
distinguer quelque 4 000 à l’œil nu, mais notre
milieu neutre froid 50 80 1
Galaxie en contient environ 200 milliards. Leur
masse détermine la plupart de leurs caractéristiques : nuages moléculaires > 200 10 0,05
luminosité, couleur, durée de vie… (voir Voyage régions HII de 1 à 100 000 10 000 > 0,05
Tableau.
(2) À titre d'exemple, à la position du Soleil (26 000 années- Les différentes phases du milieu interstellaire et leurs propriétés caractéristiques.
lumière du centre), la vitesse de rotation du disque est de Les nuages interstellaires des régions HII sont principalement composés d'hydrogène dont
l'ordre de 200 km par seconde. Notre système solaire effectue la plupart des atomes sont ionisés par le rayonnement ultraviolet d’étoiles de type spectral O
un tour de Galaxie en 250 millions d'années. et B, tandis que ceux des régions HI sont constitués d'hydrogène atomique neutre.
Figure 2.
X UV visible infrarouge submillimétrique radio
Spectre électromagnétique
d'une galaxie (en noir), énergie absorbée
résultant de l’émission : des dans le HI
poussière dans le HI
étoiles les plus massives puissance émise L [luminosité solaire] énergie
(en bleu) ; du gaz des absorbée
régions qu'elles ionisent (en dans le HII
jaune) et de la poussière 108
mêlée à ce gaz (en violet) ; grains chauds
dans les régions HII
des autres étoiles (en
rouge) et de la poussière poussière froide dans les
interstellaire chauffée par nuages moléculaires
ce rayonnement (en
mauve) ; de la poussière étoiles OB gaz atomique
106 et ionisé
dans les nuages les plus (HII)
denses (en vert) et du
rayonnement des particules
chargées dans le champ étoiles non
ionisantes (HI)
magnétique (en bordeaux). rayonnement
Les zones hachurées synchrotron
correspondent à la fraction 104
de l'émission absorbée
in situ pour produire
les émissions
interstellaires. Chaque
motif (raies, bandes
10 nm 100 nm 1 m 10 m 100 m 1 mm 1 cm 10 cm 1m
d'émission, brisures du
continuum) de ce spectre
renseigne sur la physique longueur d’onde
des galaxies.
une densité moyenne de seulement un atome pour puisqu’il absorbe environ un tiers de la puissance
3 centimètres cubes, il ne représente que 3 % de la stellaire et la réémet à des longueurs d’onde supé-
masse stellaire(3). Il est constitué d’atomes neutres ou rieures – donc à moindre énergie. Dans certaines
ionisés, de molécules et de particules solides de galaxies, dites « à flambée de formation d’étoiles »,
quelques dixièmes de microns, voire moins : les cette fraction peut atteindre 99 %.
grains de poussière. En fait, loin d’être homogène, L’interaction entre le rayonnement stellaire et le
le milieu interstellaire comporte différentes régions milieu interstellaire, phénomène très complexe,
de densités et températures variées (tableau). Malgré recèle une grande richesse d’informations (figure 2).
sa faible masse, le milieu interstellaire joue un rôle Grâce aux spectres galactiques, les astrophysiciens
capital dans l’équilibre énergétique de la Galaxie, peuvent appréhender à distance la composition et
l’état physique de différentes régions galactiques. La
(3) Cette densité représente un vide extrême comparé à notre forme de l’émission continue des grains indique
atmosphère, qui comporte 1022 atomes par centimètre cube. ainsi leur abondance et l’intensité du rayonnement
stellaire qu’ils subissent, alors que les raies émises
par les atomes et molécules dénotent la composition
nuage moléculaire populations stellaires
de la phase gazeuse, sa densité et sa température.
Finalement, cet inventaire ne serait pas complet sans
formation AGB
stellaire étoiles la mention d’une composante encore incomprise à
massives l’heure actuelle : la matière noire. Elle représente
perte de
masse probablement 70 % de la masse totale mais n’émet
ionisation
du milieu aucun rayonnement électromagnétique et ne se
évolution He manifeste que par sa gravité. Historiquement, elle a
H
stellaire O
C Si d’ailleurs été révélée indirectement par son effet sur
N
supernova la rotation des galaxies. Sa présence n’affecte pas la
éléments
microphysique du milieu interstellaire. En revanche,
elle est capitale pour comprendre la formation des
érosion et
recyclage fragmentation galaxies et leur dynamique (voir Formation des
galaxies : une histoire paradoxale, p. 56 et
grains La morphogenèse des galaxies, p. 60).
AX J1745.6-2901
(1) Le centre dynamique et de symétrie de 35 années-lumière
notre Galaxie est situé dans l’hémisphère
céleste austral, à environ 26 000 années-lumière
de la Terre. Figure 2.
(2) Rayon d'horizon : surface sphérique Le centre de la Galaxie vu par le télescope XMM-Newton en avril 2007 (caméra EPIC PN, rayons X
entourant la singularité centrale d’un trou noir. de 2 à 10 keV), avant (à gauche) et pendant (à droite) une éruption X de Sgr A*. La position de
Rien de ce qui pénètre à l’intérieur, pas même la source radio Sgr A* est indiquée et témoigne que l’éruption X est bien associée au trou noir –
la lumière, ne peut s’en échapper. non pas à d’autres objets comme la source AX J1745.6-2901.
Un déficit d’émissions
Malgré son éclat radio remarquable, cet
objet émet une puissance totale très infé-
rieure aux prévisions. C’est pourquoi les
astronomes des hautes énergies cher-
chent depuis trois décennies sa contre-
partie dans les domaines X et gamma,
ESO
rayons énergétiques émis par les régions
internes et chaudes du flot d’accrétion et
qui portent les stigmates des effets rela-
tivistes dus au trou noir. En 1999, l’ob-
servatoire X Chandra de la NASA a enfin
décelé une faible émission X persistante.
Un milliard de fois moins intense que
prévu, elle indique que la matière n’est
pas accrétée au taux attendu. Néanmoins
la découverte la plus spectaculaire de ces
dernières années a été la détection, en
2000 et dans les années suivantes, de
violentes éruptions X au cours desquelles
la luminosité augmente jusqu'à 150 fois
durant quelques heures.
Des équipes du Service d’astrophysique
du CEA/Irfu et de l’APC ont étudié
plusieurs éruptions de Sgr A*, en mesu-
rant simultanément les émissions X
(observatoire spatial XMM-Newton de
ESO
l'ESA), infrarouge (télescope VLT de l’ESO
au Chili) et gamma (télescope IBIS de Image du centre galactique prise avec la caméra infrarouge NACO montée au foyer du télescope
Yepun du Very Large Telescope (VLT) de l’ESO, installé sur le mont Paranal au Chili. Elle montre
l’observatoire spatial INTEGRAL de les étoiles les plus lumineuses de la région qui nourrissent, avec leurs puissants vents stellaires,
l'ESA) ; voir Voyage dans les lumières de le trou noir central.
l'Univers, p. 90. La dernière campagne a
observé, en X et en infrarouge proche, la
deuxième plus brillante éruption connue
de Sgr A* (figure 2). L’absence de signal
gamma à cette occasion indique que
l’émission gamma du centre galactique,
récemment découverte par INTEGRAL
(figure 3), n’est pas directement liée à ces
éruptions. Elle révèle néanmoins la
présence d’un puissant accélérateur
cosmique de particules, dont la relation
avec le trou noir central reste à élucider.
Il faudra attendre la mise en opération de
télescopes spatiaux X/gamma de nou -
velle génération pour en savoir plus
(voir Simbol-X, pionnier des vols en
formation, p. 108).
G. Bélanger/CEA
Élucider le mécanisme
d'accélération des rayons cosmiques
Les galaxies baignent dans un flux de particules électriquement chargées se
déplaçant à des vitesses comparables à celle de la lumière : les rayons cosmiques.
Le processus de leur accélération recèle encore des mystères, mais il est
communément admis que l'énergie nécessaire provient des supernovae.
es rayons cosmiques ont été baptisés ainsi lors milieu interstellaire, les supernovae. C’est donc là,
L de leur découverte au début du 20 siècle.e
NASA, ESA, L. Bradley (JHU), R. Bouwens (UCSC), H. Ford (JHU), and G. Illingworth (UCSC)
L’amas de galaxies
Abell 1689 où une galaxie
très éloignée avec un
décalage spectral
d’environ 7,6
a probablement été
découverte.
L’étude des premières
galaxies est un sujet
de recherche active
extrêmement fascinant.
filtres optiques
Reconnaître les objets très éloignés U300 B450 V606 I814
Le fond diffus cosmologique, émis par un Univers âgé
de 380 000 ans, a une valeur de z légèrement supé-
rieure à 1 000. Pour la plupart des galaxies et étoiles
recensées, z varie de 0 à 3. Cette dernière valeur 2 000 4 000 6 000 8 000 10 000
correspond à un Univers âgé d’environ 2,2 milliards longueur d’onde observée (Å)
d’années. Les cosmologistes considèrent que les
galaxies « normales », comme les spirales compara-
bles à notre Voie lactée ou les galaxies elliptiques très
massives (par exemple M87 dans l’Amas de la Vierge),
se sont formées après cette date. Les « premières
galaxies » auraient, elles, un décalage spectral supérieur
à 3. Malheureusement, il devient très difficile, avec les
instruments existants, de localiser et étudier des
galaxies au-delà de cette limite. Il faut braquer les plus
grands télescopes sur une même région pendant de
longues périodes(1). Cela donne des images certes très
« profondes » mais comportant tellement de galaxies
J1250+3130 z = 6,13 émis entre 912 et 1 216 Å (figure 2). La galaxie la plus
J1602+4228 z = 6,07 lointaine connue, dont le décalage spectral vaut 6,96,
présente une discontinuité vers 10 000 Å, donc située
J1630+4012 z = 6,05 dans le proche infrarouge(4).
J1137+3549 z = 6,01
La course aux premières galaxies
J0818+1722 z = 6,00 À l’heure actuelle, les astronomes ont recensé plusieurs
milliers de galaxies présentant un décalage spectral
J1306+0356 z = 5,99
d’environ 3, plusieurs centaines d’autres avec une
J1335+3533 z = 5,95 valeur de z proche de 6, mais seulement une poignée
de galaxies dont le redshift dépasse 6,5. Encore ne
J1411+1217 z = 5,93 s’agit-il que de « candidats galaxies » : plusieurs types
J0840+5624 z = 5,85 d’objets pourraient présenter des couleurs similaires
à celles produites par les discontinuités de Lyman à un
(FAN XIAOHIU et al., The Astronomical Journal, 132, p. 117-136, 2006)
Il faut la compléter par des études spectroscopiques dans la population I, et les étoiles plus anciennes et plus
afin de déterminer leur distance sans ambiguïté. pauvres en métal, situées dans le bulbe galactique,
Relativement aisé pour des galaxies de décalage spectral dans la population II (voir La vie des galaxies actives,
proche de 3, le processus devient très long et souvent p. 44). Cependant, selon certaines théories, lorsque de
irréalisable au-delà de z = 6. Il devient également de la matière gazeuse fut convertie en étoiles pour la
plus en plus difficile d’étudier les propriétés de ces première fois, des types très différents d'étoiles ont été
galaxies très éloignées. Certains scientifiques ont créés. En l’absence de métaux (éléments plus lourds
déclaré avoir découvert des galaxies jusqu’à z = 7,5, ce que l’hydrogène et l’hélium), il ne pouvait se former
qui semble tout à fait plausible, même s’il n’est pas que des étoiles très massives : plusieurs centaines de
encore possible de le confirmer par la spectroscopie fois la masse du Soleil. Le spectre de tels objets
(figure 3). Des revendications encore plus audacieuses comporterait nécessairement des raies d’émission très
font état de galaxies présentant des décalages spectraux intenses de l'hélium. Or, malgré des efforts continus,
de 10 voire de 12, mais ces découvertes restent contro- rien de semblable n’a été observé à ce jour. La fabri-
versées. cation et la dissémination d’éléments lourds ont donc
probablement eu lieu très tôt dans l’histoire de
Une ionisation mystérieuse l’Univers. La découverte d’étoiles de population III
S’il est fascinant de rechercher les galaxies les plus éloi- demeure cependant un objectif important. Elle
gnées, les astronomes ne sont pas mus par le seul désir permettrait de comprendre et étudier l’Univers à un
de repousser les limites de l’Univers connu. Il s’agit moment où la majeure partie du gaz était à son état
aussi de répondre à certaines questions scientifiques originel, juste après la formation des premiers
fondamentales. Par exemple, l’observation du fond éléments chimiques (hydrogène et hélium) par le big
diffus cosmologique a révélé que l’hydrogène de bang. Les astrophysiciens attendent beaucoup du
l’Univers a été ré-ionisé à une époque correspondant lancement du télescope spatial James Webb, au cours
à un décalage spectral d’environ 11. Autrement dit, de la prochaine décennie (voir JWST : regard sur un
l’hydrogène était essentiellement neutre de z = 1 000 à passé de treize milliards d'années, p. 102). Ils espèrent
z = 11, puis principalement ionisé de z = 11 à aujour- trouver alors quelles sortes d’objets ont ré-ionisé
d’hui (z = 0). Pour ioniser la plupart des atomes, il est l’Univers, et démontrer l’existence des étoiles de popu-
nécessaire de leur apporter de l’énergie et d'arracher lation III.
leurs électrons. Cette énergie est supposée être fournie Enfin, la plupart des techniques de détection utilisées
par le rayonnement ultraviolet émis par les premiers à ce jour, basées sur le rayonnement ultraviolet, ne
objets formés. Des photons ayant des longueurs d’onde peuvent s’appliquer qu’à des objets dont l’émission ne
inférieures à 912 Å sont indispensables au processus. traverse pas de la poussière cosmique, laquelle absorbe
Reste à trouver les sources du rayonnement ultraviolet. ce type de photons. Très récemment, des astrophysi-
De tels photons pourraient provenir d’étoiles en forma- ciens du CEA ont identifié des galaxies géantes produi-
tion ou de l’accrétion de matière sur les premiers trous sant des étoiles à des valeurs de z très élevées, parfois
noirs supermassifs. Pour corroborer ces idées, il supérieures à 4, grâce à la détection du continuum
faudrait démontrer qu’il y a suffisamment de sources émis par la poussière. Beaucoup d’objets de ce type
à un décalage spectral très élevé pour ré-ioniser pourraient exister, même s’ils présentent des taux de
l’Univers. Or les astronomes sont encore bien loin de formation d’étoiles plus faibles que les galaxies
cet objectif. Même à des redshifts plus faibles, aux envi- extrêmes découvertes à ce jour. Le télescope spatial
rons de 6, il n'a pas été détecté suffisamment de Herschel, lancé en mai 2009, (voir Voyage dans les
galaxies. Des recherches intensives s’efforcent aujour- lumières de l'Univers, p. 90) et ultérieurement la mise
d’hui de résoudre cette énigme. Les théories les plus en service du radiotélescope géant ALMA (Atacama
courantes suggèrent qu’il existe d’innombrables petites Large Millimeter Array) au Chili ouvriront de nouvelles
galaxies, non encore découvertes, produisant la quan- perspectives de recherche pour identifier et étudier
tité de rayonnement ultraviolet requis. des premières galaxies obscurcies par la poussière.
Étoiles et poussière
La recherche en matière de galaxies distantes tente
> Emanuele Daddi
Service d'astrophysique (SAp)
actuellement d’éclaircir un autre mystère, tout aussi Institut de recherche sur les lois fondamentales de l’Univers (Irfu)
fascinant : celui des étoiles de population III. Direction des sciences de la matière (DSM)
Unité mixte de recherche astrophysique
Historiquement, les astronomes ont regroupé les interactions multi-échelles (CEA-Université Paris 7-CNRS)
étoiles riches en métal des bras spiraux de la Voie lactée CEA Centre de Saclay (Orme des Merisiers)
a pointe d’un stylo tenu à bout de bras ne cache supermassif, les explosions d’étoiles… Les rayonne-
L qu’une infime fraction de la voûte céleste. Et
pourtant, les récentes images profondes du ciel ont
ments de basse énergie, comme l’infrarouge ou les
ondes radio, révèlent les cocons de poussière (là où
détecté tellement de galaxies qu’il en « tiendrait » naissent les étoiles), le gaz interstellaire et les restes
près de 2 000 derrière cette seule pointe de stylo ! de supernovae. Les étoiles formées rayonnent la
Rapportées à l’ensemble du ciel, ces observations majorité de leur lumière dans le domaine du visible
indiquent que l’Univers contient au moins ou de l’ultraviolet (voir Mémo A, Sonder l'Univers
120 milliards de galaxies. Les galaxies sont donc à sur toute la gamme lumineuse, p. 31). Ainsi, selon
l'Univers ce que les étoiles sont aux galaxies, puisque la couleur dans laquelle est observée une galaxie, sa
la Voie lactée contient 230 milliards d’étoiles. La forme, sa morphologie, sa composition changent.
lumière des plus lointaines a mis près de 13 milliards Au cours des dernières années, ces observations
d’années, soit 95 % de l’âge de l’Univers(1), à parvenir multicouleurs ont révolutionné la connaissance
aux observateurs. Les scientifiques voient donc scientifique de l’évolution des galaxies (encadré)…
aujourd’hui les galaxies telles qu’elles étaient à diffé- et fait naître de nouvelles questions, parfois à la
rentes époques du passé. En combinant toutes ces limite du paradoxe.
informations, ils tentent de dresser une sorte de
« portrait-robot » de la galaxie-type à différents (1) Lorsque les astronomes parlent de l'âge de l’Univers,
ils font référence au temps qui s'est écoulé depuis le big bang
moments de l’histoire, reconstituant ainsi le scénario qui est estimé à 13,7 milliards d’années. Le véritable âge
de la formation des galaxies. de l'Univers reste inaccessible car les théories actuelles
Pour cela, ils doivent observer le ciel dans toute ne permettent pas d'étudier l'Univers au-delà du big bang.
l’étendue – toutes les longueurs d’onde ou (2) Pour comprendre complètement l’histoire des galaxies,
il faut aussi prendre en compte leur environnement. En effet,
« couleurs » – du spectre électromagnétique, car la plupart d’entre elles (environ 90 %) sont concentrées en
chaque processus cosmologique émet des rayonne- groupes de quelques unités, et le reste (près de 10 %) en amas
ments dans un domaine particulier(2). Les rayons de de plusieurs centaines de galaxies. De plus, les modèles
haute énergie (X et gamma) proviennent ainsi des théoriques suggèrent qu’entre les galaxies elles-mêmes existent
des ponts de gaz, sortes de filaments invisibles (jusqu’à
événements les plus chauds, donc énergétiques, aujourd’hui mais peut-être les observera-t-on dans le futur)
comme le gaz chauffé en tombant dans un trou noir qui les nourrissent.
Debra Meloy Elmegreen (Vassar College) et al., NASA, ESA, and The Hubble Heritage Team (STScI)
Fusion de deux galaxies spirales vues de face. Dans quelques milliards d'années, la grande galaxie spirale de gauche (NGC 2207) aura avalé sa proche voisine
(IC 2163) et il deviendra difficile de retrouver la trace de cet événement dans la future galaxie.
Univers galaxies
Figure 1.
Comparaison de énergie noire matière noire sphéroïdes disques
la répartition des 24 % 24 %
72 % 74 %
composantes
énergétiques de l’Univers
(à gauche) et des
galaxies en types
morphologiques (à
droite). Le parallèle est
frappant mais rien ne
permet à l'heure actuelle
d'y voir autre chose
qu'une coïncidence.
Énergie noire, « composante rouge » d’étoiles jeunes, massives et chaudes, par opposition
et autres énigmes aux galaxies elliptiques, composées uniquement
Il semble aujourd’hui qu'environ 72 % du contenu d’étoiles vieilles et froides. La répartition de la
énergétique de l’Univers soit de nature encore matière dans les galaxies en composantes bleue
inconnue (figure 1). Cette énergie noire accélère (disques, 24 %) et rouge (sphéroïdes, 74 %) rappelle
l’expansion de l’Univers et empêche la formation de celle à plus grande échelle observée dans l’Univers
nouveaux amas de galaxies. À plus petite échelle, entre matière noire (24 %) et énergie noire (72 %)
dans les galaxies, on constate que dans près de 74 % (figure 1). Il ne s’agit que d’une analogie quantita-
des galaxies (proportion en masse) un mécanisme a tive, sans lien physique, mais elle rappelle aussi
empêché l'apparition de nouvelles étoiles. Ces qu’aux deux échelles, l’Univers semble aujourd’hui
galaxies elliptiques ou bulbes de galaxies ont une dominé par des forces qui s’opposent à la formation
couleur rouge car leurs étoiles sont vieilles et froides. de nouvelles générations d’étoiles.
Si la question de la nature de l’énergie noire est
devenue l’un des enjeux majeurs de l’astrophysique, Des étoiles à profusion
il en est de même pour la quête du mécanisme qui a Une minorité de galaxies présente une morphologie
provoqué la mort prématurée des galaxies rouges. moins tranchée que les autres : les galaxies irrégu-
Autre énigme : sur les 4 % de matière baryonique(3), lières. Les Nuages de Magellan, tout proches de la Voie
c’est-à-dire d’atomes, qui participent au contenu lactée, en sont un bon exemple. Il existe une compo-
énergétique de l’Univers, seul un dixième (donc sante encore plus minoritaire, mais particulièrement
0,4 % du total) appartient à des étoiles. La formation intéressante pour les astrophysiciens : les « galaxies
d’étoiles dans les galaxies a donc été un processus lumineuses dans l’infrarouge » ou LIRGs. Alors que la
remarquablement inefficace. Pourquoi la plupart très grande majorité des galaxies de l’Univers local
(90 %) de la matière baryonique est-elle restée sous génère des étoiles à raison de quelques soleils par an,
la forme de gaz ? Pourquoi ce gaz, pourtant supposé voire moins, les LIRGs vivent des « flambées de forma-
être attiré par les galaxies, ne tombe-t-il pas dans les tion d’étoiles », engendrant plusieurs dizaines voire
sphéroïdes (voir La morphogenèse des galaxies, p. 60) centaines de masses solaires par an.
pour y faire naître de nouvelles étoiles ? Il a fallu observer le ciel dans l’infrarouge lointain
pour découvrir ces flambées de formation d’étoiles
Matière noire restées invisibles jusqu’alors. En effet, les étoiles
et formation des galaxies massives ne vivent pas assez longtemps pour sortir du
Une galaxie est globalement une structure consti- nuage moléculaire géant qui leur a donné naissance,
tuée de gaz, d’étoiles et d’un halo de matière noire. et leur lumière visible et ultraviolette est absorbée par
La matière noire produit l’effet inverse de celui de la poussière du nuage. Cette dernière, chauffée,
l’énergie noire. Elle accélère la formation des struc- rayonne à son tour dans l’infrarouge lointain(4). Le
tures dans l’Univers. Elle peut être considérée comme
un bol dans lequel la soupe de matière baryonique
est maintenue bien au chaud. Elle-même ne rayonne (3) Matière baryonique : le terme « baryon » vient du grec
barys qui signifie « lourd ». Théoriquement ce terme désigne
pas, mais elle participe à la croissance des structures les particules lourdes, principalement les protons et
par l’effet de sa force gravitationnelle. les neutrons, mais il est utilisé en cosmologie pour désigner
Sans elle, nous ne saurions pas expliquer l’origine des la matière standard – qui comporte les protons et les neutrons
(constituants des noyaux atomiques), mais aussi
galaxies, car la quantité de matière standard n’est pas les électrons - donc les atomes d’une manière générale.
suffisante pour décrire la formation des galaxies. On la distingue de la matière « non baryonique », principale
Encore aujourd’hui, près de 24 % de la matière composante (supposée) de la matière noire. Les particules non
contenue dans les disques de galaxies continue de baryoniques restent à découvrir. Elles ne seraient sensibles
qu'à l’interaction gravitationnelle, ce qui expliquerait
donner naissance à des étoiles. Ces régions se distin- pourquoi elles n’obéissent pas à la même physique que les
guent par leur couleur bleue qui indique la présence particules baryoniques et donc ne rayonnent pas de lumière.
ESA
Figure 2.
Le fond diffus infrarouge mesuré par le satellite de la NASA COBE (à gauche) et sa résolution en galaxies individuelles par
le satellite de l’ESA ISO (à droite).
satellite infrarouge américain IRAS (InfraRed phénomène suggèrent que la proportion d’étoiles
Astronomical Satellite, 1985, miroir de 57 cm de créées au cours du temps est pratiquement égale à la
diamètre) a donc découvert les LIRGs, qui seraient fraction de l’âge de l’Univers. Or, il a été montré par
probablement restées anecdotiques sans l’envoi par ailleurs que le rôle des LIRGs a été dominant au cours
l’ESA du satellite ISO (Infrared Space Observatory, de la majorité de l’histoire de l’Univers – ce qui reflète
1995, miroir de 60 cm) avec à son bord la caméra
ISOCAM, réalisée sous la maîtrise d’œuvre du CEA. % âge de l’Univers
À la fin des années 1990, une équipe française de
l’Institut d’astrophysique spatiale (à Orsay) décou- 100 43 24 16 11 8
1
vrait, grâce au satellite américain COBE (COsmic
Background Explorer), l’existence d’un fond de lumière
masse d'étoiles/an/volume
déclinaison ␦ (J2000)
+60
58,0” 58,0”
+30
59,0” 59,0” 0
-30
-27°47’ 00,0” -27°47’ 00,0”
-60
01,0” 01,0” vitesse (km/s)
F. Bournaud/CEA/NASA/ESO
résolution
02,0” 02,0”
43,9s 43,8s 3h 32min 43,7s 43,6s 43,5s 43,9s 43,8s 3h 32min 43,7s 43,6s 43,5s
ascension droite ␣ (J2000) ascension droite ␣ (J2000)
Figure 1.
Une galaxie de l’Univers jeune (UDF 6462, z = 1,57) observée par le télescope spatial Hubble (à gauche). La spectroscopie au Very Large Telescope (ESO)
révèle son champ de vitesse (à droite). Les régions s’approchant de nous sont en bleu et celles s’éloignant en jaune-orange. Malgré sa forme très
irrégulière, cette galaxie est une future galaxie spirale surprise en pleine phase d’assemblage de son disque et de son bulbe central.
Une gigantesque toile d’araignée. C’est ainsi que se présente aujourd’hui l’Univers.
Essentiellement vide et froid, il est peuplé de galaxies concentrées le long de filaments
aux croisements desquels se trouvent les plus gros objets connus : les amas de galaxies.
Comment une structure aussi définie a-t-elle pu apparaître ? Le rayonnement fossile datant
des premiers âges de l’Univers montre au contraire une « soupe » chaude, dense
et homogène dans toutes les directions. D’infimes variations locales de densité auraient
donné naissance aux futurs objets, principalement par le jeu de la gravité ralentie par
l’expansion. Le moteur de cette évolution est la force de gravité qui conduit la fameuse
matière noire, toujours mystérieuse, à s'effondrer dans de grandes structures filamentaires
où la matière « ordinaire » est à son tour entraînée. Étonnamment, alors que tant de
questions demeurent ouvertes, celles de la forme et de la finitude de l’Univers pourraient
recevoir rapidement des réponses.
Vue d'artiste
des observations, par
le satellite Planck, du fond
diffus cosmologique,
ce rayonnement fossile dans
le domaine des micro-ondes
qui baigne tout l’Univers.
Dans cette image, la Terre
est placée au centre
de la sphère céleste.
C. Carreau/ESA
Le satellite, à chaque
rotation, observe (peint) sur
la sphère céleste la carte
du fond diffus cosmologique.
chaud et dense
(1032 K)
par mètre cube. À l’ombre du rayonnement des
astres brillants, la température du rayonnement ne (1029 K) épisode d’inflation
dépasse pas 2,763 K, soit environ -270 °C. Enfin, PHYSIQUE DES
HAUTES ÉNERGIES
l’Univers est en expansion : dans toutes les direc-
1 minute formation des
tions, les galaxies lointaines s’éloignent les unes (1 milliard de K) premiers noyaux PHYSIQUE NUCLÉAIRE
des autres.
380 000 ans
Il n'en a pas toujours été ainsi. Un observateur (3 000 K) ASTROPHYSIQUE
imaginaire remontant le temps verrait l'Univers se
400 millions
contracter, et devenir plus dense, « se compresser ». d’années
Un physicien sait que lorsque l'on compresse de la
matière, sa température augmente. Il en est de même
pour l'Univers : il y a 13 milliards d'années, sa densité
était telle que sa température atteignait celle de la
surface du Soleil. Dans ces conditions, la matière ne
se présente plus sous forme d'atomes mais de
plasma, sorte de « soupe » de photons, de noyaux 12 à 13 milliards
d’années
et d'électrons sans atomes. Une « soupe » certes très
brillante car très chaude, comme le Soleil, mais
complètement opaque. Les photons diffusent en
effet incessamment sur les électrons libres d'un
plasma et ne peuvent le traverser.
Au cours du temps, l'Univers s'est donc dilaté et
NASA
correspondant à l'absorption des photons du
FDCM. En revanche, aux fréquences supérieures,
Figure 2. elle présente une tache chaude due à l'effet Sunyaev-
Cartes du ciel montrant les structures du fond diffus cosmologique à différents
niveaux de détails.
Zel'dovich. Cela permet de distinguer un amas de
galaxies des inhomogénéités primordiales du
FDCM.
Cône de lumière
représentant la fraction de
l'Univers observable,
simulée en 2007 par
la collaboration Horizon
sur l'ordinateur Platine du
CCRT, le centre de calcul
du CEA. Cette simulation
de haute performance, qui
a pris en compte près de
70 milliards de particules
et plus de 140 milliards
de mailles, va permettre
aux astrophysiciens
de prédire quelle est
R. Teyssier/CEA
la distribution de matière
dans l'Univers avec une
précision et un réalisme
sans précédent.
otre vision de l’Univers a beaucoup évolué à lières), les galaxies se distribuent dans l’Univers selon
N travers les siècles. Dans sa Divine Comédie,
Dante Alighieri (1265-1321) décrit ainsi le cosmos :
une structure très caractéristique appelée la toile
d’araignée cosmique. Les galaxies se forment et
les planètes se déplacent sur des sphères concen- évoluent au sein de ses grands filaments (voir La toile
triques, appelées mobiles, au centre desquelles se situe d’araignée cosmique, p. 65).
la Terre. Les étoiles vivent quant à elles sur la sphère Observant encore plus loin, les astronomes ont
la plus externe, nommée Primo Mobile. Le voyageur découvert ce fameux rayonnement micro-onde – le
imaginaire dont Dante conte l’histoire découvre fond diffus cosmologique ou rayonnement fossile
qu’au-delà de ce Primo Mobile se trouve une grande (voir La grande histoire thermique de l’Univers, p. 62) –
lumière qui, par l’intermédiaire du Primo Mobile, met image de l’Univers lorsqu’il avait 380 000 ans. Cette
en mouvement toutes les autres sphères. Cette vision photographie jaunie d’un Univers en culotte courte
poétique du cosmos pourrait constituer un modèle est d’une importance primordiale : elle donne accès
d’Univers médiéval, mais son langage résonne étran- aux conditions initiales de notre Univers. Qu’y voit
gement avec la vision moderne de la cosmologie. l'observateur ? Un ciel essentiellement homogène,
Au-delà de l’aspect poétique, cette vision s’apparente avec des fluctuations infimes, d’une amplitude de
aussi à un modèle scientifique, dans la mesure où il 1 pour 100 000. L’image appropriée est celle d’un lac
permet de prédire le mouvement des planètes dans le tranquille, à la surface duquel l'observateur attentif
ciel. Le mouvement rétrograde que certaines d'entre discerne cependant d’infimes vaguelettes qui la
elles avaient le mauvais goût de suivre paraissait perturbent très légèrement. L’origine de ces fluctua-
contredire le modèle, mais grâce à la théorie des tions demeure encore un mystère. La théorie la plus
épicycles, il fut possible de l’expliquer de façon rela- plausible est celle de l’inflation. Elle met en jeu des
tivement simple, sans menacer l’ensemble de l’édifice. fluctuations de densité aux échelles quantiques, dans
l'Univers primordial, suivies d’une phase d’inflation
Le contenu de l’Univers qui projette ces fluctuations quantiques aux échelles
Avant de décrire le modèle actuel de l’Univers, il cosmiques. Il n’en demeure pas moins que les astro-
convient de dresser un rapide portrait des objets qui nomes observent directement ces fluctuations,
peuplent le cosmos à grande échelle. Les planètes, 380 000 ans après leur origine, lorsque l’Univers
elles, sont dans notre environnement immédiat. La devient transparent et lève le voile sur sa vraie nature.
cosmologie moderne s’attache à décrire la distribu-
tion d’objets beaucoup plus grands et lointains : les Le big bang… et la suite
galaxies, et parmi elles, la nôtre, la Voie lactée. Ces Le modèle actuel de formation des structures
grands objets majestueux sont composés de centaines s’appuie sur la théorie du big bang, qui suppose un
de milliards d’étoiles comme le Soleil. De couleurs et Univers en expansion décrit par la relativité géné-
de formes très variées (spirales, elliptiques, irrégu- rale. Terme péjoratif utilisé par l’astrophysicien
R. Teyssier/CEA
nouveaux intervenants échappe encore aux physi-
ciens. La matière noire est un fluide autogravitant(1),
mais sans collisions, ce qui empêche pour l’instant
sa détection(2). Sa signature gravitationnelle fournit À gauche, image en vraie couleur de la galaxie NGC 4622. À droite, image en vraie couleur
d'une galaxie simulée avec le code RAMSES, développé au Service d'astrophysique
néanmoins des preuves indirectes de sa présence. du CEA/Irfu, dans le cadre du modèle hiérarchique. L'accord entre le modèle et l'observation
L’énergie noire, elle, est encore un peu plus mysté- est excellent.
rieuse. Elle a été introduite récemment dans le
modèle, pour expliquer la brusque accélération qui
semble caractériser l’expansion universelle depuis phénomènes chaotiques. Or, il est fondamental pour
quelques milliards d’années. Elle pourrait être liée à une théorie de pouvoir faire des prédictions quan-
un nouveau fluide, aux propriétés inédites, et dont titatives. Une bonne théorie se doit en effet d'être
l’action ne s’applique qu’à très grande échelle. Il falsifiable : il faut pouvoir la confronter au réel par
s’agit de deux « points durs » de la théorie actuelle : le biais de ses prédictions.
il n’y a qu’un pas à faire pour les comparer aux Pour calculer les prédictions de ses modèles
fameux épicycles du modèle médiéval. complexes, la science moderne fait donc appel à
Continuons le film de la formation des structures. l’ordinateur. Le triptyque théorie, simulation et
Les fluctuations primordiales vont croître sous l’effet expérience est au cœur de toute activité scientifique :
de l’instabilité gravitationnelle : pour reprendre désormais, la science « marche sur trois pattes ».
l’image du lac, les vaguelettes se transforment petit C’est encore plus vrai pour l’astrophysique, qui ne
à petit en une houle qui se creuse, pour devenir fina- peut évidemment réduire ses objets d’étude à une
lement, au bout de 100 millions d’années, des vagues expérience en laboratoire. Les astrophysiciens n'ont
déferlantes, provoquant la naissance des premières accès au réel que par le biais d’objets très complexes,
étoiles. Cette phase d’amplification gravitationnelle qui échappent totalement à leur volonté simplifi-
s'appelle les Âges Sombres, qui prennent fin à catrice. L’ordinateur joue donc un rôle fondamental
l'apparition des premiers objets lumineux. C’est le de médiation entre la théorie et l’observation.
début de la formation hiérarchique des objets Aujourd'hui, il est possible de simuler l’évolution de
cosmiques. Les premières galaxies à apparaître sont 70 milliards de pseudo-particules grâce à une utili-
très petites : elles ne contiennent qu’un million sation intensive des supercalculateurs (voir l'illus-
d’étoiles. Elles vont ensuite se regrouper pour créer tration p. 68). Il est malheureusement toujours
des galaxies plus grosses. Ces dernières vont évoluer, impossible de simuler l’ensemble de l’Univers obser-
et entrer en collision les unes avec les autres, pour vable avec assez de détails pour accéder à l’échelle
engendrer les galaxies massives qui peuplent des galaxies. Les simulations cosmologiques à
l’Univers aujourd’hui, avec parmi elles la Voie lactée. grande échelle ne permettent de simuler que la
matière noire. Pour pouvoir comparer avec les
L’Univers simulé observations, il est nécessaire de peupler les halos de
Le modèle qui permet de décrire cet assemblage matière noire par des galaxies. Cette étape est géné-
hiérarchique des galaxies n’est autre que la méca- ralement réalisée par une démarche phénoméno-
nique des fluides autogravitants. Il s’agit d’un logique, appelée aussi approche semi-analytique, car
modèle mathématique relativement simple, mettant elle mélange modélisation numérique et modélisa-
en jeu quelques lois de conservation et l’interaction tion analytique. Tout en restant conscient des limites
gravitationnelle dans un champ faible(3). Ce modèle, de cet exercice, il faut souligner l’accord specta-
aussi simple soit-il, rend les calculs analytiques très culaire entre ce modèle et la distribution réelle des
difficiles à entreprendre. Les équations en jeu sont galaxies. L’instabilité gravitationnelle d’une matière
fortement non linéaires, et font intervenir des noire froide semble donc pouvoir expliquer la
formation des structures de l’Univers à grande
échelle.
(1) Comme la matière ordinaire, la matière noire est sensible
à la gravitation qui freine sa dispersion. Des questions en suspens
(2) Les collisions entre particules provoquent l'émission À plus petite échelle, le mystère de la formation des
de photons, détectables à distance.
galaxies reste entier. La théorie, élaborée pendant
(3) Cette restriction, dite « limite de champ faible », est les années 1970, met en jeu le rôle central du rayon-
la condition pour que la théorie newtonienne reste valable.
Dans les champs forts (ou non statiques), il faut utiliser nement. Les collisions entre atomes d’hydrogène
la théorie d'Einstein (relativité). conduisent au refroidissement rapide du plasma
R. Teyssier/CEA
réalisée sur l'ordinateur
MareNostrum du centre
de nombreux problèmes demeurent : les galaxies
de calcul de Barcelone simulées sont trop petites et elles contiennent trop
(Espagne). d’étoiles, pour n’en citer que deux.
Figure 1.
Principe de construction d'un Univers fini
ESO
Institut de Californie/NASA
La Voie lactée dans le domaine infrarouge avec les Nuages de Magellan, deux galaxies satellites de la nôtre visibles à droite de l’image. Image mosaïque obtenue
par le Two Micron All Sky Survey, programme conjoint de l'Université du Massachussetts, de l'Institut de technologie de Californie et financé par la NASA.
l arrive qu’un astre se découvre par le seul calcul. envisagent qu’une planète inconnue soit à l’origine
Iattribue
Ainsi, en 1844, l’astronome Friedrich Bessel
les anomalies du mouvement propre apparent
(1)
des mouvements d’Uranus, là encore qualifiés
« d’anormaux ». Suivant les indications d’Urbain
de l’étoile Sirius à la présence d’un « compagnon » Le Verrier, l’astronome Johann Galle(4) observe ensuite
invisible. Dix-huit ans plus tard, la confirmation de ce la planète Neptune à moins d’un degré de la position
calcul arrive par la découverte d’une naine blanche calculée à partir des écarts que manifeste Uranus par
faisant de Sirius une étoile binaire. Dans la foulée, en rapport aux lois de Newton. En 1932, Jan Oort(5)
1846, Urbain Le Verrier(2) et John-Couch Adams(3) étudie la distribution des vitesses d’étoiles situées dans
le voisinage du Soleil pour déterminer le champ gravi- nuages d’hydrogène neutre localisés au-delà de son
tationnel local. Il suggère que ces étoiles ne contribuent bord lumineux. La courbe obtenue, représentant la
que pour moitié à la quantité de matière nécessaire vitesse de rotation du disque en fonction de la
pour expliquer leurs mouvements. Parallèlement, distance au centre de la galaxie, permet de déter-
l’Américain Fritz Zwicky(6) étudie la distribution des miner la distribution de masse de la galaxie, tout
vitesses des galaxies dans le grand amas de la constel- comme une planète en orbite autour du Soleil
lation boréale nommée Coma Berenices. Et, en 1933, permet de déduire la masse du Soleil si la distance
il peut également avancer que les galaxies de l’amas qui le sépare de la planète est connue. Mais il se
ne représentent que 10 % de la masse nécessaire trouve que la comparaison entre cette distribution
pour expliquer les vitesses mesurées. L’essentiel de la de masse déterminée par l’influence gravitationnelle
masse de l’amas serait donc une forme non lumi-
neuse. Malgré son importance, cette découverte ne
trouvera guère de retentissement et plus de quarante
ans s’écoulent avant qu’une accumulation de données,
conduisant toutes à ce même constat, ne la fasse
revenir au premier plan. Aujourd’hui, près de quatre-
vingts ans après l’observation de Fritz Zwicky, ses
conclusions se confirment : une fraction importante
de la masse de l’Univers ne serait effectivement pas
lumineuse !
La matière noire soulève donc une série d’interroga-
tions – en relation ou pas entre elles – qui se posent
aussi bien à l’échelle des galaxies, que des amas de
galaxies ou de l’Univers tout entier.
NGC 3198
observée
halo de matière noire
100
prédite par
les lois de la gravité
50
disque lumineux de la galaxie
écart interprété comme
la contribution du halo de matière noire
0
distance au centre de la galaxie 0 10 20 30 40 50
distance au centre de la galaxie (en milliers de parsecs)
Figure 1.
La vitesse de rotation des galaxies spirales suggère qu’elles contiennent une importante quantité de matière sombre. En effet, contrairement
à la décroissance prédite d’après la baisse de luminosité du disque d’étoile, au fur et à mesure de l’éloignement du centre de la galaxie, la vitesse
de rotation mesurée demeure constante.
de la galaxie et celle estimée à partir de la lumino- d’un halo massif, grossièrement sphérique, s’éten-
sité des étoiles, laisse apparaître un net désaccord. dant de dix à vingt fois plus loin que le disque
En effet, la luminosité du disque stellaire décroissant d’étoiles. Pour l’hypothèse la plus courante, ce halo
exponentiellement en fonction de la distance avec le sombre se compose d’astres compacts très faible-
centre de la galaxie, tout laisse à penser que la masse ment lumineux : planètes, étoiles en fin de vie ayant
de la galaxie se concentre essentiellement dans son brûlé tout leur combustible (naines blanches) ou
centre ; pourtant, la vitesse de rotation demeurant trous noirs. Restait à vérifier cette hypothèse, d’où
constante, aussi loin qu’on pousse la mesure, ce l’expérience EROS (pour Expérience de recherche
résultat démontre qu’au contraire, une importante d’objets sombres), conduite par l’Irfu, qui a mesuré,
quantité de matière se trouverait dans les régions de nuit après nuit, la lumière des étoiles de deux
luminosité faible ou nulle (figure 1). galaxies satellites de la Voie lactée : les Nuages de
Des études systématiques, portant sur des milliers de Magellan. Il s’agissait de chercher une amplification
galaxies, attestent à la fois le caractère universel de lumineuse temporaire causée par la gravitation d’un
ce phénomène et la présence d’un excédent de astre sombre du halo, lors de son passage sur la ligne
matière noire dans presque toutes les galaxies de visée d’une des étoiles observées. Dix années de
spirales. Cette anomalie s’explique par la présence « traque » permettront d’exclure l’hypothèse que le
halo sombre de notre Voie lactée soit majoritaire-
ment constitué d’astres non lumineux. Et donc, la
nature de cette matière sombre garde tout son
mystère.
de la distribution des
arclets dans la portion
d’Univers observée.
amas, sans y intégrer des galaxies extérieures, tout en physiciens y voient des images de galaxies situées
comptant des galaxies de très faible luminosité. En derrière l’amas et déformées par le champ gravita-
outre, l’amas ne se trouve pas toujours en équilibre tionnel de celui-ci. Il s’agit de mirages gravitation-
dynamique (condition d’application du théorème nels, ce que la théorie de la relativité générale
du viriel) car le temps de sa mise en équilibre peut d’Albert Einstein permet de comprendre. En effet,
dépasser les dix milliards d’années. Enfin, la situation si la gravitation résulte de la déformation imposée
n’offre qu’une vue partielle car toutes les distances par la matière et l’énergie à l’espace-temps, alors la
apparaissent en projection et n’autorisent que la lumière elle-même devient sensible à la gravité puis-
mesure des seules vitesses radiales. qu’elle suit les lignes du plus court chemin de
Pourtant, les résultats obtenus par l’analyse du rayon- l’espace-temps courbé par la matière. Outre ces arcs
nement X, émis par le gaz chaud diffus localisé entre lumineux, les observations révéleront également un
les galaxies des amas, vont confirmer cette hypo- phénomène encore plus fréquent, celui des
thèse. Les mesures réalisées par des satellites comme « arclets », petites images de galaxies d’arrière-plan,
Röntgensatellit (ROSAT), lancé par l’Allemagne en légèrement tordues par le champ de l’amas. La
1990, XMM-Newton, de l’Agence spatiale euro- répartition, l’orientation et l’intensité de ces distor-
péenne (ESA), ou encore Chandra, de la NASA, sions permettent de reconstituer, avec une remar-
lancés tous deux en 1999, sont unanimes : le gaz qui quable précision, la distribution de masse de l’amas
baigne les galaxies semble en équilibre dans le champ responsable. Une équipe internationale de scienti-
de gravité de l’amas, lequel est engendré par les fiques, comprenant des chercheurs de l’Irfu, a ainsi
galaxies, le gaz chaud et la matière noire. De plus, l’in- réalisé la première carte tridimensionnelle de la
tensité de l’émission X du gaz permet de calculer distribution de matière noire dans une portion
non seulement la masse de gaz mais aussi le poten- d’Univers.
tiel gravitationnel dans lequel il se trouve plongé et Ces études, indépendantes les unes des autres,
donc, la masse totale de l’amas. Pour un amas convergent en faveur de masses élevées pour les
typique, les étoiles représenteraient donc 2 à 4 % de amas de galaxies. Elles confirment donc les résul-
la masse totale et le gaz chaud 12 à 16 % seulement. tats obtenus par les distributions de vitesses et
Même en tenant compte de la matière sombre l’émission X.
déduite de l’étude de leurs courbes de rotation, les
galaxies apparaissent donc comme négligeables dans La matière noire à l’échelle
le bilan de la masse des amas. de l’Univers
En 1986, une autre méthode fondée sur l’étude de L'étude du rayonnement à 2,7 K qui baigne aujour-
mirages gravitationnels présents autour des amas de d'hui l'ensemble de l'Univers permet également
galaxies a confirmé ces résultats (figure 2). Parmi les de déterminer la composition de l'Univers dans
observations les plus spectaculaires figurent celles son ensemble. D'où vient ce rayonnement ? Notre
d’arcs lumineux montrant des décalages spectraux Univers étant en expansion, il a dû passer par
nettement supérieurs à celui de l’amas. Les astro- une phase plus dense et plus chaude que celle qui
NASA
Les arcs lumineux autour de l’amas de galaxie Abell 2218 sont des images déformées de galaxies situées derrière l’amas photographié.
Le champ gravitationnel de l’amas agit comme une lentille déformant les objets en arrière-plan.
prévaut actuellement. Après 380 000 ans d'expan- Néanmoins, cette étude recèle encore des incertitudes.
sion, l'Univers s'est suffisamment refroidi pour que Aussi a-t-il fallu tester la validité des résultats annoncés
les électrons et les protons s'assemblent pour former par des études indépendantes. Des mesures récentes,
des atomes d'hydrogène neutre. Toutes les condi- portant sur la distribution spatiale des galaxies
tions se trouvaient ainsi réunies pour que la lumière semblent privilégier une séparation inter-galaxies de
se propage librement sans trop interagir avec la 150 millions de parsecs, correspondant à une prédic-
matière. Cette lumière fossile a véhiculé, jusqu’à nos tion des modèles de matière noire froide (voir Théorie
jours, des informations précieuses sur les conditions de la matière noire, p. 77). L’explication vient du fait
régnant alors dans l’Univers. Or, dans cette image à que de petites fluctuations opérant dans l’Univers
2,7 K, d’infimes inhomogénéités, de température primordial – contenant à la fois des photons, des
apparaissent, traduisant l’existence d’autres inho- électrons et de la matière noire – évoluent à la manière
mogénéités, notamment de densité de matière. Pour d’une onde sphérique sous l’effet de la pression des
les astrophysiciens, il s’agit de galaxies et d’amas de photons et cela, jusqu’à la formation des premiers
galaxie en germes. Dans le Modèle standard de la atomes d’hydrogène. Les photons s’échappent alors du
cosmologie, l’étude statistique de ces inhomogé- mélange et l’onde demeure figée à la distance qu’elle
néités a permis d’estimer la densité de matière et a parcourue pendant 380 000 ans (l’âge de l’Univers
d’énergie présente dans l’Univers avec une surprise lors du gel de l’onde). Aujourd’hui, cela correspond à
à la clef : non seulement la densité de matière dépasse une taille de 150 millions de parsecs. Les galaxies se
d’un facteur dix la densité de matière lumineuse construisent dans les régions plus denses, de sorte
(étoiles, gaz …) mais la densité totale d’énergie dans qu’elles se retrouvent essentiellement à la position de
l’Univers surpasse aussi celle de la matière (voir la fluctuation initiale ou du bourrelet de matière
Astrophysique et observation de l'énergie noire, p. 81). distant de 150 millions de parsecs. La mesure de cette
Ceci induit la présence d’une composante d’énergie distance confirme la densité de matière dans l’Univers,
non détectée jusqu’alors. corroborant les résultats apportés par les études sur le
rayonnement à 2,7 K, ainsi que l’existence d’une
grande quantité de matière noire à l’échelle de
l’Univers.
P. Stoppa/CEA
intérêt des scientifiques pour l’ensemble de ces ques-
tions. Mais il reflète également un manque évident
de données expérimentales directes. Heureusement,
La recherche fondamentale en physique des particules a fait d’énormes progrès pour
les prochaines années paraissent prometteuses. Une valider un cadre théorique appelé Modèle standard. De nouvelles particules, comme
combinaison de différentes techniques expérimen- le boson de Higgs et de nouveaux processus sont attendus dans le cadre des
tales sera sans doute nécessaire pour distinguer les expériences du LHC visant à élargir ce modèle. Une de ces nouvelles particules
sera-t-elle la matière noire ?
différentes théories et parvenir à identifier la nature
de la matière noire. Un grand espoir repose sur la
production de matière noire par le Large Hadron supersymétrique ou par la théorie de Kaluza-Klein,
Collider (LHC), l'accélérateur de particules du Cern, suscitent déjà la construction de nombreux
l’Organisation européenne pour la recherche nouveaux modèles.
nucléaire (voir l’encadré, p. 80). Une autre perspec- Le problème de la matière noire établit des liens
tive concerne la détection des produits finaux de étroits entre la physique des particules, la cosmologie
l'annihilation de deux particules de matière noire et l'astrophysique. Il est probable que, désormais, ce
dans le halo galactique (figure 1). Un troisième axe problème à l'échelle galactique et cosmologique se
compte sur les expériences souterraines sensibles résoudra avec un nouvel état des plus petits consti-
comme Edelweiss (voir l’encadré p. 80) dont le CEA tuants de la matière. L'exploration de la physique à
est un acteur majeur, visant à détecter un phéno- l'échelle du téraélectronvolt au LHC, les observa-
mène particulièrement rare : la collision d'une parti- tions astronomiques en rayons gamma du satellite
cule de matière noire de passage. Cette activité Fermi ainsi que la prochaine génération de détec-
expérimentale gigantesque et pluridirectionnelle, teurs souterrains issus de l’expérience Edelweiss,
indispensable pour tester les différentes prédictions, laissent augurer que la matière noire dévoilera
s’accompagne d’une intense activité théorique. bientôt son secret.
Ainsi, l’observatoire en orbite PAMELA (pour
Payload for AntiMatter Exploration and Light-nuclei
Astrophysics), lancé par une fusée russe, en 2006, > Marco Cirelli
a-t-il récemment décelé des rayons cosmiques et Camille Bonvin
« anormaux », peut-être produits par les annihila- Institut de physique théorique
(Unité de recherche associée au CNRS)
tions de la matière noire galactique. Ces données, Direction des sciences de la matière (DSM)
difficilement explicables en termes de matière noire CEA Centre de Saclay
Pour répondre aux questions les plus big bang et ainsi étudier l’évolution de la
fondamentales de la physique, le Cern matière de la naissance de l’Univers à nos
(Organisation européenne pour la recher- jours.
che nucléaire) a mis en service, en 2008, le • LHCb (pour Large hadron Collider
grand collisionneur de hadrons (LHC). En beauty) essaiera de comprendre pourquoi
tant que pays hôte, la France a participé à nous vivons dans un Univers apparemment
sa construction par l’intermédiaire de ses constitué entièrement de matière, sans
deux plus importants organismes de aucune présence d’antimatière.
recherche : le CNRS et le CEA. Au sein de ce L’énergie des collisions du LHC (14 TeV,
grand instrument, les physiciens travaillent soit 7 fois plus que le collisionneur
à provoquer des collisions entre faisceaux précédent, actuellement en service aux
de protons de 7 TeV (soit 7 000 GeV) États-Unis) contribuera à l’exploration
d’énergie, observées par deux grandes complète de l’échelle d’énergie couvrant
expériences généralistes : les alentours de 1 TeV, une échelle clé dans
• ATLAS (pour A Toroidal LHC Apparatus) : le Modèle standard. Le premier objectif
il s’agit d’un des deux plus grands et plus des expériences conduites au LHC reste la
complexes détecteurs construits à ce jour. découverte du mystérieux boson de Higgs
Cette expérience de physique auprès du ou de ce qui en tient lieu pour l’unification
LHC est menée par une collaboration des interactions électromagnétique et
mondiale de scientifiques (1 800 physiciens faible. Mais aujourd’hui, de nouvelles théo-
et ingénieurs issus de 150 laboratoires de ries ouvrent un cadre plus large que le
34 pays différents) pour trouver le boson de Modèle standard pour essayer de répondre
Higgs, s’il existe (figure 1), ou d’autres aux questions que celui-ci laisse en
nouvelles particules. suspens, notamment sur la nature du
• CMS (pour Compact Muon Solenoid), fameux boson de Higgs, mais aussi de la
l’autre grand détecteur, poursuit les mêmes matière noire et de l’énergie noire.
P.Stroppa/CEA
buts scientifiques qu’ATLAS mais avec d’au- Toutes ces questions semblent, en effet,
tres options techniques. reliées par une interrogation centrale :
quelle est l’origine de la masse des parti-
Deux autres programmes poursuivent cules ? Pour l’énergie noire, les chercheurs L’expérience Alice, dédiée à l’étude
une recherche spécifique : se heurtent à un obstacle majeur : au de la matière dans ses états extrêmes.
• Alice (pour A large ion Collider Experi- regard des connaissances actuelles sur les
ment) tentera de recréer, en laboratoire, particules élémentaires, le calcul de sa
les conditions qui régnaient juste après le densité dans l’Univers donne un résultat mettre en évidence la supersymétrie. Le
beaucoup trop grand, des milliers de fois point commun entre les différents types
supérieur à l’observation ! En revanche, la d’événements prédits par les théories de
situation semble plus favorable pour la supersymétrie réside dans le fait qu’il
compréhension de la matière noire. En existe, dans le bilan de la collision, un
effet, les mesures cosmologiques pointant manque d’énergie (transverse), emportée
vers des particules massives qui inter- par une ou plusieurs LSP. Les chercheurs
agissent faiblement, leur échelle de masse espèrent observer rapidement ces événe-
« typique » serait d’environ 100 GeV, soit ments manquant d’énergie transverse.
l’échelle d’unification du Modèle standard. Comparé au bruit de fond du Modèle stan-
Il semble donc naturel de conclure que dard, le moindre excès constaté serait
la matière noire et l’unification électro- alors favorable à la théorie de la supersy-
faible partagent une origine commune. métrie. De façon similaire, d’autres théo-
Dans cette éventualité, de telles particules ries (dimensions supplémentaires, axions,
pourraient être produites par le LHC. C’est etc.) prédisent que si la matière noire et
ce que prédit, par exemple, l’une des l’unification électrofaible partagent la
nombreuses théories avancées pour même origine, alors il existe une chance
CEA
dépasser le Modèle standard, et sans tangible pour que le LHC produise la, ou les
doute la plus connue, à savoir celle de la particules constitutives de la matière noire
Figure 1.
Simulation d’un événement mettant en jeu « supersymétrie », proposée dans les de l’Univers.
la « supersymétrie » dans l’expérience Atlas : années 1970 mais demeurée hypothétique.
vue transverse à l’axe des faisceaux. Dans cet De nombreuses versions existent mais,
événement, deux LSP et deux jets de particules
ordinaires ont été produits. Les LSP ne sont de façon générale, la LSP (pour Lightest
pas détectés directement mais le bilan Supersymmetric Particle), particule > Bruno Mansoulié
des impulsions montre un déficit : il manque supersymétrique la plus légère, ferait Service de physique des particules (SPP)
« quelque chose » du côté gauche ; ce bilan Institut de recherche sur les lois fondamentales
une excellente « candidate ». Ainsi, de l’Univers (Irfu)
permet de caractériser leur présence.
Les axes sont simplement géométriques : grâce à son énergie et sa luminosité Direction des sciences de la matière (DSM)
X, Y et leur unité en mètre : X (m) et Y (m). élevées, le LHC pourrait prochainement CEA Centre de Saclay (Gif-sur-Yvette)
Jean-Charles Cuillandre/CFHT
Télescope Canada-France-Hawaii (à droite sur la vue).
se ralentir. Pour le vérifier, les astrophysiciens ont composante a été prévue par les équations de la rela-
observé le flux de supernovae de type Ia (SNIa), tivité générale d’Albert Einstein à la condition d’y
explosions d’étoiles en fin de vie, situées à plusieurs ajouter une constante, dite « constante cosmolo-
milliards d’années-lumière. Leur intérêt réside gique ». D’autres descriptions existent et donnent à
dans leur luminosité pratiquement reproductible cette composante un contenu plus fondamental. En
(encadré 2). La mesure de leur flux apparent revient attendant de pouvoir trancher, cette composante a
donc à mesurer la distance parcourue par les reçu le nom d’énergie noire. Sa densité représente
photons depuis l’explosion – distance qui dépend du trois quarts du contenu énergétique de l’Univers,
contenu de l’Univers et de sa géométrie. Or, à la fin contre un quart seulement pour la matière.
des années 1990, les premières observations de SNIa
lointaines révèlent que leur flux apparent s’avère plus Le relevé de supernovae par le CFHT
faible que prévu dans un Univers exclusivement Ce résultat étant inattendu, les chercheurs ont lancé de
composé de matière. La distance parcourue par les nouvelles études sur les SNIa lointaines dont
photons émis par les supernovae est donc plus l’expérience Supernova Legacy Survey (SNLS). De 2003
importante que prévue. Pour les chercheurs, force est à 2008, grâce au télescope Canada-France-Hawaii, de
d’admettre qu’il existe dans l’Univers une compo- 3,6 mètres de diamètre (situé à Hawaii), SNLS a
sante énergétique capable d’accélérer l’expansion et détecté et mesuré un millier de SNIa, contre une
qui ne soit ni matière ni rayonnement. Une telle cinquantaine dans les expériences antérieures. Ce
résultat s’avère d’autant plus probant que les SNIa
sont rares : à peine une explosion par siècle pour une
8000 galaxie comme la nôtre. Pour les déceler, SNLS a béné-
ficié de la caméra à grand champ MEGACAM, caméra
supernova 03D4dh (unités arbitraires)
magnitude apparente
supernovae gravitationnelles étant peu exploitables 42
pour la cosmologie en raison de leur grande varia-
bilité lumineuse, seules les Ia sont sélectionnées après 40
spectroscopie. À l’issue du relevé, SNLS dénombre
500 SNIa confirmées par spectroscopie, de décalages 38
spectraux allant de 0,2 à 1,2. Cela signifie que leur
formation a eu lieu dans un univers plus jeune de 2 36
et 8 milliards d’années environ. Ces supernovae
remontent donc au très lointain passé de l’Univers. 34
Pour parvenir jusqu’à nous, leur lumière a franchi 0,2 0,4 0,6 0,8 1
des distances considérables de plusieurs milliards décalage spectral
d’années-lumière. Or, sur de telles distances, le
parcours des photons dépend significativement de Figure 2.
l’évolution passée de l’Univers. En conséquence, Magnitude apparente des SNIa (déduite du flux lumineux au pic) en fonction de leur décalage
mesurer le flux des SNIa sur une gamme étendue de spectral (Il est d’usage, en astrophysique, d’exprimer les flux lumineux sur une échelle
logarithmique inversée, dite échelle des magnitudes : plus un objet est lumineux, plus faible
décalages spectraux, revient à remonter l’évolution sera sa magnitude). Les mesures réalisées lors de la première année de fonctionnement
passée de l’Univers, elle-même déterminée par son du SNLS (points) associées à des mesures sur des supernovae proches (cercles) sont
contenu en matière et énergie. Cette opération a été comparées aux prédictions pour un Univers composé exclusivement de matière (courbe
entreprise par SNLS dès la première année d’obser- pointillée) et pour un univers en expansion accélérée, composé de 74 % d’énergie noire
et de 26 % de matière (courbe en trait plein).
vations, sur la base de 70 SNIa confirmées par spec-
troscopie. Les mesures montrent que le flux
provenant des SNIa lointaines s’avère plus faible que d’énergie noire. Une valeur w = -1 correspond à une
celui attendu dans un Univers dominé par la matière. densité d’énergie noire constante dans le temps. Les
En revanche, ces mesures s’accordent avec les résul- résultats de la première année de SNLS, couplés à ceux
tats d’un Univers en expansion accélérée, dominé à d’autres observations, conduisent à une valeur de w
74 % par l’énergie noire (figure 2). compatible avec -1, pour une incertitude relative de
Les données transmises par SNLS permettent aussi de 10 % (figure 4, gauche). L’analyse des trois premières
tester l’évolution temporelle de la densité d’énergie années de données de SNLS (soit 250 SNIa) s’achève
noire. Perçue comme un fluide emplissant tout et les conclusions vont dans ce même sens, avec une
l’espace, l’énergie noire se caractérise par sa pression. précision accrue : 6 % au lieu de 10 %. Affiner ce test
Le rapport entre cette pression et la densité, noté w et reste un enjeu majeur : une densité d’énergie noire
appelé « paramètre de l'équation d'état de l'énergie constante dans le temps favoriserait une interprétation
noire », gouverne l’évolution temporelle de la densité en termes de constante cosmologique.
25
2,8
20 2,6
déclinaison (degrés)
2,4
y (arc minute)
15
2,2
2,0
10
1,8
5 1,6
150,6 150,4 150,2 150,0 149,8 149,6
ascension droite (degrés)
0
0 5 10 15 20 25
x (arc minute)
Figure 3.
Cartographie de la matière noire grâce à l’effet de cisaillement gravitationnel.
Gauche : image résultant d’une simulation numérique montrant la distribution de matière noire (échelle de couleurs) et le cisaillement gravitationnel auquel
sont soumises les images de galaxies lointaines (segments) ; « x » et « y » étant les coordonnées dans le plan de l’image.
Droite : cartographie de la matière noire en coordonnées galactiques (contours) et visible (couleurs) dérivée par la technique de cisaillement gravitationnel
à partir des observations du projet COSMOS (pour Cosmic Evolution Survey) avec le télescope spatial Hubble.
-0,4 0
99,7 %
⍀m+⍀⌳=1
-0,6 95 %
68 %
-0,8 -0,5
-1
SNLS 1 an
WO
W
-1,2 -1
-1,4
-2 -2
0 0,1 0,2 0,3 0,4 0,5 0,6 0,2 0,4 0,6 0,8 1
⍀m ⍀m
Figure 4.
Contraintes actuelles sur l'énergie noire tirées des études au CFHT (supernovae à gauche, cisaillement gravitationnel à droite) et des mesures du SDSS
(pour Sloan Digital Sky Survey), sur les oscillations acoustiques baryoniques (OAB). Les contraintes sont exprimées en termes de pourcentage de densité
de l'Univers sous forme de matière noire (⍀m=1- ⍀⌳ où ⍀⌳ est la densité d’énergie noire) et du paramètre w (ou w0) de l'équation d’état de l’énergie noire
(rapport entre pression et densité d’énergie noire).
Mesure de l’effet de cisaillement effet, les expériences actuelles ne sont sensibles qu’à
gravitationnel par le CFHT la valeur moyenne de w sur la gamme des décalages
Deux autres observations cosmologiques devraient spectraux observés. Les expériences futures auront à
permettre de gagner encore en précision : tenir compte d’une évolution possible de w avec le
• l’étude des oscillations acoustiques baryoniques, décalage spectral. Il s’agit du seul moyen de distin-
c’est-à-dire les fluctuations du plasma matière/ guer entre une pure constante cosmologique et un
rayonnement dans l’Univers primordial, lesquelles ont modèle plus dynamique d’énergie noire. L’Irfu
laissé leur empreinte dans la répartition des galaxies ; prépare deux expériences sur la question :
• l’étude de la cartographie de la matière de l’Univers • la première consiste en un relevé des oscillations
par l’effet de cisaillement gravitationnel. Elle se fonde acoustiques baryoniques du ciel entier et à trois
sur la mesure des formes de galaxies lointaines, dimensions, par interférométrie radio. La détection
déformées par les grandes structures de l’Univers sur de la raie à 21 cm de l’hydrogène neutre, amènera à
la ligne de visée. Cette technique généralise, à grande remonter à la répartition des galaxies jusqu’à un
échelle, la méthode des mirages gravitationnels, décalage spectral de 2. Avec une résolution angulaire
utilisée pour reconstruire la distribution de masse des d’une minute d’arc et une résolution de 0,001 sur le
amas et révéler leur contenu en matière noire. Le décalage spectral, l’interféromètre HSHS (pour
cisaillement gravitationnel contribue à décrire la Hubble Sphere Hydrogen Survey) devrait atteindre
distribution de matière noire à l’échelle de l’Univers une sensibilité de 25 % sur l’évolution de w, à
(figure 3). À l’aide du décalage spectral, déduit des l’échéance de quelques années ;
couleurs des galaxies dans plusieurs bandes de • la deuxième vise le plus long terme avec un imageur
longueurs d’onde, cette cartographie s’effectue en spatial grand champ, appelé Euclid. Cet instrument
trois dimensions – la mesure des propriétés statis- étudiera, avec une très grande précision, l’Univers
tiques de l’histoire de la formation des structures de sombre à l’aide du cisaillement gravitationnel et des
l’Univers n’en devient que plus précise. Le plus oscillations acoustiques baryoniques. Pour cela, il utili-
important relevé de l’effet de cisaillement gravita- sera un télescope de 1,2 m, dont le champ de vision,
tionnel a été obtenu grâce à la caméra MEGACAM de 0,5 degré carré, combinera l’imagerie et la spec-
du CFHT, à partir de l’analyse du relevé « grand troscopie dans le visible et le proche infrarouge. La
champ » effectué pendant la campagne d’observa- précision souhaitée est de 5 % sur l’évolution de w, ce
tions 2003-2008. Ce relevé a permis de mesurer la qui permettra de différencier des modèles d’énergie
densité de l’énergie noire à partir de son effet sur la noire dérivant de modifications de la théorie de la
géométrie de l’Univers et sur le taux de croissance de relativité générale (voir Les télescopes du futur, p. 102).
ses structures. La figure 4 (droite) expose les
contraintes obtenues à partir des premiers 20 degrés
carrés de ce relevé, qui concordent avec celles > Vanina Ruhlmann-Kleider
Service de physique des particules
déduites des supernovae et des oscillations acous- Institut de recherche sur les lois fondamentales de l’Univers (Irfu)
tiques baryoniques. À terme, le relevé de l’effet de Direction des sciences de la matière (DSM)
cisaillement gravitationnel étendra de dix fois sa CEA Centre de Saclay (Gif-sur-Yvette)
surface et posera des contraintes plus précises sur
> Alexandre Réfrégier
l’énergie noire. Service d’astrophysique (SAp)
Institut de recherche sur les lois fondamentales de l’Univers (Irfu)
Perspectives Direction des sciences de la matière (DSM)
Unité mixte de recherche astrophysique
Des mesures encore plus fines devraient clarifier défi- interactions multi-échelles (CEA-Université Paris 7-CNRS)
nitivement le comportement de l’énergie noire. En CEA Centre de Saclay (Orme des Merisiers)
tout l'Univers.
uelles ont donc été les différentes pistes suivies échelles beaucoup plus grandes que celles des plus
Q pour décrire l’accélération de l’expansion de
l’Univers et à quelles impasses ont-elles mené ? Pour
lointains amas de galaxies. À ces distances, l’Univers
apparaît isotrope et homogène, c'est-à-dire qu’au-
tenter d’y répondre, il faut prendre pour point de cune direction ou aucun lieu ne semble privilégié.
départ que les données d’observations qui ont Cette observation a été érigée en principe – le prin-
conduit à la découverte de l’accélération de l’Univers cipe cosmologique. Relativité générale et principe
reposent sur la théorie de la relativité générale, cosmologique sont à la base des théories dévelop-
pilier de la physique du XXe siècle. Élaborée par pées, depuis les années 1930, pour décrire l’histoire
Albert Einstein, en 1915, celle-ci réconcilie la théorie de l’Univers, de la formation des noyaux au rayon-
de la gravité universelle avec celle de la relativité. nement de fond cosmique.
Depuis, cette hypothèse a souvent été testée, notam- La relativité générale enseigne qu’énergie et géomé-
ment sur des échelles allant du système solaire aux trie de l’espace-temps sont intimement liées. Par
lointaines galaxies. Elle a même trouvé une appli- exemple, le Soleil courbe l’espace-temps en son
cation inattendue avec le système de positionne- voisinage et dévie les rayons lumineux. En cosmo-
ment GPS ! Mais pour modéliser l’évolution de logie, la dynamique de l’Univers résulte de la nature
l’Univers dans son ensemble, il faut considérer des et de la quantité d’énergie contenue en son sein.
la terre n’occupe pas de position privilégiée dans complètement exploités et demeurent parcellaires.
l’Univers, serait lui aussi remis en cause : autant Au final, il existe une autre hypothèse sous-
refonder toute la cosmologie à partir des espaces jacente dans l’interprétation de l’accélération de
de Tolman-Bondi(3) (et non plus de Friedmann- l’Univers. Elle se base sur les quatre dimensions de
Lemaitre(4)) dont la principale caractéristique est l’espace-temps. D’abord, dès les années 1920, Kaluza
d’avoir une courbure variant spatialement autour et Klein ont introduit une cinquième dimension et
d’un centre qui occupe une position particulière dans ainsi tenté d’unifier la relativité générale et l’élec-
l’Univers. Il s’agit de scénarios qui ne sont pas encore tromagnétisme. Plus tard, la théorie des cordes a
introduit, à son tour, dix ou onze dimensions susci-
tant deux types de modèles. Le premier d’entre eux
(3) Richard Tolman (1881-1948), physico-chimiste et
cosmologiste américain qui fut le premier à s’intéresser aux
suppose que notre Univers figure le bord (appelé
perturbations cosmologiques. brane) d’un espace à cinq dimensions. Si cette
Herman Bondi (1919-2005), mathématicien autrichien connu hypothèse se trouvait avérée, alors l’énorme énergie
pour avoir développé la théorie équilibrée de l’Univers. du vide, due aux fluctuations quantiques sur la
(4) Alexandre Friedman (1888-1925), physicien et brane, aurait pour effet de courber la cinquième
mathématicien russe, et Georges Lemaître (1897-1960),
astrophysicien belge, sont deux des pères de la théorie de dimension en laissant une infime trace qui condui-
l’expansion de l’Univers. rait à l’accélération de l’Univers. Très prometteur, ce
Étoiles, galaxies, amas… Toutes les moment du big bang ? Cette hypothèse se conservent pas le nombre de baryons ; les
structures observées se composent de heurte à deux objections. Premièrement, il symétries C et CP sont violées par les
baryons (protons et neutrons) et d’électrons, faudrait ajuster finement (à 10-9 près) les interactions responsables de la désin-
c’est-à-dire de matière, sans présence densités initiales de baryons et d’anti- tégration bêta ; l’écart à l’équilibre
significative d’antimatière. Cette asymétrie baryons. Ensuite, il faudrait supposer que thermique survient lors de ce que l’on
matière/antimatière se mesure par le l’Univers n’a pas connu de phase d’infla- appelle la « transition de phase élec -
rapport de la densité de baryons à la densité tion, contrairement à ce que suggèrent les trofaible », c’est-à-dire la période de
de photons, nB / n␥ = (6,21 ± 0,16).10-10, observations (l’inflation a pour effet d’effacer l’histoire de l’Univers au cours de laquelle
qui décrit l’asymétrie baryonique de toute mémoire des conditions initiales). les particules acquièrent leur masse. Le
l’Univers. On la détermine par deux Or, si l’asymétrie baryonique n’est pas due scénario de baryogenèse correspondant,
méthodes indépendantes. La première aux conditions initiales, elle doit avoir été connu sous le nom de « baryogénèse élec-
repose sur la mesure des abondances des créée dynamiquement au cours de l’histoire trofaible », échoue néanmoins à engendrer
éléments légers D, 3He, 4He et 7Li qui sont de l’Univers : c’est ce que l’on nomme la le niveau d’asymétrie baryonique observé,
prédites en fonction du paramètre par la baryogenèse. En 1967, Andreï Sakharov(1) la violation de CP et l’écart à l’équilibre
nucléosynthèse. Le fait qu’il existe un même montrait que trois conditions devaient être thermique étant trop faibles. Il faut alors
intervalle de valeurs de compatible avec réunies pour qu’elle puisse avoir lieu : recourir à une nouvelle physique au-delà
les abondances de ces quatre éléments l l’existence de processus ne conservant du Modèle standard qui fait, par ailleurs,
( = (4,7 – 6,5).10-10) demeure l’un des grands pas le nombre total de baryons ; l’objet d’actives recherches dans les
succès de la théorie du big bang. La l à l’équilibre thermique, les processus collisionneurs.
deuxième mesure de , plus précise, est créant des baryons se produisent au même Actuellement, les théoriciens étudient deux
extraite des anisotropies du rayonnement taux que les processus inverses qui classes de scénarios. Dans la première, la
cosmique de fond, et correspond à la valeur détruisent la symétrie créée par les nouvelle physique affecte la transition de
donnée plus haut. La remar quable premiers : il faut donc un écart à l’équilibre phase électrofaible et permet ainsi d’obtenir
concordance de ces deux mesures thermique ; l’écart nécessaire à l’équilibre thermique.
représente un autre grand succès de la l à tout processus créant des baryons Dans la seconde, l’asymétrie baryonique
théorie du big bang (figure 1). est associé, par ce que les physiciens est créée avant la transition électrofaible.
Petit en apparence, le paramètre s’avère, des particules appellent « conjugaison Par exe m p le , d an s le scé n a rio de
en réalité, très grand. Pour le comprendre, de charge » (C) et « conjugaison de leptogenèse, la désintégration des
supposons, dans un premier temps, que charge-parité » (CP), un processus « miroir » neutrinos lourds (par ailleurs impliqués
l’Univers contienne initialement le même créant des antibaryons ; pour qu’une dans la génération des masses des
nombre de baryons et d’antibaryons. Dans asymétrie baryonique subsiste, ces deux neutrinos du Modèle standard) engendre
ce cas, leur annihilation mutuelle conduirait processus doivent avoir des taux différents, une asymétrie leptonique qui est ensuite
à n B / n ␥ ~ 10 - 1 9 , bien en dessous de ce qui nécessite une violation de C et de CP partiellement convertie en asymétrie
l’asymétrie baryonique observée. Cette au niveau des interactions entre les par- baryonique par les sphalérons.
dernière pourrait-elle alors s’expliquer par ticules.
un excès de baryons sur les antibaryons au Fait remarquable, les conditions énoncées
par Andreï Sakharov se trouvent satisfaites > Stéphane Lavignac
dans le Modèle standard de la physique des Institut de physique théorique
(1) Andreï Sakharov (1921-1989), physicien (Unité de recherche associée au CNRS)
nucléaire russe et militant des droits particules. En effet, certains processus
Direction des sciences de la matière (DSM)
de l’Homme, prix Nobel de la paix en 1975. connus sous le nom de sphalérons ne CEA Centre de Saclay
0,25
Yp
0,24
0,23
10-3
D/H円p
BBN CMB
-4
10
3
He/H円p
10-5
10-9
Figure 1.
Abondances des éléments légers 4He
5 (conventionnellement notées Yp), D, 3He
Li/H円p
2
en unités de 1010. Les rectangles
horizontaux indiquent les abondances
10-10 observées avec leurs incertitudes
expérimentales (petits rectangles : erreur
statistique; grands rectangles : erreurs
1 2 3 4 5 6 7 8 9 10 statistique et systématique). Les bandes
verticales correspondent à la valeur de
(en unités de 1010) tirée des abondances observées (hachures
oranges) et des anisotropies
du rayonnement cosmique de fond (CMB
en anglais ; hachures bleues).
1. Micro-ondes
ESA Planck Surveyor
Ce satellite doit cartographier le fond diffus
cosmologique, rayonnement émis il y a
13,7 milliards d’années, quand l’Univers est
devenu transparent à la lumière. Ce rayon-
nement suit la loi de répartition spectrale
des corps noirs établie par le physicien alle-
mand Max Planck (1858-1947), au début du
XXe siècle.
Domaine spectral
Fréquences de 30 GHz à 857 GHz correspon-
dant à des longueurs d’onde de 1 cm à
350 microns.
Description
ESA
• Télescope de 1,5 m de diamètre.
• Dimensions : 4,20 m de haut et de large. Vue d’artiste du satellite Planck de l’ESA.
• Poids : 1,8 tonne.
• Lancement : par la fusée Ariane 5, le 14 mai bolomètre fonctionnant à une température • au traitement des données et à l’exploita-
2009, à partir du Centre spatial guyanais de de 0,1 K, pour une résolution angulaire de tion scientifique de la mission.
Kourou. 5 minutes d’arc avec une sensibilité en tempé-
Planck réalise une cartographie des aniso-
• Position : aux alentours du point de rature de 5 μK à 100 GHz. Il observera un
tropies du fond diffus cosmologique en
Lagrange 2 du système Terre/Soleil (point domaine en fréquence de 100 à 850 GHz.
balayant l’intégralité de la voûte céleste avec
de Lagrange métastable situé derrière la • Low Frequency Instrument (LFI). Instrument
une résolution de cinq arcs minutes. De ces
Terre, à 1,5 million de km de nous). micro-onde développé en Italie, composé de
données seront déduites des informations
• Durée de vie de la mission : 21 mois. quatre bandes de 56 récepteurs radio ajus-
fondamentales sur la naissance, la forme, le
tables (27 - 77 GHz) fonctionnant à une tempé-
Objectifs scientifiques contenu et l’évolution de l’Univers.
rature de 20 K, sa résolution angulaire est de
• Mesurer avec une précision inférieure à 1 % Le traitement des données représente un vrai
10 minutes d’arc et sa sensibilité en tempé-
les paramètres du Modèle standard, appelé défi. En effet, chacune des cartes obtenues
rature d’environ 12 μK à 100 GHz.
aussi « modèle du big bang ». contiendra de l’information provenant de diffé-
• Détecter d'infimes variations dans les Collaborations rents rayonnements micro-ondes et pas
propriétés des fluctuations du fond diffus, à Construit par un consortium international uniquement du fond diffus cosmologique. Il
3 K, par rapport aux prédictions de ce modèle : avec l’Agence spatiale européenne (ESA) sera donc nécessaire de séparer les infor-
chaque variation participant à démontrer que comme maître d’ouvrage. mations provenant du fond diffus cosmolo-
la physique à l'œuvre dans l'Univers primor- gique des autres rayonnements micro-ondes.
Rôle du CEA
dial s’avérerait différente de celle que nous
Participation : > Jean-Luc Starck
considérons actuellement comme la plus vrai-
• à la mise en place de l'électronique à bas Service d'électronique des détecteurs
semblable.
bruit pendant la phase de construction de la et d'informatique (Sedi)
Institut de recherche sur les lois fondamentales
Instruments charge utile, en particulier en coordonnant de l’Univers (Irfu)
• High Frequency Instrument (HFI), instru- les études de compatibilité électromagné- Direction des sciences de la matière (DSM)
ment submillimétrique développé sous tique de l'instrument HFI ; Unité mixte de recherche astrophysique
interactions multi-échelles
maîtrise d’œuvre de l’Institut d’astrophysique • à la mise en place de logiciels sophistiqués (CEA-Université Paris 7-CNRS)
spatiale d’Orsay. Il s’agit d’une matrice de pour l’analyse des données ; CEA Centre de Saclay (Orme des Merisiers)
800 km
400 km
200 km
100 km
50 km
25 km
12 km
6 km
3 km
niveau de la mer
Une grande partie des lumières de l’Univers n’atteint pas le sol terrestre. On ne peut les observer qu’au-dessus de l’atmosphère avec ballons, fusées et satellites.
2. Submillimétriques et infrarouges
ArTéMis
D’après l’acronyme d’Architecture de bolo- Instruments
mètres pour les télescopes submillimétriques • Une caméra destinée au télescope APEX qui
au sol ; cette caméra sera utilisée, entre disposera de trois plans focaux pouvant
autres, pour observer des pouponnières observer simultanément la même région du
d'étoiles comme la nébuleuse de la cons- ciel : 2 304 pixels à 450 μm ; 2 304 pixels à
tellation d’Orion (dans la mythologie grecque 350 μm ; 1152 pixels à 200 μm.
Orion aurait tenté de séduire la déesse • Une antenne de 12 m installée au Chili.
Artémis). Collaborations
Domaine spectral L’Institut d’astrophysique spatiale d’Orsay
Longueurs d’onde comprises entre 200 μm (IAS), l’Institut Néel de Grenoble, l’Institut
et 500 μm. d’astrophysique de Paris (IAP) et le CEA. ESA
ESA
• Dimensions : 7 m de haut pour un diamètre bolomètres de PACS et SPIRE à 0,3 °K
de 4,3 m. (-272,85 °C). La maîtrise du froid se justifie Vue d’artiste du télescope Herschel.
• Poids : 3,25 tonnes. doublement. D’abord pour refroidir les struc-
• Lancement : le 14 mai 2009, par une fusée en particulier, l’utilisation de détecteurs dotés
tures afin que leur température ne dépasse
Ariane 5, à partir du Centre spatial guyanais de moyens de refroidissement cryogéniques
pas celle des objets à détecter et ensuite pour
de Kourou. et donc le développement des fonctions
que le fonctionnement des bolomètres repose
• Position : au point de Lagrange 2 du système électroniques associées. SPIRE possède une
sur la mesure de variations de températures :
Terre/Soleil. unité d’électronique comprenant 350 voies à
lorsqu’ils absorbent les photons du rayonne-
• Durée de vie de la mission : 3 ans. très bas bruit (quelques milliardièmes de volt)
ment, leur température s’élève et donc, en
et à forte dynamique (plus d’un million) conçue
Domaine spectral utilisant une structure froide, la moindre
en collaboration avec le Jet Propulsion
Gamme de 60 à 670 μm correspondant au absorption de photons pourra être détectée.
Laboratory (JPL) tandis que PACS utilise une
rayonnement d’objets cosmiques froids, aux • HIFI (pour Heterodyne Instrument for Far-
unité d’électronique analogique entièrement
alentours de 10 Kelvin: nuages du milieu inter- Infrared), un spectromètre à très haute réso-
développée par le SAp. Cette unité comprend,
stellaire, régions de formation stellaire, enve- lution spectrale, utilisant les techniques plus
outre les 160 voies de traitement analogique
loppes d'étoiles à la fin de leur vie. classiques de la radio-astronomie et couvrant
des signaux, les fonctions de polarisation du
le domaine 170-625 μm.
Objectifs scientifiques détecteur et les fonctions associées au système
Identifier et étudier les premières phases de Collaborations cryogénique. Des voies de mesures de tempé-
la formation des étoiles ainsi que les princi- Construit par un consortium européen de labo- ratures ont fait l’objet d’un développement
ratoires spatiaux avec l’Agence spatiale euro- avec l’Institut nanosciences et cryogénie (Inac).
pales époques d'assemblage des galaxies.
péenne (Esa) comme maître d’ouvrage. Une résolution de 10 μK à –273°C a pu être
Instruments atteinte. Afin d’assurer la communication de
Rôle du CEA
• PACS (pour Photoconductor Array Camera cette unité avec le reste de l’instrument, une
Conception :
and Spectrometer), composée d'un photo- interface au standard ESA SpaceWire a été
• de la caméra PACS et de ses détecteurs ;
mètre imageur avec ses deux voies de matrices développée par le SAp sous la forme d’un
• de l'électronique de l'instrument SPIRE.
de bolomètres refroidis à 300 mK (la plus module de propriété intellectuelle et a été
grande caméra de bolomètres jamais réalisée) En complément des systèmes de détection, diffusée au sein du consortium PACS.
qui observera dans les longueurs d’onde de l’Irfu a développé les fonctions électroniques
60 à 200 microns et d'un spectromètre cons- indispensables à leur mise en œuvre. En effet, > Marc Sauvage et Christophe Cara
titué de deux blocs photoconducteurs dans en raison de la réduction ou de l’absence de Service d’astrophysique (SAp)
Institut de recherche sur les lois fondamentales
les bandes 57 à 210 μm. rayonnement parasite, l’environnement spatial de l’Univers (Irfu)
• SPIRE (pour Spectral and Photometric permet l’accès à des mesures de très faible Direction des sciences de la matière (DSM)
Imaging Receiver) doté d’un photomètre niveau de bruit. Le bruit propre de l’électro- Unité mixte de recherche astrophysique
interactions multi-échelles
imageur sur trois bandes simultanées (250 μm, nique embarquée doit donc demeurer infé- (CEA-Université Paris 7-CNRS)
350 μm et 500 μm) et d'un spectromètre FTS rieur au bruit de détection, ce qui nécessite, CEA Centre de Saclay (Orme des Merisiers)
VLT-VISIR
Visir est une caméra-spectromètre infra- (dénommé MELIPAL) installé au nord du optiques, à 8 °K (- 265 °C) pour les détecteurs.
rouge qui équipe le troisième télescope Chili, sur le mont Paranal, à 2 600 mètres VISIR est solidaire du télescope et tourne avec
du VLT européen situé au Chili : des acro- d’altitude. lui pour viser l'objet étudié.
nymes Very Large Telescope (VLT) et Imager • Durée d’opération : jusqu’en 2014, date à
and Spectrometer for the Infra Red (VISIR). laquelle VISIR sera dépassé par l’instrument
MIRI (pour Mid Infra Red Instrument) du JWST
Domaine spectral
(pour James Webb Space Telescope).
Infrarouge moyen avec deux fenêtres d’ob-
servation à partir du sol : longueurs d’onde Objectifs scientifiques
entre 8 et 13 micromètres et entre 17 et Observer les poussières et les gaz tièdes
24 micromètres. (entre 50 et 500 K) de l’Univers : des comètes
aux quasars avec un accent mis sur l’obser-
Description
vation des disques circumstellaires dans
• Dimensions : 1,2 m de diamètre pour 1m
lesquels se forment les planètes.
de hauteur.
• Poids : 1,6 tonne. Instruments
ESO
CIRS/JPL/NASA
dans ses anneaux.
Collaborations
Domaine spectral États-Unis, Grande-Bretagne et France.
Lumière infrarouge émise par la planète
Saturne, ses anneaux et ses satellites Rôle du CEA
La température des anneaux de Saturne
(7-9 μm, 9-17 μm, 17-1 000 μm). Réalisation : déterminée par le spectromètre infrarouge
• de la barrette du détecteur du plan focal FP4 CIRS : de la plus froide (en bleu) vers la plus
Description et de son électronique de traitement. Cette chaude (en rouge). L’anneau bleu, le plus épais,
• Dimensions : télescope de 50,8 cm de barrette se compose de 10 détecteurs photo- est le plus froid, les particules se cachant plus
diamètre. facilement du Soleil, la source de chauffage.
voltaïques de très haute détectivité dans le
• Poids : 40 kg. domaine 7-9 μm. Le développement de planète. Elle s’explique par la présence de
• Lancement : embarqué sur la sonde barrettes de très haute sensibilité a constitué grumeaux de particules, appelés ondes
Cassini-Huygens, lancée en 1997 à Cap un réel challenge, surtout pour éliminer les d’auto-gravité, lesquels se forment à la péri-
Canaveral. défauts dans le matériau générateurs de bruit; phérie des anneaux, là où les effets de marée
• Position : mis en orbite autour de la planète • de l’électronique de traitement du signal sont suffisamment faibles pour que les parti-
Saturne après plus de six ans et demi de composée de filtres très discriminants. cules arrivent à s’attirer mutuellement sous
voyage interplanétaire.
Les anneaux de Saturne ont été observés l’effet de la gravitation. Les mesures de CIRS
• Durée de vie de la mission : les 78 révolu-
comme jamais auparavant : sous différents permettent de déterminer, très précisément,
tions effectuées pendant la mission nominale
angles de vue, régulièrement, à l’échelle de la taille de ces structures, à peine hautes et
(2004-2008) et les 250 révolutions au cours
quelques heures, de quelques mois ou de larges d’une dizaine de mètres, bien en deçà
de la mission étendue (2010-2017).
plusieurs années, afin de suivre les effets de la résolution spatiale de l’instrument, de
Objectifs scientifiques l’ordre de plusieurs milliers de kilomètres.
saisonniers. Pour la première fois, l’instru-
Étudier la dynamique et la structure des parti- L’année 2009 a vu l’équinoxe de Saturne, au
ment CIRS a mesuré la température des
cules constituant les anneaux de Saturne, cours de laquelle le Soleil est passé de la face
anneaux, sur la face sud éclairée par le Soleil
identifier les composants chimiques et sud à la face nord des anneaux, une oppor-
et sur la face nord à l’ombre. Le contraste de
expliquer la météorologie des atmosphères tunité rare d’étudier leur structure.
température permet de sonder la structure
de la planète et de son satellite Titan.
verticale du disque. Par ailleurs, il s’avère que
Instruments les particules des anneaux présentent un > Cécile Ferrari et Louis Rodriguez
Service d’astrophysique (SAp)
CIRS observe à travers un spectromètre sur hémisphère plus froid que l’autre, mettant
Institut de recherche sur les lois fondamentales
trois détecteurs : indirectement en évidence qu’une fraction de l’Univers (Irfu)
• le premier, nommé FP 1 (pour plan focal) d’entre elles tournent lentement autour Direction des sciences de la matière (DSM)
couvre le domaine submillimétrique d’elles-mêmes. Une variation de l’émission Unité mixte de recherche astrophysique
interactions multi-échelles
(20-1000 μm) ; thermique a également été détectée tout au (CEA-Université Paris 7-CNRS)
• les deux autres, nommés FP 3 et FP 4, long de l’anneau A, le plus éloigné de la CEA Centre de Saclay (Orme des Merisiers)
Collaborations équiper les télescopes. Il a donc lancé un appel basses températures requises. Il s’agit d’une
Franco-hollandaise dans le cadre d’un contrat à la communauté astrophysique européenne matrice, de 256 x 256 pixels, fabriquée par
avec l’European Southern Observatory (ESO). pour cibler les instruments les plus pertinents. Boeing. Après des tests intensifs réalisés au
Les astrophysiciens du CEA, pionniers en CEA/Saclay, VISIR a été livré, en 2004, et délivre
Rôle du CEA
Europe pour leurs observations d’imagerie depuis des images avec une finesse de détail
• Maîtrise d’œuvre du projet.
dans l’infrarouge moyen à partir du sol, ont dix fois supérieure à celle des petits télescopes
• Responsabilité scientifique. alors proposé VISIR qui fut sélectionné. L’étude
• Conception et réalisation de l’ensemble de spatiaux, comme le satellite Spitzer de la NASA.
et la réalisation de cet instrument a demandé En revanche, sa sensibilité, limitée par le fort
l’instrument, exception faite du spectromètre, 10 ans et mis en jeu de nombreux métiers dans
réalisation hollandaise. fond de lumière infrarouge émis par le téle-
les différents services de l'Irfu (management,
• Conception d’un actuateur original pour scope et l’atmosphère, s’avère bien moindre.
contrôle projet, ingénierie des systèmes,
assurer le mouvement des différentes roues optique, mécanique, vide, cryogénie, contrôle
dans l’instrument (roue à filtre, champs de commande, électronique, détection…). Les
> Pierre-Olivier Lagage
vue…) et le positionnement, très précis, des Service d’astrophysique (SAp)
instruments infrarouge devant être refroidis Institut de recherche sur les lois fondamentales
éléments optiques ; actuateur fonctionnant pour ne pas émettre de lumière infrarouge, de l’Univers (Irfu)
aussi bien à température ambiante qu’à basse nécessitent d’être placés dans une enceinte à Direction des sciences de la matière (DSM)
température (-253 °C). vide qui les isole thermiquement de l'envi- Unité mixte de recherche astrophysique
interactions multi-échelles
Dès le début du programme VLT, l’ESO a prévu ronnement. Trois machines frigorifiques très (CEA-Université Paris 7-CNRS)
un ambitieux plan d’instrumentation pour performantes permettent d'atteindre les CEA Centre de Saclay (Orme des Merisiers)
3. Visible
SoHo-GOLF
Les photons solaires traversant cette cellule
sont absorbés et réémis puis mesurés par
deux détecteurs. La cellule est placée dans
un champ magnétique d’environ 5 000 Gauss
et la raie réémise divisée en deux compo-
santes grâce à l’effet Zeeman. De plus, un
champ magnétique variable (± 100 Gauss)
permet de faire un petit décalage supplé-
mentaire.
Collaborations
Franco-espagnole.
Rôle du CEA
• La détection par photomultiplicateur et
l’électronique associée.
• L’architecture électronique d’ensemble.
• L’électronique de chauffage de la cellule et
de modulation magnétique de l’aimant.
• La réalisation de l’ordinateur de vol et du
logiciel associé.
• Le support informatique de gestion des
données et de communication avec le sol.
• La responsabilité scientifique de l’interpré-
tation des données en termes de modélisa-
tion du Soleil.
interactions multi-échelles
(CEA-Université Paris 7-CNRS)
Vue d’artiste du satellite XMM. CEA Centre de Saclay (Orme des Merisiers)
5. Rayons gamma
INTEGRAL
La lumière de haute énergie traverse facile-
ment la matière et sa focalisation requiert
des miroirs à très longue distance focale et
dont l'état de surface est comparable à celui
d'un plan cristallin. Il s'avère donc extrême-
ment difficile de former des images par
réflexion ou réfraction. Pour contourner ces
difficultés, les télescopes de l'observatoire
spatial INTEGRAL (pour International Gamma
Ray Astrophysics Laboratory ) utilisent des
« masques codés ». Il s'agit d'un dispositif qui
s'inspire de la chambre noire des premiers
photographes et tire avantage des possibilités
de calcul contemporaines.
Description
• Dimensions : 4 m de diamètre.
et 5 m de hauteur.
• Poids : 4 tonnes.
• Lancement : en 2002, depuis la base russe
de Baïkonour, par une fusée Proton.
• Position : orbite excentrique
ESA
10 000/150 000 km.
• Durée de vie de la mission : 2 ans mais Vue d’artiste d’INTEGRAL.
dimensionnée pour 5 ans et budgétisée
jusqu’en 2012. • Simulation du dispositif expérimental et détectée. S’il y a une émission interstellaire,
calcul de la réponse spectrale de l’instrument elle est beaucoup plus faible dans ce domaine
Domaine spectral IBIS. d’énergie. En revanche, les systèmes binaires
15 KeV à 10 MeV • Étude, développement et maîtrise d’œuvre émettent peu au-delà de 200 keV et c’est
Objectifs scientifiques de la caméra ISGRI (pour INTEGRAL Soft probablement l’émission de décroissance du
Exploration approfondie par l’imagerie, la Gamma-Ray Imager) de nouvelle génération, positronium, pseudo-atome formé d’un
spectrométrie et la polarimétrie, des sites le plan supérieur du télescope IBIS. électron et d’un positon, dans le milieu inter-
célestes émettant des rayons gamma de • Développement et maintenance des logiciels stellaire, qui domine celle de la Galaxie.
basse énergie. d’analyse scientifique d’IBIS et ISGRI. C’est le cas à 511 keV, où les performances
• Fourniture de l’électronique digitale de proxi- spectrométriques de SPI ont permis de
Instruments mité du spectromètre SPI. mettre en évidence la morphologie de l’émis-
• IBIS (pour Imager on Board the INTEGRAL • Responsabilité de l’étalonnage de SPI auprès sion. Celle-ci se compose d’un sphéroïde de
Satellite) pour fournir des images à haute de l’accélérateur tamdem installé sur le centre 8° d’extension trônant au centre de notre
résolution angulaire et une information spec- CEA de Bruyères-le-Châtel. Galaxie et d’un disque de luminosité compa-
trale à moyenne résolution. • Conception de l’étalonnage du satellite INTE- rable. Il semble que l’on trouve plus d’émis-
• SPI (Spectrometer for INTEGRAL) chargé GRAL, fourniture d’un générateur X et de sion à 511 keV du côté où l’on trouve aussi
de la spectrométrie gamma à très haute sources radioactives. plus de systèmes binaires X. Cette différence
résolution. est-elle réelle ? Y-a-t-il un lien de cause à
• Deux petits instruments d’accompagne- Notre Galaxie est-elle une Voie lactée à effet ou ces deux constatations résultent-
ment : JEM-X (pour Joint European Monitor) proprement parler, autrement dit son émis- elles simplement d’une asymétrie plus géné-
et OMC (pour Optical Monitor Camera) opérant sion est-elle due à des nébuleuses ou à des rale de notre Galaxie ? Telles sont quelques-
respectivement dans la bande des rayons X étoiles ? Depuis Galilée, on sait que les étoiles unes des questions auxquelles INTEGRAL
et dans le domaine visible. dominent l’émission visible. En revanche, il doit encore apporter ses lumières dans les
a fallu attendre INTEGRAL pour savoir ce qu’il années à venir.
Collaborations
en est dans le domaine des photons gamma
Observatoire de l’Agence spatiale européenne
de basse énergie. La réponse dépend de
(Esa) et, pour la construction des instruments,
l’énergie des photons. En dessous de 200 keV, > François Lebrun
un consortium de laboratoires situés en
IBIS a montré que l’émission de notre Galaxie Service d’astrophysique (SAp)
Allemagne, au Danemark, en Espagne, en
s’avère totalement dominée par celle des Institut de recherche sur les lois fondamentales
France, en Irlande, en Italie, en Norvège, en de l’Univers (Irfu)
systèmes binaires accrétants. Ceux-ci sont
Pologne et en Russie. Direction des sciences de la matière (DSM)
formés d’un trou noir ou d’une étoile à Unité mixte de recherche (CNRS-Université
Rôle du CEA neutrons qui arrache de la matière à son de Paris7-CEA-Observatoire de Paris)
Laboratoire astroparticules et cosmologie
• Conception et coresponsabilité de l’instru- compagnon. C’est l’émission de cette matière, (CNRS-Université de Paris 7- CEA)
ment IBIS. portée à 100 millions de degrés, qu’IBIS a CEA Centre de Saclay (Orme des Merisiers)
Domaine spectral
Bande d’énergie comprise entre 20 MeV et
300 GeV.
Description
• Dimensions : 2 m sur 2 m.
• Poids : 2,8 tonnes.
• Lancement : en 2008, du Centre spatial
Kennedy (Cap Canaveral).
• Position : 565 km d’altitude.
• Durée de vie de la mission : 5 ans, voire
5 ans de plus.
Objectifs scientifiques
Étudier l’accélération de particules auprès :
• des trous noirs d’origine stellaire (micro-
quasars) ;
• des trous noirs géants tapis au centre des
galaxies (quasars) ;
• des étoiles à neutrons (pulsars) et de leurs
vents de particules ultra-relativistes ;
• des vestiges d’explosion de supernovae dont
l'onde de choc accélère probablement les
rayons cosmiques ;
• des explosions d’hypernovae à l'origine des
sursauts ␥.
Étudier les nuages interstellaires irradiés par
les rayons cosmiques et cachant du gaz noir
invisible.
Instruments
• Un télescope sensible aux rayons ␥ (20 MeV NASA
HESS
HESS Colaboration
Les quatre télescopes de 12 m de diamètre de la phase 1 de HESS, installés en Namibie.
HESS (pour High Energy Stereoscopic System) • Pour HESS : 4 miroirs segmentés (380 petits des photons ambiants (effet Compton
est un ensemble de télescopes terrestres miroirs sphériques de 60 cm de diamètre) « inverse ») ou de la désintégration de pions
capables de détecter le rayonnement gamma de 2 mètres de diamètre. Pour HESS 2 : neutres produits dans des collisions de
de très haute énergie. Il doit son nom au 600 miroirs hexagonaux de 1 m2. protons. Le spectre en énergie de ces deux
physicien Victor Hess (1883-1964) qui • Pour HESS : 4 caméras (1,6 m de diamètre, processus atteint son maximum entre
découvrit, en 1912, que la Terre était 1,5 m de longueur et d’un poids de 800 kg), quelques GeV et quelques TeV, c'est-à-dire
bombardée, en permanence, par un flux de chacune dotée de 960 photomultiplicateurs dans les domaines d'énergie couverts par le
particules cosmiques de haute énergie. (dispositifs sensibles à la lumière bleue et satellite Fermi et par HESS. De l’étude
dont le temps de réponse est extrêmement combinée de leurs données viendra, peut-
Domaine spectral
rapide, de l'ordre de la nanoseconde), couvrant être, la preuve que les restes de supernovae
Pour HESS : rayonnement gamma de très
un champ de vue de 5°. Pour HESS 2 : une sont des accélérateurs de protons et donc
haute énergie (100 GeV - 50 TeV) observable
caméra de 3 tonnes, dotée de 2 048 photo- des sources de rayons cosmiques. Grâce à
depuis le sol par son interaction avec la haute
multiplicateurs, couvrant un champ de vue sa résolution angulaire, HESS fut le premier
atmosphère qui produit un très faible éclair
de 3°. à cartographier, en détail, des sources de
de lumière bleue, appelé aussi lumière
photons de très haute énergie du plan galac-
Cherenkov. Pour HESS 2 : (20 GeV – 50 TeV). Collaborations tique. La plupart de ces sources sont des
Description Environ 150 membres majoritairement restes de supernovae ou des nébuleuses de
• Dimensions : miroirs de 12 mètres de allemands et français. pulsars. HESS a également découvert de
diamètre pour HESS et de 28 mètres de nouvelles classes d'objets cosmiques émet-
Rôle du CEA
diamètre pour HESS 2. teurs de rayons gamma comme les étoiles
• Électronique du circuit intégré spécifique
• Poids : télescopes de 50 tonnes, caméra binaires LS5039 et PSR B1259-63 ou encore
nommé ARSO (pour Analogue Ring Sampler)
d’une tonne (HESS). l'amas d'étoiles jeunes Westerlund 2.
initialement développé pour l’expérience
• Lancement : pas de lancement. D'autres sources plus exotiques de photons
Antarès. Seuls quelques laboratoires au
• Position : au sol, sur le plateau de Khomas de très haute énergie sont également recher-
monde sont capables de travailler sur les
(Namibie), près du Gamsberg, à une altitude chées, dont l'annihilation d'hypothétiques
mémoires analogiques rapides. Pour les
de 1 800 mètres. particules de matière noire, prédites par les
besoins du futur télescope HESS 2, l’ARSO
• Durée de vie de la mission : au moins 5 ans. extensions du Modèle standard de la physique
sera remplacé par SAM (pour Swift Analogue
des particules. Prévue pour 2010, l’expérience
Objectifs scientifiques Memory) fonctionnant sur le même principe
HESS 2 devrait permettre d'accéder à des
Étude des processus d'accélération régnant mais avec une capacité de lecture de l’ordre
énergies de quelques dizaines de GeV. Aux
dans des objets aussi variés que les de 105 événements/seconde.
quatre premiers télescopes installés au cours
vestiges de supernovae ou les noyaux actifs • Responsabilité de la conception et de la
de la première phase, démarrée en 2003, s’en
de galaxies. Recherche de processus exo- construction de la carte de déclenchement
ajoutera un cinquième, doté d’un miroir de
tiques de production de photons tels que les du niveau deux de HESS 2. Cette carte de
28 mètres de diamètre et d’une caméra de
annihilations de matière noire sous forme de déclenchement est un composant crucial
2 000 photomultiplicateurs.
particules. Pour HESS 2, il s’agira d'accéder pour obtenir des photons de moins de 50 GeV.
à des énergies de quelques dizaines de GeV.
Les photons de plusieurs centaines de GeV
Instruments détectés par HESS proviennent générale-
• Pour HESS : 4 télescopes de 12 mètres de ment de sources de rayonnement non-ther- > Jean-Francois Glicenstein
diamètre répartis aux coins d'un carré de mique comme les nébuleuses de pulsars, Service de physique des particules (SPP)
120 mètres de côté. Pour HESS 2, un téle- les restes de supernovae, les noyaux actifs Institut de recherche sur les lois fondamentales
de l’Univers (Irfu)
scope de 28 mètres de diamètre au centre de galaxies. Leur émission résulte de colli- Direction des sciences de la matière (DSM)
des quatre précédents. sions d'électrons et de positrons rapides sur CEA Centre de Saclay (Orme des Merisiers)
De l’acronyme Expérience pour détecter, Ces particules fossiles du big bang, polyéthylène). Grâce à son cryostat unique
en site souterrain, les Weakly Interacting évanescentes, se concentreraient dans les au monde par son volume (100 litres) et
Massive Particles (WIMPS). galaxies en formant un halo, notamment ses détecteurs ultra-sensibles (des
autour de notre Voie lactée où « baigne » bolomètres en germanium fonctionnant à
Ni sur terre ni dans l’espace, cet instru- le système solaire et donc la Terre. Si ces 20 mK), les physiciens peuvent mesurer la
ment destiné à identifier la nature de la particules s’avèrent si difficiles à détecter, très faible élévation de la température (à
matière noire (25 % de la masse de c’est en raison de leur très faible interaction peine un millionième de degré) produite
l’Univers) a été installé à 1 700 m sous terre, avec la matière ordinaire et donc, a fortiori, par les chocs infimes laissés par les
dans le hall du Laboratoire souterrain de avec les détecteurs. D’où la nécessité de WIMPS. Cette expérience a nécessité la
Modane (LSM), situé le long du tunnel protéger ces détecteurs des parasites, coopération de neuf laboratoires, dont six
routier du Fréjus. La raison en est que, notamment le rayonnement cosmique et français, deux allemands et un russe.
selon l’hypothèse la plus consensuelle, la radioactivité naturelle (celle émanant,
la matière noire se composerait de par- entre autres, du corps humain, des roches,
ticules nommées Wimps. Or, les théories des matériaux…). Ce qui explique l’ins- > Gilles Gerbier
de supersymétrie (SUSY), en physique tallation souterraine de l’expérience, Service de physique des particules (SPP)
subatomique, prédisent l’existence d’un l’utilisation de matériaux d’une pureté Institut de recherche sur les lois fondamentales
de l’Univers (Irfu)
nouveau type de particules, les neutrali- radioactive extrême et le blindage multiple Direction des sciences de la matière (DSM)
nos qui coïncideraient avec les Wimps. des détecteurs (80 tonnes de plomb et CEA Centre de Saclay (Orme des Merisiers)
CEA
NASA
Vue d’artiste du JWST replié dans la coiffe de la fusée Ariane 5 (image de gauche) et déployé dans l’espace (image de droite)
où l’on peut voir, outre le miroir primaire (en doré), les écrans thermiques (en bleu) qui empêchent les rayons du Soleil de venir
chauffer le télescope.
ujourd’hui encore, le télescope spatial Hubble pourra observer l’Univers tel qu’il existait il y a
A (HST) demeure un des plus fabuleux obser-
vatoires à l’origine d’un nombre impressionnant de
13 milliards d’années, époque de la formation des
premières étoiles.
découvertes. Néanmoins, avec un télescope dont le Il s’agit d’un programme de la NASA avec des parti-
diamètre n’excède pas 2,4 mètres, il ne peut détecter cipations européenne et canadienne. En partenariat
la faible lueur reçue des objets cosmiques les plus avec le Cnes, le CEA, à travers le Service d'astro-
lointains. Y parvenir nécessiterait la conception et la physique (SAp) de l’Institut de recherche sur les lois
construction d’un télescope d’une surface collec- fondamentales de l’Univers (Irfu), assumera deux
trice plus importante, capable d’observer la lumière responsabilités importantes : d’abord, le pilotage de
infrarouge (IR) – la lumière visible émise par un la contribution française à MIRI (pour Mid Infrared
objet très lointain dans un Univers en expansion Instrument), l’un des quatre instruments embarqués
étant décalée vers l’infrarouge pour l’observateur. par JWST et dédié à l’observation du rayonnement
Ainsi naquit l’idée du télescope spatial James Webb
(JWST)(1) pour succéder au HST. Grâce à son miroir (1) Ainsi nommé en hommage au second admistrateur de la
de 6,5 mètres de diamètre, le nouveau télescope NASA, James E. Webb.
NASA
observations du cosmos. D’où la décision de placer
le JWST au point de Lagrange L2, situé à
Maquette, à l’échelle 1, du JWST.
1,5 millions de kilomètres de la Terre (figure 1)
contrairement au positionnement du HST sur une
orbite basse à seulement 600 km de la Terre environ. Ces circonstances conduiront le SAp à prendre
Vu la distance, il ne sera plus question d’aller la responsabilité scientifique et technique de
réparer le télescope en cas de problème ! l’imageur de MIRI(2). Outre l’Irfu, trois autres
Trois instruments principaux trouveront leur place laboratoires français sont impliqués dans ce projet,
au foyer du JWST pour capter la lumière concen- à savoir le Laboratoire d'études spatiales et
trée par le télescope puis la transformer en signal d'instrumentation en astrophysique (Lesia) de
digital envoyé vers la Terre : l’Observatoire de Paris Meudon, l’Institut d’astro-
• NIRCAM (pour Near InfraRed Camera), une physique spatiale (IAS), à Orsay, et le Laboratoire
caméra pour l’infrarouge proche (1 à 5 micromè- d’astrophysique de Marseille (Lam). Quant au
tres), conçue et réalisée aux États-Unis ; Cnes, également partenaire du CEA, il finance le
• NIRSPEC (pour Near InfraRed Spectrometer), un projet à hauteur de 50 % (main-d’œuvre incluse).
spectromètre également dédié à l’infrarouge
proche, conçu et réalisé par l’industrie européenne (2) Outre le SAp, d’autres services de l’Irfu participent au projet :
sous la responsabilité et avec le financement de le Service d’électronique des détecteurs et d’informatique (Sedi),
le service d’ingénierie des systèmes (Sis), le Service des
l’Agence spatiale européenne (ESA) ; accélérateurs, de cryogénie et de magnétisme (Sacm).
• MIRI (pour Mid Infrared Instrument), un spectro-
imageur pour l’infrarouge moyen (5 à 27 micromè-
tres), conçu et réalisé grâce à une collaboration
réunissant, pour moitié, les États-Unis (Jet
Propulsion Laboratory/NASA) et, pour l’autre, un
consortium de laboratoires spatiaux européens
appartenant à dix pays (par ordre d'importance
décroissante des contributions financières : Royaume-
Uni, France, Belgique, Pays-Bas, Allemagne, Espagne,
Suisse, Suède, Danemark, Irlande) conduits par Soleil
l’Observatoire royal d’Edimbourg et financés par
les agences nationales. Lune
Il faut savoir qu’initialement, le projet JWST ne Terre
150
prévoyait aucun instrument dédié à l’observation milli
ons
km
dans l’infrarouge moyen. À la fin des années 1990,
seuls quelques rares astrophysiciens américains et
1,5 m
européens en défendaient la présence à bord du illion
km
futur télescope spatial. Parmi les précurseurs, figu-
raient notamment des astrophysiciens du CEA, L2
conscients des potentialités de ce type d’instrument
et déjà fortement impliqués dans l’observation
du rayonnement infrarouge moyen – par exemple,
avec la caméra ISOCAM envoyée dans l’espace
en 1995 ou avec l’instrument VISIR (pour Very
Large Telescope Imager and Spectrometer in Infrared) Figure 1.
de l’Observatoire européen austral (ESO) au Chili. Schéma indiquant la position du point L2 où sera placé le JWST.
L. Godart/CEA
La caméra du Mid Infrared Imager (MIRIM), destinée au télescope JWST, en train d’être inspectée, sous éclairage ultraviolet, pour vérifier qu’il n’y a pas eu
de contamination particulaire.
Une fois en service, le JWST entrera dans la gamme La réalisation de l'imageur de MIRI confère désor-
des télescopes infrarouge de deuxième génération. mais aux ingénieurs et aux chercheurs du CEA une
Avec une sensibilité et une acuité angulaire 100 fois excellente connaissance de l’appareil. Elle leur garantit
supérieure à celle de ses prédécesseurs, ce nouvel également le temps d'observation nécessaire à la
instrument va permettre des avancées notables dans conduite de nouveaux programmes d’observation
différents domaines de l’astrophysique comme encore plus ambitieux – autant d’atouts qui vont
l’assemblage des galaxies, les premières phases de permettre au SAp de figurer longtemps encore aux
formation des étoiles ou encore la recherche d’exo- avant-postes de la recherche en astrophysique. Cette
planètes. Concernant ce domaine particulier, un expertise acquise par le CEA lors de la construction
mode d’observation dit coronographique a été de l’instrument, lors des tests réalisés en laboratoire
introduit dans l’imageur de MIRI. Il s’agit d’une ou dans l’espace, bénéficiera à l’ensemble de la
méthode permettant d’« éteindre » une étoile pour communauté européenne des astrophysiciens, grâce
sonder ses alentours proches sans être « ébloui » et à la fondation d’un Centre d’expertise implanté à
de pouvoir ainsi rechercher d’éventuelles planètes, Saclay. Autre avantage du projet, celui de conserver la
des « compagnons », des disques de poussière… Ce compétence scientifique et technique du CEA dans le
mode d’observation coronographique a nécessité la domaine du rayonnement de l'infrarouge moyen,
fabrication de composants optiques spécifiques toujours très porteur pour l'astronomie. En effet, la
jusqu’alors introuvables dans l’industrie. Le Lesia suite se prépare déjà avec, notamment, les études de
les a conçus et l’Institut rayonnement matière l’instrument METIS (pour Mid-infrared E-Elt Imager
(Iramis) du CEA les a réalisés. and Spectrograph) pour le télescope E-ELT (pour
Où en est le projet aujourd’hui ? D’un point de European Extremely Large Telescope) : un nouveau
vue technique, les différents modèles de l’imageur géant de 42 mètres de diamètre que l’ESO étudie
de MIRI indispensables à la qualification spatiale aujourd’hui en détail (voir ELT/METIS, un géant de
de l’instrument sont d’ores et déjà réalisés. Le 42 mètres, p. 110).
modèle qui volera se trouve actuellement en phase
de tests sur le centre du CEA de Saclay. À la fin de > Pierre-Olivier Lagage
cette opération, prévue en décembre 2009, et Jean-Louis Auguères
Service d’astrophysique (SAp)
l’instrument sera livré aux ingénieurs britanniques Institut de recherche sur les lois fondamentales de l’Univers (Irfu)
qui opéreront son assemblage au spectromètre Unité mixte de recherche astrophysique
avant d’envoyer le tout à la NASA. Celle-ci procé- interactions multi-échelles
(CEA-Université Paris 7-CNRS).
dera à l’intégration du dispositif au sein du JWST Direction des sciences de la matière (DSM)
en 2011. CEA Centre de Saclay (Orme des Merisiers)
L. Godart/CEA
il a fallu commencer à mettre en place un d’autre de l’Atlantique, entre les premiers
référentiel de travail commun visant à opti- dessins datant du milieu des années 90 et le
miser les chances de succès et à assurer un lancement prévu en 2014. Des composants
Banc de test cryogénique de MIRIM au SAp.
retour d’expérience permettant de minimiser à l’instrument complet, chaque système Les bancs de tests et campagnes d’essais
les risques des projets futurs. subit une campagne de qualification pour peuvent atteindre des niveaux de complexité et
démontrer la fiabilité et les performances du de coût avoisinant, dans certains, cas, ceux de
l’instrument.
Ce référentiel de travail permet, via des concept choisi. Par exemple, avant la réali-
normes d’ingénierie, de qualité et de gestion sation du modèle de vol, la caméra MIRIM
de projets, de prendre en compte, dès les aura connu, en cinq ans, quatre modèles aura fallu 2 500 heures de travail pour
phases préliminaires de conception, les d’instrument complet, destinés à vérifier contrôler les 65 000 composants électro-
contraintes spécifiques du spatial. On pense, toutes ses performances en conditions niques, 900 pièces mécaniques et 50 cartes
bien sûr, d’abord aux contraintes techniques opérationnelles, notamment sa tenue au électroniques.
fortes : les instruments spatiaux font souvent lancement avec des tests de vibration, ou aux
appel à des technologies en limite de faisa- températures extrêmes avec des tests cryo- Ainsi, au fur et à mesure, les concepts s’affi-
bilité utilisées dans des domaines extrêmes géniques en enceinte refroidie à l’hélium nent, les procédures s’améliorent et les
de leurs applications. Mais les exigences liquide (4 K). Pareillement, pour les camé- anomalies (non-conformité ou erreurs) dimi-
liées aux programmes spatiaux dépassent ras PACS (pour Photoconductor Array nuent jusqu’au niveau de risque jugé accep-
largement les besoins fonctionnels en opéra- Camera and Spectrometer) et SPIRE (pour table pour la réussite du projet. Dans un envi-
tion. Ainsi les contraintes environnemen- Spectral and Photometric Imaging Receiver), ronnement politique et international souvent
tales spécifiques, vibrations de la fusée au destinées au télescope spatial Herschel, il complexe, la gestion des programmes
spatiaux demande de savoir doser la gestion
des risques face aux contraintes de coût et de
planning. Supprimer une campagne de test
laisse parfois penser que l’on gagne de
précieuses journées de travail, mais les
risques associés peuvent se révéler autre-
ment plus coûteux et catastrophiques,
comme l’a montré l’exemple d’Hubble. Une
analyse précise des chemins de criticité est
nécessaire pour assurer le bon déroulement
de programmes longs, incertains et risqués.
CEA
Figure 1.
Schéma du masque coronographique en germanium monocristallin (la hauteur de marche n’étant pas à l’échelle).
Inventée par Bernard Lyot (1897-1952) au en une lamelle de géométrie quasiment d'instrumentation en astrophysique
début des années 30, la coronographie parfaite, présentant deux quadrants (Lesia) a fourni des parallélépipèdes, dans
consiste à reproduire une éclipse totale de différente épaisseur par rapport aux un monocristal de germanium, présentant
pour observer la couronne solaire sans deux autres, d’une demi-longueur d’onde des faces parallèles et planes. L’obtention
qu’elle se trouve noyée par la luminosité optique dans le germanium à la fréquence de la différence de marche dans le germa-
de l’astre. Le principe consiste à placer une d’observation (figure 1). nium doit tout à la grande précision des
pastille opaque sur l’image du Soleil outils de microfabrication de la salle
formée par une lunette astronomique, afin L’instrument MIRI (pour Mid Infrared blanche du Service de physique de l’état
d’occulter le disque solaire et de ne laisser Instrument), destiné au futur télescope condensé (Spec). Deux techniques furent
voir ainsi que la lumière de la couronne JWST (pour James Webb Space Telescope), utilisées : la lithographie optique pour la
solaire. Aujourd’hui, la coronographie est utilisera ce principe pour cibler trois définition des quadrants à protéger et la
utilisée pour l’observation d’autres étoiles longueurs d’onde d’observation dans gravure ionique réactive pour la gravure
que le Soleil et il existe une alternative l’infrarouge – d’où le développement de des quadrants plus fins. Mais pour les
aux pastilles de Lyot pour réaliser ces masques de type 4QPM en germanium, un chercheurs, la plus grande difficulté de
observations : ce sont les tout nouveaux matériau qui présente l’avantage de fabrication des masques fut de parvenir à
masques de phase à quatre quadrants devenir transparent dans ce domaine d’ob- la précision requise :
(4QPM), qui permettent de meilleures servation. Dans le processus de fabrica- • une différence de marche établie entre
performances. Leur réalisation consiste tion, le Laboratoire d'études spatiales et 0,8 μm et 2 μm en fonction de la longueur
d’onde de travail ;
• une erreur de marche inférieure à 0,5 % ;
• une excellente homogénéité malgré une
surface totale dépassant le cm2 ;
• une rugosité de surface maintenue infé-
rieure à 30 nanomètres sur l’ensemble du
composant.
Il a fallu réaliser une soixantaine de proto-
types et passer par toute une série d’étapes
(dépôt de résines, gravure réactive,
nettoyage, contrôle de la hauteur de marche
etc) pour obtenir enfin les trois masques
définitifs qui équiperont MIRI (figure 2).
Cnes
Vue d’artiste du satellite SVOM.
n 2014, sera lancé le satellite SVOM (pour Space sursaut gamma sur une portion de la voûte céleste et
E based multi-band Variable Object Monitor) pour
scruter les sursauts gamma, autrement dit les événe-
d’en déterminer la localisation avec une précision
d’au moins 10 minutes d’arc – il devrait en détecter
ments les plus violents de l’Univers depuis le une centaine par an. L’optique classique ne permet-
big bang. Leur éclat extrême devrait permettre la tant pas de focaliser les rayons gamma, les chercheurs
détection des premières étoiles de l’Univers, ainsi se sont donc orientés vers l’imagerie par masque
que l’arpentage du cosmos, en les utilisant comme codé. Comme son nom l’indique, le principe de cette
des chandelles astronomiques. Cet éclat leur vient technique consiste à placer un masque devant un
d’une émission en rayons gamma, très forte mais plan de détection en sachant qu’à une position
également très fugace : de 0,1 à 100 secondes. À cette donnée d’une source dans le ciel, correspond une
première émission succède toujours une seconde, projection unique du motif de masque sur le plan de
celle-ci beaucoup plus faible, décroissante dans le détection. Reste ensuite à utiliser un outil mathéma-
temps et couvrant une large bande allant du rayon- tique pour reconstruire l’image qui permettra de
nement X à celui de l’infrarouge en passant par le remonter à la direction de la source. Le masque codé
rayonnement visible. Le caractère éphémère du se compose d’une plaque de tantale perforée d’un
phénomène gamma, et la volonté de l'observer motif choisi, tendue sur un cadre de titane afin de
simultanément dans une large bande spectrale, compenser les déformations thermiques – une réali-
impliquaient des moyens adaptés. D’où la mission sation du Laboratoire astroparticule et cosmologie
SVOM avec sa panoplie de télescopes, installés à la de Paris. Ce masque est supporté par une structure
fois dans l’espace et au sol, avec une sensibilité allant en carbone rigide et légère, entourée d’un blindage
des rayons gamma à la lumière infrarouge. Cette multicouche de plomb, cuivre et aluminium, dont le
complémentarité d'instruments en fait une expé- rôle consiste à arrêter les photons ne provenant pas
rience unique au monde pour l’étude des sursauts du champ de vue défini par le masque.
gamma, de leur émission prompte à leur émission Réalisé par le Centre d’étude spatiale des rayonne-
rémanente. Il s’agit d’une coopération sino-française ments de Toulouse, le plan de détection associe des
initiée entre l’Agence spatiale chinoise, l’Académie cristaux détecteurs de tellurure de cadmium et des
des sciences de Chine et le Centre national d’études circuits intégrés de lecture analogique bas bruit
spatiales (Cnes). (Application-Specific Integrated Circuit/ASIC). L’as-
Au cœur de ce dispositif, figure le télescope ECLAIRs, semblage réalise un empilement compact de céra-
l’initiateur de toute la chaîne de mesures de la miques jusqu’à former une unité de détection de
mission. Développé à l’Irfu qui en assure la maîtrise 6 400 pixels pour une surface de 1 024 cm2. Refroidi
d’œuvre, il s’agit de la principale contribution fran- par un système performant utilisant des caloducs à
çaise à la charge utile du satellite SVOM. La mission conductance variable, sa température d’ensemble se
d’ECLAIRs consistera à détecter l’apparition d’un situe à -20 °C. Une attention toute particulière a été
portée à la valeur du seuil bas de détection. Grâce au se réoriente de manière à pouvoir observer l’émission
choix rigoureux des détecteurs élémentaires et à une rémanente grâce aux télescopes embarqués dédiés
maitrise aiguë du bruit de l’électronique, un seuil aux rayonnements X et visibles à petit champ de vue.
bas à 4 keV a pu être obtenu. Il s’agit d’un résultat En parallèle, le F-UTS prépare un message d’alerte.
crucial pour le télescope, notamment pour détecter Rapidement envoyé au sol à l’aide d’un émetteur
des événements situés à des distances cosmologiques VHF, couplé à une trentaine de stations de réception
où les photons se décalent vers les basses énergies. réparties au sol sous la trajectoire du satellite, ce
L’ASIC a été développé par l’Irfu tandis que l’opti- message déclenchera l’observation de la rémanence
misation du couple détecteur/ASIC vient d’une de du sursaut gamma par les télescopes terrestres. Grâce
ses activités de R&D. à cette observation, il devient alors possible de déter-
Également développée par l’Irfu, l’unité de traite- miner la distance de l’événement.
ment scientifique embarquée F-UTS(1) devra déceler La mise en œuvre de solutions performantes et nova-
et localiser, en temps réel, l’apparition d’un sursaut trices témoigne du savoir-faire acquis par les équipes
gamma sur la voûte céleste, puis analyser les données techniques en instrumentation spatiale. Fort de cette
issues du plan de détection concernant les photons. expérience, SVOM ouvrira une fenêtre nouvelle sur
La conception du F-UTS s’opère autour d’un micro- l’Univers, celle donnant sur la connaissance de ces
processeur embarqué tolérant aux radiations phénomènes lointains que sont les sursauts gamma.
spatiales. L’algorithme scientifique embarqué Mais pour cela, il faut attendre 2014.
emploie deux méthodes de détection de sursauts.
Celle dédiée aux sursauts gamma longs reconstruit > Bertrand Cordier
des images du ciel toutes les 20 secondes pour y Service d’astrophysique (SAp)
Institut de recherche sur les lois fondamentales de l’Univers (Irfu)
rechercher l’apparition d’une nouvelle source. Unité mixte de recherche astrophysique
Sensible aux sursauts gamma plus courts, la seconde interactions multi-échelles
scrute tous les intervalles de temps, jusqu’à 10 ms, (CEA-Université de Paris 7-CNRS).
Direction des sciences de la matière (DSM)
pour déceler une augmentation du nombre de CEA Centre de Saclay (Orme des Merisiers)
photons détectés, ce qui lui permettra de recons-
truire l’image du ciel et donc de trouver la source. > Michel Fesquet
Service d’électronique des détecteurs et d’informatique (Sedi)
Une fois le sursaut gamma localisé, le satellite SVOM Institut de recherche sur les lois fondamentales de l’Univers (Irfu)
Direction des sciences de la matière (DSM)
(1) « F » pour Français. CEA Centre de Saclay
CEA
nomie X. Mais elle se limitait à l’observation des
rayons X de relativement basse énergie, dits « mous ». Figure 1.
Aujourd’hui, la situation demeure inchangée. L’ensemble du plan focal de détection, placé sous responsabilité de l’Irfu, avec ses différents
La mission Simbol-X met en œuvre la technologie éléments et les laboratoires les fournissant : CEA, Laboratoire astroparticule et cosmologie
(APC), Max Planck Institut für extraterrestrische Physic, Institut für Astronomie und
émergente du vol en formation pour fabriquer, pour Astrophysik-Tübingen (IAAt), Cnes. Les différents composants et leur fonctionnement sont
la première fois, un télescope de très grande focale. décrits en détail dans le texte.
Ce nouveau concept révolutionnaire consiste à placer
l’optique focalisatrice de rayons X sur un premier
satellite et le plan focal sur un second, asservi en silicium étant transparent aux rayons X de plus haute
position par rapport au premier, de façon à former, énergie qui sont bien plus pénétrants, un second plan
en quelque sorte, un télescope quasiment rigide mais lui a été adjoint, juste en dessous du premier, de
sans tube. Avec une telle configuration, le télescope manière à pouvoir arrêter et caractériser ces rayons.
peut être sensible aux rayons X dits « durs », c’est-à- Ce deuxième plan est réalisé par le CEA, à base de cris-
dire dix fois plus énergétiques que les rayons X taux de tellure de cadmium (CdTe), matériau ayant
« mous ». Cet instrument à focalisation de nouvelle déjà prouvé son efficacité dans l’imageur à masque
génération est cent à mille fois plus performant que codé d’INTEGRAL. Depuis le lancement de ce satel-
les meilleurs instruments actuels. lite, d’importantes avancées ont été enregistrées
L’idée de Simbol–X fut proposée dès la fin 2001, par les concernant la miniaturisation (les pixels de Simbol–X
astrophysiciens du CEA. Portée par les communautés étant 50 fois plus petits) et la réduction maximale des
scientifiques française, italienne et allemande, la phase zones insensibles entre les pixels. Le plan imageur
d’étude de faisabilité du projet a été passée avec succès. haute énergie est construit en juxtaposant 64 mini-
Elle a été conduite par les agences spatiales française et caméras X, de 1 cm2 de côté, avec chacune 256 pixels
italienne ainsi qu’une vingtaine de laboratoires français, complètement adjacents et comprenant toute l’élec-
italiens et allemands, réunis sous la responsabilité tronique critique à leur fonctionnement (figure 1).
conjointe du CEA et de l’Italie. Parmi les éléments clefs Un système compact de blindage et de détecteurs de
de Simbol–X figurent notamment : particules entoure les deux plans imageurs. Fourni
• l’optique X, placée sous la responsabilité italienne, par le Laboratoire astroparticules et cosmologie
qui bénéficie du savoir-faire acquis lors des missions (APC) de Paris, il réduit, d’un facteur 10, les bruits
d’astronomie X à basse énergie, notamment celle parasites engendrés par les nombreux rayons
du satellite XMM (pour X-ray Multi Mirror) ; ses cosmiques peuplant l’espace interplanétaire. Ce plan
caractéristiques principales résident dans sa focale focal, étudié sous responsabilité de l’Irfu, dispose
de 20 mètres et son excellente résolution angulaire également d’un traitement de données de bord géré
de 20 secondes d’arc ; par le Centre d’études spatiales des rayonnements
• le vol en formation, une première donc, dépend du (CESR) de Toulouse.
Cnes ; le défi consiste à pouvoir garder, de façon Les agences spatiales italienne et française n’ayant pu
automatique, le satellite « détecteur » positionné réunir les fonds suffisants pour financer cet ambitieux
autour du point focal donné par l’optique avec une projet, celui-ci n’a pu entrer dans la phase d’étude
incertitude de l’ordre du cm3 ; détaillée. Étant donné la qualité de la « science à faire »
• l’ensemble détecteur, fabriqué par la France avec avec ce projet et la large communauté de chercheurs
une participation de laboratoires allemands, doit intéressée, il devrait renaître dans un autre contexte.
couvrir entre 0,5 et 80 kiloélectronvolts, s’avérer
extrêmement sensible et être doté d’une grande
finesse d’imagerie.
Pour répondre à son exigeant cahier des charges, > Philippe Ferrando
Service d’astrophysique (SAp)
l’ensemble détecteur se base sur la superposition de Institut de recherche sur les lois fondamentales de l’Univers (Irfu)
deux plans « spectro-imageurs » de 16 384 pixels Unité mixte de recherche astroparticule et cosmologie
couvrant 8 x 8 cm2 au total (figure 1). (CNRS-Université de Paris 7-CEA-Observatoire de Paris)
Direction des sciences de la matière (DSM)
Pour chaque photon X (comptés un par un à ces CEA Centre de Saclay (Orme des Merisiers)
énergies), ils en mesurent l’énergie et la localisation
sur le détecteur. Le premier plan spectro-imageur, en > Martial Authier
silicium, fourni par une équipe allemande, détecte Service d’ingénierie des systèmes (SIS)
Institut de recherche sur les lois fondamentales de l’Univers (Irfu)
les rayons X « mous » avec une vitesse de lecture Direction des sciences de la matière (DSM)
20 000 fois plus rapide que ses prédécesseurs. Le CEA Centre de Saclay (Orme des Merisiers)
ESO
de ce télescope géant.
ort des succès remportés par le programme Very Parallèlement aux études menées en vue de la réali-
F Large Telescope (VLT), un ensemble de 4 téle-
scopes de 8 mètres de diamètre, l’Observatoire euro-
sation du télescope E-ELT, l’ESO a lancé plusieurs
appels d’offre aux laboratoires européens concernant
péen austral (European Southern Observatory/ESO) les instruments dédiés aux foyers du télescope.
relève aujourd’hui un nouveau défi : celui de réaliser Compte tenu de son expérience exceptionnelle dans
un télescope doté d'un miroir de 42 m de diamètre le domaine de l’infrarouge dit « moyen »(1), le Service
(1 300 m2). Construire un miroir de cette surface et d’astrophysique (SAp) du CEA (Irfu) a rejoint un
d’un seul tenant est aujourd’hui encore totalement consortium de laboratoires dirigé par l’Observatoire
impossible. D’où l’idée d’en segmenter la surface en de Leiden (Pays Bas) pour mener les études prélimi-
un millier de pièces hexagonales mesurant chacune 1,4 naires sur le futur instrument METIS (pour Mid-
mètre de large. Lourd de 5 000 tonnes (la moitié du infrared E-ELT Imager and Spectrograph) prévu pour
poids de la tour Eiffel), ce géant portera le nom équiper l’E-ELT. Outre l’étude des cryomécanismes
d’European-Extremely Large Telescope (E-ELT) et développés avec le Service d'ingénierie des systèmes
devrait être opérationnel à l’horizon 2018. Son site (SIS), le SAp a pris en charge l’imagerie d’objets avec
d’installation ne sera dévoilé que début 2010 : peut- un fort contraste d’intensité (par exemple, le cas d’une
être le Chili, l’Argentine ou encore l’île de La Palma aux planète située à côté d’une étoile) qui nécessite des
Canaries. Comme son prédécesseur VLT, le télescope modes d’observation particuliers comme la corono-
E-ELT observera le cosmos, à partir du sol, dans la graphie ou l’imagerie différentielle.
gamme de rayonnements proche des ultra-violets, Le domaine du rayonnement infrarouge moyen s'est
visibles et infrarouges. développé en trente ans d'une manière impression-
Augmenter la taille d’un télescope présente un double nante. Au début des années 1990, le SAp figurait déjà
avantage. D’abord, celui de détecter des objets plus en pionnier en matière d’imagerie du cosmos à partir
faibles ou plus lointains, grâce à une surface collectrice du sol dans ce type de rayonnement, notamment grâce
plus grande. Ensuite, celui de voir les objets avec une à des matrices de détecteurs développées par le
finesse de détail plus grande. En effet, suivant le phéno- Laboratoire d’électronique et de technologies de l’in-
mène physique de diffraction de la lumière, l’image formation (Leti) – sous-produit des importants déve-
d’un objet ponctuel à travers un télescope ne donne loppements de matrices de détecteurs réalisés dans le
pas un point, mais une tache, dite « tache de diffrac- cadre du projet spatial ISOCAM. À l’époque, les images
tion ». En conséquence, plus le diamètre du télescope ne dépassaient pas les quelques milliers de pixels et
s’avère grand, plus cette tache est petite. Ainsi la tache provenaient d’un télescope de quelques mètres de
de diffraction d’une étoile, à travers l’E-ELT, aura-t-elle diamètre seulement. Trente ans après, nous allons
une surface 25 fois plus petite et que celle des images pouvoir accéder à des images d’un million de pixels
produites jusque-là par VLT. Ces deux avantages obtenues avec un télescope 100 fois plus puissant, soit
combinés permettront de conduire des programmes une progression d’un facteur 100 000 !
uniques, notamment celui d’étudier les disques entou-
rant les étoiles, lieux de formation des planètes, voire
d’observer directement l’émission thermique d’exo- > Pierre-Olivier Lagage et Eric Pantin
Service d’astrophysique (SAp)
planètes géantes. Institut de recherche sur les lois fondamentales de l’Univers (Irfu)
Unité mixte de recherche astrophysique
interactions multi-échelles
(CEA-Université de Paris 7-CNRS).
(1) Il s’agit du rayonnement ayant une longueur d’onde située Direction des sciences de la matière (DSM)
entre 5 et 25 micromètres. CEA Centre de Saclay (Orme des Merisiers)
Figure 1
Amélioration de la carte astronomique du plan galactique prédite en passant de HESS au CTA.
Le nombre de sources détectées devrait s’accroître de plus d'un ordre de grandeur.
ans le sillage de l’expérience européenne HESS le CTA observera des flux de rayonnement dix fois plus
D (1)
(pour High Enegy Stereoscopic System) et de ses
succès dans le domaine de l’observation en astronomie
faibles que ceux détectés actuellement par HESS. Avec
l’introduction d’un nombre important de télescopes
gamma de très haute énergie, le futur CTA (pour dans le réseau, le nouveau CTA sera bientôt capable
Cherenkov Telescope Array) s’inscrit dans le grand projet d’obtenir des résolutions angulaires de l'ordre de la
de réseau européen de télescopes Cherenkov de minute d'arc.
nouvelle génération. Son originalité réside dans la posi- Plusieurs équipes de chercheurs, majoritairement euro-
tion de ses deux réseaux d'imageurs Cherenkov péennes, collaborent à la conception et la construction
atmosphériques. Le premier, implanté dans l'hémis- du CTA. Pour la France, il s’agit du CEA avec l’Irfu et
phère Nord, observera dans la bande de basse énergie du CNRS avec l’Institut national de physique
allant de 10 GeV à 1 TeV. Son jumeau sera positionné nucléaire et de physique des particules (IN2P3) et
dans l'hémisphère Sud et dédié à la bande d'énergie l’Institut national des sciences de l’Univers (Insu).
allant de 10 GeV à 100 TeV. Au cœur du réseau CTA- Actuellement en cours, la phase de conception et de
sud figurent quatre télescopes dotés de miroirs d’en- construction des prototypes se poursuivra jusqu'en
viron 20 mètres de diamètre. Un anneau formé par 2011-2012. Le projet CTA figure sur la feuille de route
plusieurs dizaines de télescopes de douze mètres de du Forum stratégique européen pour les infrastruc-
diamètre, semblables à ceux équipant déjà le télescope tures de recherche (European Strategy Forum on
HESS, formera un premier cercle autour de ces instru- Research Infrastructures/Esfri) et participe à deux
ments – dispositif complété par un deuxième cercle réseaux européens ERAnet : Astro Particle ERAnet
d’une autre dizaine de télescopes, possédant des miroirs (ASPERA) et Astronet.
de six mètres de diamètre. Avec ce dispositif complexe,
> Jean-François Glicenstein
Service de physique des particules (SPP)
(1) En hommage au physicien autrichien Victor Hess (1883- Institut de recherche sur les lois fondamentales de l’Univers (Irfu)
1964), prix Nobel de physique, en 1936, pour la découverte Direction des sciences de la matière
du rayonnement cosmique. CEA Centre de Saclay (Orme des Merisiers)
La première caméra, dédiée à la lumière visible, se une qualité d’image très stable, autant spatialement
compose de 36 détecteurs de type Charge coupled dans tout le champ de vue du télescope que tempo-
device (CCD) pour un total de 600 millions de rellement, pour que la qualité des données soit
pixels. Elle réalisera la mesure de la forme des images homogène. Quant à la conception de la charge utile,
de galaxies. Une deuxième caméra, travaillant celle- elle tient compte de la dégradation des performances
là en lumière infrarouge, composée d’environ des détecteurs du fait des radiations dans l’espace.
50 millions de pixels, fera des observations complé- Aujourd’hui, l’Irfu dirige un consortium de labora-
mentaires pour mesurer la distance des galaxies. toires, composé d’une demi-douzaine de pays euro-
Enfin, un troisième instrument, indépendant des péens et d’un laboratoire américain, pour étudier
deux caméras d’imagerie, obtiendra les spectres de l’instrument d’imagerie en charge des mesures de
plus de 100 millions de galaxies, destinés à mesurer « cisaillement gravitationnel faible ». L’enveloppe
la relation entre la distance et le décalage spectral de financière actuellement impartie à cette mission
ces objets. spatiale s’élève à 450 millions d’euros apportés par
l’ESA, un budget complété par la contribution
La mission Euclid des différentes agences spatiales nationales. Quatre
La principale difficulté des observations de type autres missions demeurent à l’étude, dont deux
« cisaillement gravitationnel faible » provient des seront sélectionnées début 2010. Il faudra attendre
erreurs de mesures systématiques. D’où la nécessité 2011 pour connaître le projet finaliste et 2017 pour
d’optimiser la conception des instruments, du téle- son lancement.
scope et du satellite, de façon à ce que les erreurs
instrumentales s’avèrent plus faibles que les erreurs
statistiques. Pour cette raison, le satellite Euclid sera > Olivier Boulade
placé en orbite autour du point de Lagrange L2, et Alexandre Refregier
Service d’astrophysique (SAp)
situé à 1,5 million de kilomètres de la Terre, dans la Institut de recherche sur les lois fondamentales de l’Univers (Irfu)
direction opposée au Soleil, où l’environnement Unité mixte de recherche astrophysique
thermique du satellite restera très stable. Les cher- interactions multi-échelles
(CEA-Université de Paris 7-CNRS).
cheurs espèrent que les instruments d’Euclid, prévus Direction des sciences de la matière (DSM)
pour cinq à six années d’observation, donneront CEA Centre de Saclay (Orme des Merisiers)
L. Fabre/CEA
Immersion d’un étage à trois « yeux » lors du déploiement de la première ligne d’Antarès à 40 kilomètres de la Seyne-sur-Mer.
il est un lieu où une personne non initiée n’irait déviées par les champs magnétiques intergalactiques.
S’ pas chercher un télescope, c’est bien dans les
profondeurs marines. Pourtant, l’expérience Antarès
La solution à l’ensemble de ces problèmes passe par
le neutrino. Produit dans les objets où le rayonne-
(pour Astronomy with a Neutrino Telescope and Abyss ment cosmique s’accélère, il s’agit d’une particule
environmental RESearch) observe les cieux par élémentaire neutre et donc insensible aux champs
2 500 mètres au fond de la mer Méditerranée, à magnétiques – il n’interagit que faiblement avec la
40 kilomètres au large de Toulon. Placer un télescope matière et rend donc l’Univers transparent. Il permet
observant vers le bas, à travers la terre, et donc à l’in- de sonder le cœur des objets les plus denses. Mais cet
verse des instruments tournés vers le ciel, pourrait avantage devient un inconvénient : il les rend extrê-
paraitre saugrenu a priori. Pour les chercheurs, il s’agit mement difficile à observer. D’où l’idée de concevoir
d’un endroit qui pourrait permettre de contribuer à un détecteur, suffisamment grand pour pouvoir
résoudre une énigme encore indéchiffrée de l’astro- déceler quelques rares interactions de ces particules
physique : l’origine du rayonnement cosmique qui fugaces, et immergé pour atténuer le flux du rayon-
pourtant bombarde l’atmosphère en permanence. nement cosmique. Il recevra le nom d’Antarès.
Pour comprendre l’expérience Antarès, il faut savoir Qu’il soit immergé augmente les chances d’observer
que les rayons cosmiques les plus énergétiques nais- les neutrinos en se servant de la Terre comme cible.
sent d’événements comme les échanges de matière En effet, un neutrino qui interagit avec la croûte
dans les étoiles binaires, l’explosion de supernovae terrestre crée un « muon » émis dans la même
dans la Voie lactée, les jets des noyaux actifs de direction. En arrivant dans le milieu marin, celui-ci
galaxies ou les sursauts gamma dans les zones plus produit alors des photons Cherenkov. Antarès peut
éloignées du cosmos. Il faut savoir encore que les les observer grâce à son réseau de 900 photodétecteurs
photons gamma, aux énergies les plus extrêmes, ne installés sur 12 lignes, hautes de 450 mètres, espacées
permettent de sonder les phénomènes cataclysmiques de 65 mètres, dont la surface d’ancrage équivaut à
que dans la proche banlieue de la galaxie. Difficulté quatre terrains de football (figure 1). Chaque ligne est
supplémentaire : les particules constituant le rayon- maintenue verticale par des bouées et comporte
nement cosmique – pour l’essentiel des protons – 25 étages équipés de trois photomultiplicateurs et
sont rapidement arrêtées ou, à plus basse énergie, d’une électronique embarquée capable de transmettre
des signaux, en temps réel, vers la côte. Là, une particules appellent « un bruit de fond ». La décou-
« ferme » de plusieurs dizaines d’ordinateurs filtre la verte d’une source cosmique n’interviendra qu’à l’oc-
centaine de photons recueillie pour chaque muon, de casion d’une accumulation anormale de quelques
la lumière parasite due à la radioactivité naturelle et neutrinos de haute énergie observée sur cette carte.
à la faune bioluminescente. Mais la détection d’une telle source apportera la
Opérationnel depuis 2006, Antarès a permis d’accu- preuve irréfutable de la présence d’un accélérateur du
muler un grand nombre de données, notamment rayonnement cosmique.
des dizaines de millions de muons descendants Compte tenu du très faible nombre d’événements
provenant de l’interaction du rayonnement cosmi- attendus, le développement de l’astronomie neu-
que dans l’atmosphère, malgré le blindage d’eau trinos appelle un détecteur aux dimensions kilomé-
placé au-dessus du détecteur. Mais ce sont également triques, soit 50 fois plus grand qu’Antarès et doté de
des muons montants, un phénomène beaucoup plus plusieurs milliers de photomultiplicateurs. L’étude de
rare – seulement quelques milliers par an – induits ce télescope du futur a déjà commencé au sein du
par des neutrinos dits atmosphériques, les seules consortium KM3NeT (pour Km3 scale Neutrino
particules produites lors de l’interaction du rayon- Telescope), un consortium regroupant 40 laboratoires
nement cosmique aux antipodes qui soient capables appartenant à 10 pays européens et financé avec
de traverser la Terre. Une fois leur direction déter- l’aide l’Union européenne.
minée, ces neutrinos peuplent uniformément la carte Prévue pour 2012, le début de la construction de
du ciel et constituent ce que les physiciens des astro- l’instrument concrétisera une infrastructure pluri-
disciplinaire unique au monde dans le domaine des
sciences environnementales (océanographie, sismo-
logie, zoologie marine, climatologie...). En l’atten-
dant, Antarès continue de scruter le ciel de
l’hémisphère Sud, à travers la Terre, à la recherche de
l’origine du rayonnement cosmique.
F. Montanet,/CNRS/IN2P3 et UFJ.
Figure 1.
Vue d’artiste du détecteur Antarès, un réseau de POUR EN SAVOIR PLUS
900 photodétecteurs équipant 12 lignes de 450 mètres
de haut à 2 500 mètres de profondeur. Ces lignes délimitent
T. STOLARCZYK, Le neutrino, particule ordinaire, Collection Les petites pommes
du savoir, Éditions du Pommier, 2008.
un volume de 20 millions de tonnes d’eau utilisée pour
observer la lumière Cherenkov des particules qui la traverse http://antares.in2p3.fr et http://www.km3net.org
(les échelles et le nombre d’éléments ne sont pas respectés).
Des spectro-imageurs
de nouvelle génération
En même temps que l’Année mondiale de l’astronomie, 2009 célébrera le 400e anniversaire
des premières observations faites avec une lunette astronomique, par Thomas Harriot
et Galileo Galilei, sur les montagnes lunaires, les taches solaires, les phases de Vénus
ou encore les satellites de Jupiter. Aujourd’hui, les astrophysiciens ne se contentent plus
de télescopes posés à terre mais envoient leurs observatoires dans l’espace pour mieux
scruter l’Univers. Parmi les instruments embarqués figurent les spectro-imageurs
capables de faire, à la fois, de la spectrométrie et de l’imagerie. La contribution du CEA
a été particulièrement significative dans la conception, le développement, la construction,
la qualification de ces instruments dont une nouvelle génération est en train de naître.
ESO
suffisamment sensibles pour mesurer le rayonnement du dispositif est faible, plus l’élévation
dans le domaine millimétrique. de température s’avère importante. Le bolomètre est une sorte de
L’observatoire Herschel a grandement contribué au À très basse température, ce phéno- thermomètre ultrasensible, capable
développement de ces bolomètres aux longueurs mène s’amplifie par une forte chute de déceler d’infimes variations de
température (quelques millionièmes
d’onde inférieures au millimètre et à stimuler les de la capacité calorifique de la de degré). Ici, le plan focal bolométrique
recherches technologiques en la matière (voir matière. 32x64 pixels de l’instrument PACS.
encadré).
NASA
rayonnement : cornets en face de chaque détecteur,
sphères intégrantes, assemblage manuel de chaque
À droite : une vue d'artiste du satellite Herschel dont le télescope et l'instrumentation ont
été placés au-dessus d'un réservoir d'hélium. À gauche : Herschel étudiera les sites
pixel, etc. Nos avancées ont bénéficié du contexte
de formation d'étoiles dans une gamme d'énergie inexplorée (image de Rho Ophucius exceptionnel des années 1990, marquées par l’essor
vue par le satellite ISO). de la micro-électronique, notamment avec l’avène-
ment de puces capables de contenir différents types
de capteurs obtenus par gravure profonde et collec-
tive du silicium (micro-accéléromètres pour les
airbags équipant les véhicules automobiles, détec-
teurs de méthane destinés à l’habitat…). À cet élan
technologique s’ajoutait une circulation de l’infor-
mation plus détendue que celle qui avait été en
vigueur au cours des années précédentes : des idées
anciennes concernant l’absorption des ondes
électromagnétiques sont redevenues au goût du
jour. Elles ont été adaptées au problème de la détec-
tion par les équipes du Leti pour être compatibles
avec les procédés de fabrication collective. Plus rien
ne s’opposait à la réalisation de grandes matrices de
détecteurs.
Reste, pour les chercheurs, à relever un autre défi,
celui de faire en sorte que la sensibilité des nouveaux
détecteurs ne soit plus limitée que par les fluctua-
tions de rayonnement émanant du miroir du téle-
scope (pourtant refroidi à près de -200 °C). Jusqu’à
présent, les détecteurs nus dont la surface n’atteint
pas le mm2, pouvaient déjà distinguer l’équivalent
d’une ampoule électrique de 100 Watt située à
300 km de là. Avec le télescope Herschel, l’observa-
toire fera bien mieux en détectant une source
analogue mais placée, cette fois, à la distance de la
Lune ! Parvenir à une telle performance suppose de
ESA
thermiques sur
le cryoréfrigérateur
de rechange du satellite
Herschel.
Ces détecteurs se répartissent en deux plans focaux Quant à la grille bolométrique en silicium, elle
dans les gammes respectives de 60 à 130 µm et 130 se trouve suspendue par des poutres très fines
à 210 µm. Dans la caméra, leur distribution permet (ⵑⵑ 2 µm) et faiblement conductrices de la chaleur.
de cartographier la même zone du ciel mais à des Ce dispositif permet au rayonnement ténu absorbé
longueurs d’onde différentes. À plus courte d’induire une élévation mesurable de sa tempéra-
longueur d’onde, la complexité du plan focal s’éta- ture. Enfin, un thermomètre en silicium dopé, situé
blit à 64 x 32 pixels, ce qui permet de bénéficier au au centre de la grille, réalise la mesure en exploitant
mieux de la résolution du grand miroir d’Herschel ; une loi exponentielle de la résistance avec la tempé-
en revanche, une complexité de 32 x 16 pixels suffit rature. Il révèle un cœfficient de température de près
aux plus grandes longueurs d’onde. Chaque plan de 3 000 %/K. Comparée à une surface « pleine », la
focal est formé de modules 16 x 16 pixels « abouta- grille présente un double avantage : d’abord, celui de
bles » sur trois côtés. Et comme les détecteurs posséder une masse calorifique plus faible garantis-
présentent une large bande spectrale d’absorption, sant une vitesse de réponse thermique ; ensuite, celui
le montage des modules s’opère indifféremment sur d’offrir une moindre susceptibilité aux parti-
l’une ou l’autre des voies optiques. Seuls les filtres cules cosmiques ionisantes présentes dans
optiques placés devant chaque plan focal définissent l’environnement spatial. Bien sûr, l’utilisa-
alors la gamme de longueurs d’onde. Chaque pixel tion d’une grille pour absorber la
du module correspond à un bolomètre silicium lumière peut poser question : cette
préalablement hybridé, au moyen d’une bille en lumière n’allait-elle pas « passer »
indium, à un circuit de lecture et de multiplexage en par les trous de la grille ? Ce n’est
technologie CMOS (pour Complementary Metal pas le cas pour la bonne
Oxide Semiconductor)(1). L’opération d’hybridation raison que la lumière ne
conduit à trois fonctionnalités : « distingue » pas les détails
• l’interconnexion électrique habituelle du bolo- inférieurs à sa longueur
mètre au circuit de lecture ; d’onde. Il suffit donc de
• la réalisation d’une cavité optique pour piéger effi- fabriquer une grille d’un
cacement la lumière incidente ; pas inférieur à la longueur
• la tenue mécanique et la thermalisation du bolo- d’onde à détecter.
mètre. Concernant les modules
La taille des billes d’hybridation a été calculée pour 16 x 16, chacun d’entre eux
que la cavité résonnante s’accorde à la longueur fut évalué individuellement
d’onde à absorber. Cette cavité comprend la grille lors de campagnes de tests
bolométrique ainsi qu’un réflecteur situé sur le réalisées entre 2003 et 2005.
circuit CMOS : elle favorise l’absorption maximale Au vu des performances, ils
de l’onde incidente, proche de l’unité. L’absorption ont été intégrés dans les
s’effectue dans un métal déposé sur la grille et dont plans focaux et étalonnés
l’impédance de surface est adaptée à celle du vide. une première fois. Ensuite,
une fois la caméra complète
(1) Succédant aux transistors bipolaires, la technologie intégrée dans l’instrument
CEA
CMOS consiste à fabriquer des composants électroniques
à faible consommation électrique dédiés à la conception PACS – cryoréfrigérateur et Réfrigérateur
des processeurs. l’électronique de vol compris – à hélium 3.
CEA
(pour Atacama Pathfinder Experiment), installé au
Un des plans focaux bolométriques (32 x 64 pixels) équipant l’instrument PACS.
Chili, et de PILOT (pour Polarized Instrument for
Long wavelenght Observation of the Tenous interstelar
un étalonnage final a pu être opéré en deux étapes : medium), expérience dotée de deux plans focaux,
la première, réalisée sur le centre du CEA de Saclay, montés dans une caméra embarquée sous ballon,
en 2006, et la seconde, à Garching (Allemagne), pour mesurer l’émission polarisée du rayonnement
l’année suivante. Au début de l’année 2008, ce fut au en provenance de la Voie lactée.
tour de l’instrument PACS de prendre place à bord Enfin, l’optimisation du bolomètre devrait égale-
du satellite Herschel avec SPIRE et HIFI (pour ment pouvoir servir à diverses applications à très
Heterodyne Instrument for Far-Infrared). Les derniers faible flux de fond. C’est le cas de SPICA (pour Space
ajustements réalisés (changement des connecteurs Infrared Telescope for Cosmology and Astrophysics),
défaillants du satellite, re-routage des câbles pour mission spatiale conduite par l’Agence japonaise
éviter les perturbations dues aux panneaux (JAXA) en collaboration avec l’Agence spatiale
solaires…), le satellite fut déclaré « bon pour le européenne (ESA), dont le lancement interviendra
service » en décembre 2008. à l’horizon 2018. Ce télescope spatial utilisera le
même miroir qu’Herschel mais refroidi à -268 °C !
Perspectives Pour optimiser au maximum cette nouvelle confi-
Actuellement, les équipes ayant développé cette guration, les chercheurs devront augmenter la sensi-
caméra submillimétrique tendent leurs efforts vers bilité des détecteurs d’un facteur 100 au minimum.
deux directions. Pour atteindre une telle sensibilité (puissance de
• La première consiste à pousser les matrices de bruit de 10-18 watts), le refroidissement du bolo-
bolomètres de PACS vers les plus grandes longueurs mètre silicium sera abaissé jusqu’à 0,05 Kelvin.
d’onde afin de les installer sur de grands télescopes Afin de répondre aux défis lancés par cette nouvelle
mission, le CEA s’est engagé dans une phase d’études
préliminaires. Par exemple, les chercheurs du
SBT travaillent déjà à la conception d’un cryoré-
frigérateur à désaimantation adiabatique pour
l’espace. SPICA devrait ouvrir la voie à d’autres
projets passionnants comme les expériences FIRI
(pour Interférométrie bolométrique dans l’espace)
ou BPOL (pour Mesure de la polarisation du fond
cosmologique à 3 K).
interactions multi-échelles
(CEA-Université de Paris 7-CNRS)
Photographie au microscope électronique à balayage d’un pixel bolomètre. CEA Centre de Saclay (Orme des Merisiers)
Reste de la supernova
(étoile qui explose en fin
de vie) Cassiopée A.
Chandra Supernova Remnants Catalog
L'image en rayons X,
obtenue par le satellite
Chandra, montre en
fausses couleurs
l'expansion d'une bulle de
gaz à plusieurs millions
de degrés à l'intérieur
d'une enveloppe
d'électrons extrêmement
énergétiques.
Le nouveau projet envisagé consiste en un à son voisin pour former une structure
satellite déployable. C’est-à-dire qu’il ressemblant à une galette de microcanaux.
partira dans la coiffe de la fusée, replié, et L’avantage énorme de cette technologie
qu’une fois dans l’espace, un mécanisme réside tant dans sa légèreté que dans la
permettra de l’étendre jusqu’à une dizaine rigidité de l’ensemble, ce qui rend le miroir Vue d’artiste d’IXO.
A. Aliane/CEA
du pixel capable d’intégrer les spécifications
contraignantes de l’astronomie X (voir encadré
Les lumières d’IXO). La réalisation des pixels
microcalorimétriques (500 x 500 µm2) par micro- Matrice d’absorbeur en tantale.
usinage dans une plaque de silicium sur isolant
(SOI) appelle un savoir-faire virtuose. Les résul- sous microscope. Or, cette technique ne convient
tats montrent des senseurs extrêmement fins pas aux matrices de grande taille. D’où l’idée d’une
(moins de 1,5 µm d’épaisseur) reliés à la source matrice prototype de 64 pixels hybridés, extrapo-
froide au moyen de poutres de silicium dont la lable à de plus grandes tailles, que le Leti a réalisée
section ne dépasse pas les quelques microns carrés. grâce à une technologie de report (absorbeur sur
Autant de performances compatibles avec l’exi- senseur) non plus manuelle mais collective.
gence de solidité puisque les senseurs supportent Néanmoins, un obstacle de taille empêche encore
leur assemblage par hybridation, au moyen de la réalisation d’un plan focal à partir d’une
billes d’indium, avec des absorbeurs constitués de mosaïque constituée avec ce type de matrices,
minces feuilles de tantale. Par ailleurs, il a fallu à savoir l’inexistence d’une électronique de proxi-
toute l’expertise du Leti pour réussir l’intégration mité fonctionnant à basse température. Indispen-
du thermomètre dans la plaque suspendue. En sable à la lecture et au multiplexage, cette
effet, cet instrument comportant une résistance électronique doit être cryogénique pour trouver sa
variable en fonction de la température (de l’ordre place dans le cryostat au plus près du détecteur,
du mégohm à 50 mK), le contrôle d’un haut position qui présente une multitude d’avantages :
niveau de dopage (à une fraction de pour-cent simplicité, fiabilité, immunité au bruit, augmen-
près) s’imposait, avant de l’homogénéiser par un tation de la bande passante, réduction de la puis-
traitement à haute température. Cette technique sance parasite sur les cryoréfrigérateurs de vol (aux
de fabrication a permis la réalisation de thermo- performances obligatoirement limitées). Dans
mètres enfin capables d’atteindre les performances cette optique, les chercheurs explorent aujourd’hui
requises. des voies originales comme les Transistors à haute
Restait encore à traiter la question des matrices de mobilité électronique (HEMTs) en GaAlAs/GaAs
grande taille. Jusqu’à présent, celles de petite (arséniure de galium et arséniure de galium-
dimension se fabriquaient par assemblage manuel aluminium) ou les ASICs (pour Application-
des absorbeurs avec les senseurs, opération réalisée Specific Integrated circuit) en silicium-germanium.
Ces avancées bénéficieront incontestablement à
l’amélioration des performances des futurs obser-
vatoires dédiés à l’astronomie X, leur surface effec-
tive ou leur résolution spectrale notamment. Les
chercheurs en sont persuadés : de nouvelles décou-
vertes astrophysiques, aujourd’hui encore impré-
visibles, en résulteront.
L. Vigouroux/CEA
Installation d’un
cryoréfrigérateur de vol omment obtenir des températures cryogé- d’atteindre des températures de 1,5 K en utilisant de
sur le cryostat de test.
C niques dans l’espace ? Le moyen le plus simple
consiste à profiter des ressources naturelles disponi-
l’hélium – l’obtention de températures inférieures
nécessitant de passer par d’autres solutions techno-
bles – par exemple, celles offertes par le vide quasi logiques.
parfait de l’Univers et le « fond » froid du ciel.
L’absence de matière (notamment de gaz) limite les Du cryostat au cryoréfrigérateur
échanges de chaleur aux seuls transferts radiatifs. Pourtant, les orientations actuelles de la cryogénie
Dès lors, en se positionnant face au fond noir du ciel spatiale privilégient la suppression de cryostats au
qui rayonne à environ 2,7 K, il s’avère théorique- profit de systèmes, appelés cryoréfrigérateurs,
ment possible de refroidir une surface jusqu’à des conçus pour refroidir jusqu’aux températures cryo-
températures de seulement quelques kelvins(1). géniques (en dessous de 120 K). En effet, bien que
Dommage qu’en pratique, la méthode ne vaille que l’utilisation de cryostats soit une technique simple et
pour des orbites particulières – les meilleurs offrant de multiples avantages, celle-ci n’en présente
systèmes, appelés radiateurs passifs, ne permettant pas moins deux inconvénients majeurs : une masse
pas d’atteindre des températures inférieures à 30 ou et un volume importants qui limitent la durée de
40 K. Une autre solution consiste à prendre un mission en raison de l’assèchement du réservoir. En
liquide cryogénique, préalablement liquéfié sur terre revanche, les cryoréfrigérateurs peuvent fonctionner
et stocké dans un réservoir appelé cryostat, puis de quasi indéfiniment car leur source électrique s’ali-
profiter du vide intersidéral pour obtenir un refroi- mente grâce à l’énergie photovoltaïque disponible
dissement par évaporation. Cette technique permet dans l’espace, ce dont bénéficient déjà presque toutes
les missions spatiales.
(1) La correspondance entre l’échelle en kelvin (K) avec
les degrés Celsius est facile : l’échelle de kelvin prend son Le SBT, notamment le Laboratoire cryoréfrigérateurs
origine au zéro absolu (-273,15 °C) et 1 K vaut donc 1 °C. et cryogénie spatiale, développe depuis plusieurs
pression
point critique
émergent pour obtenir le refroidissement d’un
composant destiné à une application spatiale, et à des
températures inférieures à 1 K (-272,15 °C) :
• le refroidissement par évaporation utilisant un gaz
isotope de l’hélium (l’hélium 3) ;
• le refroidissement magnétique par désaimantation
adiabatique ; O,3 K (-272,85°C) 2 K (-271°C)
Essais vibratoires au
Centre spatial de Liège.
Installation d’un modèle
de vol sur la table
vibrante.
L. Duband/CEA
Décollage et résistance mécanique performances s’en trouvent altérées. En effet, bien
Enfin, parmi les ultimes contraintes liées à l’envoi qu’utilisant de l’hélium liquide pour leur fonction-
d’instruments dans l’espace, mais non des moindres, nement à basse température, ces systèmes demeurant
figurent encore l’isolation thermique nécessaire à scellés peuvent se recycler indéfiniment après l’éva-
l’obtention des très basses températures et la tenue poration de la dernière goutte de liquide. La limite
mécanique requise pour résister à un décollage de vient seulement de la disponibilité de l’étage supé-
fusée, celui d’Ariane 5 par exemple. Pour les résoudre, rieur. Ainsi, dans le cas de Herschel, le réservoir prin-
les chercheurs utilisent des suspentes en Kevlar. Ce cipal devrait s’assécher après trois ans et demi de
matériau présente le double avantage d’une faible fonctionnement.
conductivité thermique et d’une très forte résistance Les futures missions SPICA (pour Space Infrared tele-
mécanique (deux fois la résistance d’un fil en acier scope for Cosmology and Astrophysics) et IXO (pour
de même diamètre). Que la durée de vie de ce type International X Ray Observatory) appelleront des
de cryoréfrigérateur ne soit pas limitée, a priori, moyens de refroidissement visant des températures
découle directement de l’absence de pièce mobile. La plus basses encore (50 mK). Le savoir-faire acquis dans
preuve en est que plusieurs systèmes fonctionnent en le domaine des systèmes 300 mK à évaporation d’hé-
laboratoire, depuis plus de vingt ans, sans que leurs lium, enrichit le développement en cours d’une archi-
tecture originale, associant un système du type
d’Herschel avec un ou plusieurs étages de désaiman-
tation adiabatique (refroidissement magnétique).
Cette combinaison devrait diminuer, de manière
significative, la masse du cryoréfrigérateur et donc
augmenter la part de « science » embarquée. Pour ces
deux futures missions, la chaîne cryogénique se
composera uniquement de cryoréfrigérateurs méca-
niques : d’où l’allongement possible de la durée des
missions ainsi que l’optimisation de la masse « utile »
embarquée. Ces avancées acquises, les chercheurs
doivent encore relever plusieurs défis technologiques.
Le premier d’entre eux concerne l’association d’un
système de type Herschel, qui génère des pics de puis-
sance lors des phases de recyclage, avec les étages supé-
rieurs mécaniques qui, eux, acceptent mal ces pics.
L’objectif sera donc d’imaginer et de concevoir une
architecture thermique permettant de distribuer aux
mieux les rejets thermiques.
CEA
permis des avancées spectaculaires, il n’en demeure
Vue d’artiste d’un trou noir accrétant la matière de son étoile compagnon
pas moins que la détection – un par un – des photons dans un système binaire.
gamma dans l’espace figure comme l’un des grands
défis lancés aux astrophysiciens. International Gamma Ray Astrophysics Laboratory), il
s’agit d’une mission de l’Agence spatiale européenne
Révolution dans l’astronomie (ESA) lancée en 2002. Le CdTe figure parmi les maté-
des hautes énergies riaux les plus efficaces pour la détection des photons
Voilà déjà une vingtaine d’années que les astrophysi- gamma. Cette réussite du CEA a impulsé le dévelop-
ciens observant dans la gamme des rayons X durs pement de nouveaux petits « bijoux technologiques »
et gamma, ont troqué leurs scintillateurs pour des toujours plus performants. Ainsi, les efforts conjoints
détecteurs plus sensibles et plus complexes à base de de R&D conduits par le CEA et le Cnes depuis ISGRI
semi-conducteurs en silicium et en germanium, puis (pour Integral Soft Gamma-Ray Imager), garantissent
surtout en tellurure de cadmium (CdTe), excellent aujourd’hui les performances scientifiques du futur
matériau pour la détection des photons gamma. Pour télescope spatial ECLAIRs, dédié à la détection des
l’astronomie des hautes énergies, ce fut une révolution. sursauts gamma ou d’un télescope haute énergie de
En effet, grâce à leur pixellisation, ces instruments, nouvelle génération du type de SIMBOL-X.
véritables appareils photo numériques à rayons
gamma embarqués sur des satellites, apportent une De nouveaux instruments
finesse d’image, une précision de datation, une sensi- pleins d’esprit
bilité et une mesure de l’énergie de chaque photon Pour filer la métaphore, le portrait des détecteurs de
encore jamais atteintes auparavant. Le CEA a joué un la nouvelle génération dédiés à l’astronomie X dur et
rôle majeur dans la conception de cette nouvelle géné- gamma spatiale peut se dessiner en quatre traits :
ration de spectro-imageurs semi-conducteurs et dans • L’esprit leur vient d’un système de détection
l’optimisation de leurs performances. Le degré de composé d’un senseur en CdTe et de son électronique
précision acquis résulte de la détermination des cher- associée placés au sein d’un module de détection
cheurs à protéger leurs détecteurs, de plus en plus miniature complexe, « spatialisable » et optimisé
miniaturisés et pixellisés, contre le bruit tant physique scientifiquement (une caméra gamma se compose
(dû aux rayons cosmiques) qu’électronique. d’une mosaïque de ces modules). Les progrès en
La première grande caméra à bénéficier des perfor- détection gamma spatiale reposent donc sur des
mances technologiques apportées par l’usage de détec- efforts simultanés consentis sur les senseurs (CdTe à
teurs à base de tellurure de cadmium (CdTe) fut ISGRI électrode Schottky(1) fortement segmentée), leur
(pour Integral Soft Gamma-Ray Imager) dont la
surface de détection atteint un quart de mètre carré. (1) L’électrode Schottky est réalisée avec un contact métal
Installée à bord du satellite INTEGRAL (pour semi-conducteur formant une diode polarisée en inverse.
CEA/Cnes
circuit équipant la caméra ISGRI. Ces circuits, asso-
ciés de façon classique à de bons cristaux de CdTe,
permettent de détecter des photons de 1,5 keV à Modules Caliste 256. Chacun des ces deux prototypes est un spectro-imageur miniature de
250 keV. Leur seuil bas, à la limite inférieure de la 1 cm de côté et environ 2 cm de haut. Un cristal de CdTe est placé au sommet d’un composant
gamme de détection, est environ deux fois et demie électronique (doré) dans lequel huit circuits IDeF-X sont empilés verticalement.
plus faible que sur les meilleurs circuits équivalents
existant par ailleurs dans le monde. Cette perfor- (figure 1). Ceci implique que les huit circuits IDeF-X
mance offre un atout maître aux futures missions puissent être entièrement disposés sous la petite
ECLAIRs et SIMBOL-X. surface de CdTe. Pour y arriver, la solution consiste à
• Les composants hybrides 3D et le packaging en empiler les circuits et à les présenter perpendiculai-
formerait l’enveloppe charnelle. Préparer un imageur, rement à la surface du cristal. Cette prouesse techno-
avec ses détecteurs CdTe et ses circuits IDeF-X asso- logique a été exécutée par la société française 3D Plus.
ciés, passe par leur assemblage dans un composant Pour une utilisation dans l’espace, ces modules
hybride. Le plus dense de ces composants se nomme unitaires de détection présentent une garantie de
Caliste 256. Il est équipé d’un cristal de CdTe d’un fiabilité qui réduit considérablement les risques de
centimètre carré, pixélisé au pas de 580 µm, chaque panne dans un imageur spectrométrique. Il faut dire
pixel étant connecté à une chaîne IDeF-X. Huit que ce composant a été conçu de manière à résister
circuits IDeF-X fonctionnent simultanément pour aux stress mécaniques, thermiques et radiatifs inhé-
extraire les 256 signaux d’un seul Caliste. Spécifiée rents à la mise en orbite.
pour l’observation d’un large champ de vue, la grande Aujourd’hui, les chercheurs ne connaissent qu’un mot
surface de l’imageur s’agence avec une mosaïque de capable de qualifier ce détecteur de nouvelle généra-
composants Caliste, chacun aboutable sur ses quatre tion : impressionnant ! Ses performances en appor-
côtés pour ne laisser subsister aucune zone morte tent la preuve :
• la résolution spectrale, inférieure à 900 eV FWHM
(Full Width at Half Maximum) à 60 keV devient six
5000
fois plus précise que pour ISGRI ;
• le seuil bas descend à 1,5 keV contre 15 keV pour
4000 ISGRI ;
• les pixels sont 100 fois plus petits.
nombre d’événements
3000
Lorsqu’il sera placé au foyer d’un télescope de type
SIMBOL-X, ce modèle de spectro-imageur CdTe
pour les rayons gamma apportera, de façon certaine,
2000 une quantité extraordinaire de résultats scientifiques.
1000
> Olivier Limousin
Service d’astrophysique (SAp)
0 Institut de recherche sur les lois fondamentales de l’Univers (Irfu)
0 10 20 30 40 50 60 70 Direction des sciences de la matière (DSM)
énergie (keV) Unité mixte de recherche astrophysique
interactions multi-échelles
Figure 1. (CEA-Université de Paris 7-CNRS)
Exemple d’un spectre enregistré avec Caliste 64. La figure CEA Centre de Saclay (Orme des Merisiers)
représente la distribution en énergie des photons émis par
une source d’américium 241. Ce spectre est constitué de > Eric Delagnes
la somme des réponses de 64 pixels indépendants étalonnée Service d'électronique des détecteurs et d'informatique (Sedi)
en énergie. La résolution spectrale vaut environ 900 eV fwhm Institut de recherche sur les lois fondamentales de l'Univers (Irfu)
à 60 keV. Le seuil de détection vaut environ 1,5 keV Direction des sciences de la matière (DSM)
(A. Meuris/CEA). CEA Centre de Saclay
Photo Link
e CEA, impliqué dans les problématiques d’en- photosphère et la chromosphère d’où émergent des
L vironnement terrestre, construit un deuxième
spectromètre à résonance multicanal appelé
régions plus sombres appelées « taches solaires » ou
plus brillantes appelées « facules » (figure 1).
GOLF-NG (pour Global Oscillations at Low Depuis plus d’une dizaine d’années, le satellite
Frequency et New Generation). Pour cet instrument, SoHO (pour Solar and Heliospheric Observatory)
il s’agira d’éclaircir les rôles respectifs joués par le scrute le Soleil interne et externe, en continu, grâce
cœur solaire et la région de transition entre la à une dizaine d’instruments capables d’enregistrer
FIGURE 1
15 20
au cours du temps, des hautes latitudes vers l’équa- 1
10
13
16
teur. Les astrophysiciens connaissent bien la source 100
7 12
14
5 6
de ce phénomène occasionné par une température
locale plus froide associée à une augmentation du 50
0,3
longueur d’onde, sur chaque flanc de raie. Par sa
0,2
référence atomique, il s’agit d’une méthode de préci- 0,1
sion unique. Elle permet notamment de mesurer 0
b) GOLF-NG
0,7
0,6
0,5
0,4
intensité
0,3
0,2
0,1
0
-0,1
-15 -10 -5 0 5 10 15
Figure 2.
Principe de mesure du spectromètre à résonance
CEA
GOLF-NG un spectromètre
à résonance multicanal
Avec ce nouvel instrument entièrement réalisé à
l’Irfu, il sera notamment possible de mesurer simul-
tanément le spectre des modes d’oscillation solaires
à huit hauteurs dans l’atmosphère (figure 3) entre
200 et 800 kilomètres au-dessus de la photosphère.
Pour les astrophysiciens, ce spectromètre particulier
présente une série d’avantages. D’abord, il offre une
meilleure détection des signaux acoustiques en
raison de leur amplitude croissant exponentielle-
ment, avec la hauteur, dans l’atmosphère. Ensuite, il
perfectionne la détection des modes de gravité résul-
tant de la réduction des effets granulaires. Enfin
GOLF-NG mesure en continu l’évolution du
comportement global de l’atmosphère, entre la
photosphère et la chromosphère, région d’émer-
gence du flux magnétique.
Le champ magnétique, nécessaire pour réaliser
l’échantillonnage en huit points de la raie D1 du
sodium, n’est autre qu’un champ axial linéairement
variable de 0 à 12 KGauss. Il s’obtient à l’aide d’un
aimant permanent construit avec des aimants en
néodyme-fer-bore et des pièces polaires en fer-cobalt
de petite taille (20 x 15 x 10 cm3). L’homogénéité
transverse du champ, en tout point de sa variation
le long de son axe, est meilleure de 2 % dans un
volume cylindrique de 10 mm de diamètre. Cette
propriété garantit l’uniformité de la réponse en
longueur d’onde pour l’ensemble du volume de
résonance de la cellule de gaz. Réalisée en pyrex
haute température, celle-ci comporte deux parties
indispensables au déroulement de l’opération : le
canal 0
canal 1
canal 2
canal 3
canal 4
canal 5
canal 6
S. Turck-Chièze/CEA
canal 7
104
PSD = spectre de puissance (m/s)2/Hz
Le satellite SoHo (lors des derniers tests d’intégration) a été lancé par une fusée
Atlas-Centaure et scrute le Soleil à 1,5 million de km de la Terre. Ce satellite, lancé
en 1995, est toujours en observation avec des instruments qui étudient le Soleil, 103
du cœur à la couronne. L’instrument GOLF est visible à gauche de l’image.
Pour succéder à l’observatoire solaire conçu entre l’Agence > Pierre-Henri Carton
spatiale européenne (ESA) et la NASA, une mission de vol Service d'électronique des détecteurs et d'informatique (Sedi)
en formation est proposée pour décrire complètement Institut de recherche sur les lois fondamentales de l'Univers (Irfu)
et continûment l’impact de l’activité solaire sur Direction des sciences de la matière (DSM)
l’environnement de la Terre. CEA Centre de Saclay
MÉMO B
De la lumière à l’image
ous baignons dans la lumière. Elle
N nous entoure, paraissant à chacun
évidente et familière. Pourtant, l’œil
humain n’est sensible qu’à une infime
partie du spectre lumineux, la région
comprise entre 400 et 700 µm environ.
Ainsi, à côté de la lumière visible, existe-
t-il une lumière invisible constituant la
grande majorité du spectre électroma-
gnétique (voir mémo A). Pour connaître
et explorer l’Univers de façon aussi
complète que possible, les astrophysi-
ciens ont besoin de collecter l’ensemble
de ces lumières invisibles pour réaliser
des images du ciel « invisible ». Jusqu’à
présent, ce type d’images a souvent
permis de mettre en lumière un Univers
inattendu, comme un Univers variable à
l’échelle de quelques heures dans le
donc de créer un tableau de pixels dont arc-en-ciel. En astrophysique, la gamme Dès lors, on comprend pourquoi les
chaque case contient une valeur numé- des couleurs permettant de coder les astrophysiciens conçoivent et fabriquent
rique. La qualité d’une image dépend sources lumineuses s’étend souvent du des télescopes dont la taille augmente sans
directement de sa définition, autrement rouge au bleu indigo ; dans cette disci- cesse : ainsi, entre Galilée qui observait les
dit du nombre de pixels enregistrés en pline, du plus froid au plus chaud, mais étoiles avec une lunette dont la lentille ne
hauteur (dans l’axe vertical) et en largeur aussi du moins énergétique au plus dépassait pas 6 cm de diamètre, et le téle-
(dans l’axe horizontal). Les spécialistes énergétique… scope spatial Hubble doté d’un miroir de
s’expriment en termes de « dimension Une fois l’image digitalisée et codée, tous 2,4 m de diamètre, les astrophysiciens ont
informatique », soit le nombre de colon- les problèmes ne sont pas résolus pour gagné un facteur 40 en résolution angu-
nes de l’image multiplié par son nombre autant. Pour l’astrophysicien, reste à régler laire (2,4 m/6 cm = 40). Autre exemple,
de lignes. L’intervalle de nombres que peut la question de la résolution angulaire qui celui d’Herschel, le plus grand télescope
porter un pixel s’avère également très est égale au rapport entre la longueur envoyé dans l’espace dont le diamètre
important car il traduit la dynamique d’onde dans laquelle s’effectue l’observa- atteint 3,5 mètres. De cet instrument qui
lumineuse dont le capteur sera capable de tion et la taille du miroir du télescope qui détecte le rayonnement infrarouge et
rendre compte. collecte la lumière. La résolution angulaire submillimétrique, les chercheurs atten-
La valeur stockée dans un pixel est codée mesure la taille angulaire des plus petits dent des informations extrêmement
sur un certain nombre de bits détermi- détails perceptibles par le télescope, précises sur les systèmes solaires en cours
nant la couleur ou l'intensité du pixel. exprimés en degrés, en minutes, voire en de formation ou les processus physiques
L’ultime étape du processus consiste donc secondes d’arc. Ainsi, à taille de miroir conduisant à la naissance d’étoiles et de
à établir ce code. Dans toutes les disci- constante, plus la longueur d’onde de la galaxies. Mais, aussi sophistiqué et perfor-
plines de la communication, qu’il s’agisse lumière captée s’avère courte, plus les mant soit-il, dans cette longueur d’onde,
de mots ou d’images, un code se définit détails de l’image sont fins. Autre solution la finesse de résolution de ce télescope ne
comme une règle visant à convertir de pour améliorer la finesse de l’image : dépassera pas celle de la lunette de Galilée.
l’information sous une autre forme de augmenter le diamètre du miroir. Que se En revanche, Herschel va réaliser l’exploit
représentation. Un code exprime une passe-t-il si l’on observe deux sources d’observer dans les lumières invisibles du
idée, un concept. Pour les astrophysiciens lumineuses angulairement proches ? Il rayonnement infrarouge et submillimé-
qui veulent établir des cartes de l’Univers existe deux cas de figures possibles. Si la trique, et d’apporter la lumière sur les
à partir d’une gamme d’énergie détectée séparation des deux sources est supérieure mondes enfouis de l’Univers.
par leurs instruments, il s’agit de définir à la résolution angulaire, le télescope Les astrophysiciens en sont sûrs : ils
une convention de couleurs. Chaque distinguera les deux sources. Dans le cas vivent une véritable révolution.
discipline possède la sienne : par exemple, contraire, ces deux sources sembleront
sur les cartes de navigation aérienne, la n’en former qu’une seule. Même dans l’hy-
coloration rouge indique la présence pothèse où le télescope a la capacité de source lumineuse
d’orages tandis qu’en agriculture, le vert séparer ces deux sources, il faut bien choisir
désigne un espace cultivé. Le code de son détecteur ! En effet, si les images des détecteur
couleurs défini, il faut ensuite établir un deux sources se projettent toutes deux sur
continuum d’intensité par rapport à le même pixel du détecteur, l’image
conversion en signal
l’unité de base : par exemple, pour rester obtenue ne montrera qu’une seule source.
éléctrique
dans le domaine de l’agriculture, un En conséquence, à longueur d’onde fixée,
spectre de verts allant de la culture inten- la finesse de l’image dépend à la fois du
sive au désert en passant par différents diamètre du télescope (il doit être aussi conversion de l’intensité électrique
en chiffre : numérique
pourcentages de déforestation. Ce spectre grand que possible) et de la taille des pixels
peut se définir comme une sorte de faux (ils doivent être aussi petits que nécessaire).
CEA
Simulation de six jours de données du satellite GLAST (pour Gamma-ray Large Area Space Telescope), rebaptisé Fermi Gamma-Ray Space Telescope.
Bande d'énergie comprise entre 0,1 et 1 GeV, filtrée par l'algorithme MR-filter à base d'ondelettes.
DR
manquantes
Figure 3.
Les données manquantes constituent un problème
En haut, la simulation d’une image contenant deux sources et la même image vue par
Herschel. En bas, à gauche, l’image a été calibrée après une compression classique et, récurrent en astronomie, dû à des pixels défectueux ou
en bas, à droite, la solution obtenue par la technique du Compressed Sensing. à des zones éventuellement polluées par d’autres émis-
sions et que l’on souhaite masquer lors de l’analyse de
PACS Herschel (Photodetector Array Camera and l’image. Ces zones masquées occasionnent des diffi-
Spectrometer) qui nécessite une compression d’un cultés lors de traitements ultérieurs, en particulier
facteur huit avec une puissance de calcul extrême- pour extraire des informations statistiques comme le
ment faible. Les méthodes standard de compression spectre de puissance ou le bispectre. L’inpainting est la
d’image comme JPEG ne conviennent pas. Heureu- procédure qui va venir combler ces zones. Des travaux
sement, depuis une dizaine d’années, d'importants récents montrent que l’on peut reconstruire les zones
développements en analyse harmonique permettent manquantes en recherchant une solution parcimo-
de représenter des images dans des bases de fonctions nieuse dans un dictionnaire de formes prédéfinies.
convenant à certains types d'objets. Par exemple, les Avec un choix judicieux de dictionnaire, on obtient des
ondelettes sont idéales pour détecter des structures, la résultats fantastiques (figure 4).
transformée ridgelet est optimale pour la recherche
de ligne et les curvelets représentent bien les contours Planck et l’extraction du fond diffus
ou les filaments contenus dans une image. Plus géné- cosmologique
ralement, une représentation « parcimonieuse » des La mission spatiale Planck, qui a été lancée, le
données conduit à de meilleures performances pour 14 mai 2009, par l’Agence spatiale européenne (Esa),
des applications aussi variées que la compression des en même temps que la mission Herschel, a pour
données, la restauration d'images ou la détection d'ob- objectif de cartographier des fluctuations spatiales
jets. Une nouvelle théorie, Compressed Sensing, lie d’intensité et de polarisation de l’émission du ciel
désormais formellement le nombre de coefficients millimétrique, en vue notamment de caractériser les
non nuls dans une base donnée et l'échantillonnage propriétés statistiques des anisotropies du fond de
nécessaire à une reconstruction exacte du signal. Ce rayonnement cosmologique fossile. Ces mesures
récent concept montre que la contrainte sur le pas permettront de contraindre fortement les modèles
cosmologiques et, entre autres, de tester le modèle
standard du big bang ainsi que de déterminer, avec une
précision inégalée, les paramètres cosmologiques
décrivant l’ensemble de l’Univers. Planck offre les
meilleures perspectives pour comprendre ce modèle,
de l’Univers primordial (inflation) à l’astrophysique
des émissions galactiques, en passant par la formation
des structures, les amas de galaxies, la matière noire
et l’énergie noire, ou encore la topologie de l’Univers.
Deux instruments sont opérationnels, le Low
Frequency Instrument (LFI) et le High Frequency
Instrument (HFI), pour obtenir neuf cartes de tout le
ciel entre 30 et 1 000 GHz. Ces cartes contiendront le
fond cosmologique, mais aussi d'autres composantes
liées à des émissions galactiques (poussière) ou inter-
DR
La simulation numérique
en astrophysique
Au dialogue exclusif entre théorie et observation, s’est substitué, depuis quelques années
déjà, le triptyque théorie/simulation/observation. Entre des modèles théoriques toujours
plus complexes et l’observation qui demeure le test ultime pour la validation
des théories, la simulation numérique vient faire office de lien.
Informatique et prédictions
théoriques en astrophysique
Pour la plupart, les théories physiques reposent sur des équations complexes
et non linéaires. Elles mettent également en jeu des systèmes dynamiques
propices au chaos et à l’imprédictibilité. Sans appui informatique, il devient donc
quasiment impossible de calculer les prédictions d’une théorie, particulièrement
en astrophysique.
Supercalculateur Bull
du Centre de calcul
recherche et technologie
CEA
(CCRT) du CEA.
lors que la plupart des sciences physiques théorie à l’expérience que d’explorer les consé-
A parviennent à simplifier, à l’extrême, leur
appareillage expérimental de façon à ne garder que
quences de tel ou tel modèle. En astrophysique, la
gravité, l’hydrodynamique, le rayonnement et le
le processus élémentaire à étudier, rien de tel en champ magnétique figurent comme les quatre
matière d’observation astronomique. La raison principaux modèles à décrire.
tient à l’impossibilité pour les chercheurs d’inter-
venir sur leur objet d’étude : ils ne peuvent géné- La gravité
ralement accéder qu’à des mesures partielles Il s’agit de la principale force intervenant dans la
d’objets complexes se trouvant dans des états dyna- formation des structures cosmologiques quelle
miques divers et incontrôlables. D’où le rôle fonda- qu’en soit l’échelle. Parmi les plus grandes d’entre
mental joué par la simulation (voir encadré) qui elles se trouvent les amas de galaxies dominés par
va établir le lien entre théorie et observation. La la matière noire dont la gravité reste la seule force
simulation permet également d’explorer certaines d’interaction. Sur la liste des plus petites, figurent
propriétés de modèles en réalisant des expériences notamment les étoiles et planètes en formation.
numériques : il s’agit alors moins de confronter la Là, c’est la matière classique, dite baryonique, qui
domine la masse. La gravité y demeure la force précise consiste à calculer cette force pour toutes les
fondamentale de formation des structures mais paires de particules possibles puis à additionner les
viennent s’y ajouter tous les processus hydrodyna- résultats. Néanmoins, cette méthode nécessite
miques, magnétiques et de couplage au rayonne- N (N-1) calculs de distances, ce qui exige un temps
ment. La modélisation de la gravité traverse donc de calcul prohibitif lorsque la simulation comporte
toute l’astrophysique. de nombreuses particules. C’est pourquoi son
Pour représenter une distribution de masse, emploi se restreint à des cas particuliers.
la méthode classique consiste à utiliser des « parti- La plupart des codes de simulation calculent en
cules » numériques, dont chacune possède une réalité la gravité par des méthodes plus rapides qui,
masse, une position, une vitesse, et une constitution : au prix de légères approximations, autorisent un
matière noire, étoile, nuage de gaz, planète… Selon plus grand nombre de particules, donc une haute
les problèmes et les calculateurs, le nombre N de ces résolution. Les deux techniques principales, le
particules se compte en millions, voire en milliards, treecode et les « codes sur grille », permettent
dans les simulations modernes. Celles-ci se décom- d’accélérer le calcul des forces gravitationnelles en ne
posant en pas de temps successifs, une probléma- demandant que N(log N) calculs de distance.
tique revient couramment, celle de calculer, aussi • Le treecode, ou « code en arbre », conçu de manière
précisément que possible, la force gravitationnelle adaptative, sert à résoudre l’interaction d’autant
subie par une particule, exercée par les N-1 autres mieux que les particules s’avèrent proches. La
particules. La technique la plus simple et la plus figure 1 montre la distribution spatiale de quelques
a
1 2 1 2 4 6
4 3 5 b
3
a b
5
Figure 1.
Les particules représentant une distribution de corps massifs (par exemple des étoiles) sont regroupées en plus proches voisins à l’extrémité de la structure
en arbre d’un treecode, ici détaillée pour les particules 1 à 6. Leurs interactions mutuelles sont calculées de manière exacte, puis elles sont regroupées
en pseudo-particules (ici a et b) pour calculer les interactions à plus grande distance.
Figure 2.
La même distribution de particules est ici traitée dans un code sur grille (a). L’opération de fusion des particules sur la grille aboutit au calcul de la densité
de masse (b, représentée par les niveaux de gris). La résolution de l’équation de Poisson permet de calculer le potentiel gravitationnel (grille c) à partir de
la densité, puis la force gravitationnelle subie par chaque particule en fonction de la position sur la grille du potentiel.
particules numériques. Une structure « en arbre » se l’aide d’un à dix millions de particules, autorisant
construit dans la mémoire de l’ordinateur pour des résolutions spatiales de l’ordre d’une dizaine de
regrouper « les plus proches voisins ». Sur cette parsecs.
figure, deux feuilles d’une même branche de l’arbre Le grand avantage du treecode réside dans sa
représentent les particules 1 et 2. Leur interaction conception adaptative. Le calcul des interactions
gravitationnelle se calcule de manière exacte étant plus fin à petite distance, la résolution
(aux arrondis informatiques près), c’est-à-dire devient optimale pour suivre les structures denses
proportionnellement à chacune de leur masse et et massives. En revanche, ce code ne figure pas
inversement proportionnelle au carré de leur parmi les meilleurs pour modéliser la formation
distance. L’interaction entre les particules 3, 4 et 5 de nouvelles structures dans des régions qui ne
se traite aussi de manière exacte. En revanche, sont pas déjà denses. Pour cette raison, les simu-
concernant des particules plus éloignées les unes des lations de formation des structures s’intéressent
autres, l’estimation des interactions se simplifie afin souvent à d’autres codes, dits de « particules sur
d’accélérer le calcul. Si l’on descend d’un niveau grille ».
sur l’arbre, les particules 1 et 2 sont remplacées par • Les codes dits de « particules sur grille » découpent
une seule particule a, dont la masse revient à la l’espace simulé à l’aide d’une grille (figure 2). Dans
somme des deux et se place au centre de gravité. La sa version la plus simple, celle-ci se présente comme
particule distante 6 subit une seule force, celle étant cartésienne et de résolution uniforme, c’est-à-
exercée par la pseudo-particule a, au lieu des deux dire que toutes les cellules y sont cubiques et de
forces exercées indépendamment par les particules même taille. Les particules fusionnant sur cette
1 et 2. De même, le groupe de particules 3, 4 et 5 est grille, la première étape de l’opération consiste à
remplacé par une autre pseudo-particule b, au compter le nombre de particules présentes dans
même niveau que a sur l’arbre. Il suffit donc de chaque cellule – en réalité, les particules position-
calculer une seule force exercée par la particule b sur nées au bord d’une cellule sont partiellement
la particule a, au lieu des six forces exercées par attribuées aux cellules voisines pour accroître la
chacune des particules 3, 4 et 5 sur les particules 1 précision du calcul. Une fois cette étape réalisée,
et 2 individuellement. la grille donne la densité de masse dans l’espace
Le regroupement des particules selon les niveaux simulé. La résolution de l’équation de Poisson(1)
de l’arbre n’entraîne pas forcément une dégrada- indique que le potentiel gravitationnel s’obtient par
tion de précision. Certes, l’interaction gravitation- la convolution de cette densité par la fonction
nelle entre les pseudo-particules a et b reste une universelle 1/r, où r représente la distance d’une
approximation de la réalité, cependant elle cellule à une autre. Plusieurs calculs de cette convo-
demeure fiable en cas d’application à des parti- lution sont possibles en fonction de la forme de la
cules suffisamment éloignées. Mais surtout, le gain grille. Sur une grille cartésienne, la technique la plus
en temps de calcul permet d’augmenter le nombre rapide consiste à effectuer la transformée de Fourier(2)
de particules entrant dans la simulation et donc la
précision du modèle. Ainsi, une galaxie spirale
(1) Siméon-Denis Poisson (1781-1840), mathématicien,
contient cent milliards d’étoiles dans un disque de géomètre et physicien français qui a réalisé d’importants
10 kiloparsecs de rayon. Un calcul exact de toutes travaux sur l’électricité et le magnétisme qu’il contribua
les interactions limiterait le nombre de particules à fonder. En astronomie, il a essentiellement étudié
l’attraction des planètes.
à environ dix mille et la résolution du modèle
(distance entre particules proches) ne serait que de (2) Joseph Fourier (1768-1830), mathématicien et physicien
français, connu pour ses travaux sur la décomposition
200 parsecs. L’emploi d’un code en arbre permet, de fonctions périodiques en séries trigonométriques
à temps de calcul égal, de modéliser le disque à convergentes appelées séries de Fourier.
R. Teyssier/CEA
chocs...).
Les codes sur grille offrent encore un autre avantage,
celui de pouvoir incorporer une composante de gaz
diffus, par exemple le gaz interstellaire d’une galaxie. Figure 3.
Une telle composante suit les équations de l’hydro- Une simulation cosmologique de la formation des grandes
structures de l’Univers. La simulation montre l’état
dynamique et ne se représente plus par des parti- de l’Univers après environ 3 milliards d’années d’évolution
cules mais par une masse diffuse contenue dans dans une boite de 50 mégaparsecs de côté. À cette échelle,
chaque cellule. La gravité, calculée sur la grille, s’ap- la matière noire domine largement la masse de l’Univers.
Son interaction, purement gravitationnelle, est modélisée
plique à cette masse tandis que diverses techniques à l’aide d’un code à « particules sur grille » et une grille
résolvent les équations hydrodynamiques. À titre raffinée, qui permet de suivre la formation des filaments
d’exemple, la formation des plus grandes structures cosmologiques et des amas de galaxies. Les plus petites
de l’Univers (amas de galaxies et les filaments structures visibles sur l’image correspondent aux halos de
matière noire dont chacun contient une galaxie.
cosmologiques) s’étudie, avec succès, à l’aide des
codes à particules sur grille (figure 3). Les simula-
tions cosmologiques utilisent les fluctuations de propre gravité et de l’expansion de l’Univers. Ainsi,
densité de l’Univers primordial, observées dans le pour tester le scénario cosmologique standard, on
rayonnement fossile à 3 degrés K. Elles calculent compare les propriétés statistiques des galaxies
l’amplification de ces fluctuations sous l’effet de leur (distribution spatiale, masse) avec les observations.
Particules et collisions
Les interactions entre les particules de l’Univers se trouvent prin-
cipalement régies par la gravité. Pour la matière noire, il s’agit
même de la seule interaction possible. On considère qu’il n’existe
pas d’autre force (à courte portée) pour décrire les trajectoires de
ces particules étranges. Cette matière noire se présente comme un
fluide dit « non collisionnel » tout comme les étoiles d’une galaxie,
tellement éloignées les unes des autres (par rapport à leur taille),
qu’elles n’entrent presque jamais en collision. La modélisation
passe par l’équation de Vlassov-Poisson. En revanche, certains
systèmes comme les nuages de gaz (nébuleuses) d’une galaxie ou
S. Charnoz/CEA/Université de Paris Diderot et F. Durillon/Animea.
400 400
200 200
0 0
-200 -200
-400 -400
-400 -200 0 200 400 -400 -200 0 200 400
Figure 5.
La formation d’un système protostellaire au sein d’un nuage moléculaire, avec un code AMR à gauche, et un code SPH à
droite.(Les distances sont en unités astronomiques : une unité astronomique équivaut à la distance entre la Terre et le Soleil,
soit 150 millions de kilomètres).
L’hydrodynamique
La matière ordinaire (environ 15 % de la masse totale propriétés de l’écoulement en ajoutant des mailles,
dans l’Univers) se spécifie d’être fortement colli- aux endroits stratégiques du calcul, notamment dans
sionnelle et les interactions à courte portée dominent les régions denses aux petites échelles. L’AMR allie
la dynamique des atomes d’hydrogène et d’hélium. donc deux avantages : l’adaptabilité de la méthode
Les collisions y sont tellement nombreuses que le SPH ainsi que la précision et la stabilité des méthodes
plasma s’établit à un équilibre thermodynamique sur grilles. Des études récentes ont effectivement
local. Aujourd’hui, les chercheurs savent décrire ce démontré que la méthode SPH, dans sa version
système grâce aux équations d’Euler(3)-Poisson qui courante, ne peut décrire correctement des processus
entérinent le règne des chocs et de la mécanique des hydrodynamiques tels que l’instabilité de Kelvin-
fluides. Il s’agit des mêmes équations-modèles Helmholtz(4). Les méthodes à base de grilles, par
qu’utilisent les ingénieurs de l’aérospatiale pour exemple les codes AMR, ne connaissent pas ces
étudier l’écoulement des fluides autour des avions ou limites. En revanche, concernant les écoulements
les climatologues pour la physique de l’atmosphère. froids en rotation que l’on trouve notamment dans
Quant aux astrophysiciens, ils ont poussé plus loin les galaxies, la méthode SPH peut s’avérer plus effi-
l’exercice en proposant une technique originale, cace que les codes AMR. La bonne stratégie consiste
baptisée Smooth Particle Hydrodynamics (SPH), donc à utiliser et comparer les deux méthodes aussi
capable de simuler la mécanique des fluides à l’aide souvent que possible. Lorsque les résultats s’accor-
de particules. Son atout réside dans sa nature dent, la crédibilité du modèle s’en trouve naturelle-
« lagrangienne », c’est-à-dire que les points d’échan- ment renforcée. Ce fut le cas récemment lors de
tillonnage du fluide sont des particules se déplaçant l’observation d’un effondrement de nuage molécu-
avec l’écoulement. laire (figure 5). En revanche, cette crédibilité devient
Par ailleurs, la présence de la gravité dans la matière moins probante en cas d’ajout d’autres processus
ordinaire, fait qu’elle se concentre souvent dans physiques – par exemple les fluides magnétisés et
de petits volumes très denses. Pour l’étudier, les l’hydrodynamique radiative.
astrophysiciens utilisent encore les techniques
classiques de l’hydrodynamique, même si la résolu-
tion du maillage ne leur permet pas d’atteindre les
toutes petites échelles. Mais depuis le début des > Frédéric Bournaud et Romain Teyssier
années 1990, une nouvelle technique a révolutionné Service d’astrophysique (SAp)
Institut de recherche sur les lois fondamentales de l’Univers (Irfu)
la discipline. Il s’agit du maillage adaptatif, en anglais Direction des sciences de la matière (DSM)
Adaptive Mesh Refinement (AMR), qui permet à la Unité mixte de recherche astrophysique
interactions multi-échelles
grille de calcul de s’adapter dynamiquement aux (CEA-Université Paris 7-CNRS)
CEA Centre de Saclay (Orme des Merisiers)
y (unité astronomique)
50 50
Kelvin
100
0 0
-50 -50
-100 -100
10-14
-100 -100
Figure 2.
Simulation de la formation et de la fragmentation d’un cœur dense proto-stellaire. Les deux figures de gauche ont été
obtenues en utilisant, pour le transfert, l’approximation de la diffusion ; alors que, pour les figures de droite, c’est
une équation d’état barotropique qui a été utilisée. Les deux figures du haut montrent des cartes de température
et celles du bas des cartes de densité. L’unité astronomique correspond à la distance entre la Terre et le Soleil
(150 millions de km) et t = 0,037 96 millions d’années.
fait quand on utilise une équation d’état barotro- complète du transfert, trop lourde numériquement,
pique où le gaz, isotherme à basse densité, devient la solution consiste à utiliser des moyennes
adiabatique au-delà d’un « seuil en densité ». angulaires de la fonction de distribution des
Généralement, celui-ci se calcule en déterminant, photons dites « moments de la fonction de distri-
sur des simulations monodimensionnelles avec bution ». Le moment d’ordre 0 correspond à
transfert radiatif, la densité à partir de laquelle l’énergie radiative, le moment d’ordre 1 au flux
la structure devient opaque, ce qui dépend de radiatif, le moment d’ordre 2 à la pression radiative,
nombreux paramètres. Les images de la figure 2 etc. À partir de l’équation du transfert, il devient
(colonne droite) montrent une simulation de la alors possible d’écrire les équations d’évolution de
fragmentation d’un disque protostellaire, réalisée ces moments. Ces équations, proches de celles utili-
avec une équation d’état barotropique. sées par l’hydrodynamique, relient la dérivée
Si elles présentent l’avantage de la simplicité, temporelle du moment d’ordre n à la divergence du
les approches précédentes laissent néanmoins moment d’ordre n+1. Il s’avère donc impossible
apparaître une lacune : elles ne transportent pas d’intégrer directement cette hiérarchie d’équations
l’énergie, laquelle, si elle peut rayonner hors aux moments puisque, pour déterminer l’évolu-
du système étudié, ne peut se transporter d’une tion temporelle d’un moment, il faut connaître le
région à une autre de ce système. Retrouver cet moment suivant. Il devient donc indispensable
aspect important du transfert radiatif suppose d’opérer des approximations physiques et d’intro-
des méthodes, plus complexes et plus proches de duire une relation de fermeture pour relier un
l’équation du transfert. Pour éviter l’équation moment à ceux d’ordres inférieurs. Le plus simple
des modèles consiste à garder seulement l’équation d’approximations physiques. C’est notamment le
sur l’énergie radiative (moment d’ordre 0). La rela- cas lorsqu’il s’agit d’établir des comparaisons fines
tion de fermeture est ensuite obtenue en supposant avec certaines observations. La figure 4 correspond
que la dérivée temporelle du flux soit nulle. Cette à un calcul de transfert radiatif dans un disque de
opération permet d’obtenir une équation unique- poussière, autour d’une étoile binaire. Afin de
ment sur l’énergie radiative. Ce modèle, exact pour résoudre l’équation du transfert exactement, tout
les milieux optiquement épais, s’appelle approxi-
mation de la diffusion. Avec lui, l’énergie radiative
est transportée d’un point à un autre en suivant
les gradients de température. Les deux images
de la figure 2 (colonne gauche) présentent une
simulation de fragmentation d’un disque proto-
stellaire utilisant cette approximation de la diffu-
sion. Celle-ci donne des résultats sensiblement
différents à ceux obtenus au moyen d’une équation
d’état barotropique : par exemple, les bras spiraux
sont plus marqués. L’approximation de la diffusion
constitue donc une avancée considérable comparée
à l’équation d’état barotropique.
Néanmoins, il peut être utile de recourir à des
modèles un peu plus complexes en conservant deux
équations aux moments (sur l’énergie et le flux
radiatif) au lieu d’une seule. Pour ce type de modèle,
il faut une relation de fermeture permettant de
calculer la pression radiative en fonction de l’énergie
et du flux radiatif. C’est, par exemple, le cas du modèle
dit M1 qui calcule la pression radiative en minimisant
l’entropie du rayonnement. Le principal intérêt de M1
réside en ce que le flux radiatif ne s’aligne plus systé-
matiquement avec le gradient de température, d’où
la préservation des ombres (figure 3).
En simplifiant considérablement l’équation du
transfert, ces modèles aux moments ramènent à un
système d’équations voisin de celui de l’hydro-
dynamique. Néanmoins, le fait que la vitesse de la
lumière soit élevée (notamment par rapport à la
vitesse des fluides étudiés) implique des temps
caractéristiques liés au rayonnement extrêmement
petits. D’où la nécessité d’intégrer, en temps de
manière implicite, le transfert de rayonnement. Il
s’agit d’une opération qui impose de résoudre un
système linéaire couplant l’ensemble des points de
la simulation numérique. Outre un coût élevé en
calcul, cette résolution nécessite des algorithmes
dédiés et sophistiqués qui soient efficaces sur des
ordinateurs « massivement parallèles ».
Figure 4.
Enfin, si nécessaire (et si possible !), l’équation Images simulées dans différentes longueurs d’onde d’un disque de poussière autour d’une
du transfert doit se résoudre par un minimum étoile binaire. Ces images peuvent ensuite être directement comparées aux observations.
Le magnétisme 1000 fois plus intense que sur Terre, le champ magné-
Dans l’Univers, le champ magnétique est omni- tique prend, tour à tour, la forme de points brillants,
présent. Pour en comprendre son origine et son de taches solaires ou de protubérances. Dans les
influence sur l’évolution des objets célestes, les cher- galaxies, on peut également observer un champ
cheurs du CEA développent des programmes numé- ambiant de quelques microGauss, principalement
riques performants capables de suivre l’évolution et le long des bras spiraux. Enfin, l'interaction entre
la génération du champ magnétique dans des objets deux structures cosmiques magnétisées s’avère égale-
aussi variés que les étoiles, les disques d’accrétion ou ment très instructive sur le rôle joué par le champ
les galaxies. Il s’agit d’un des enjeux majeurs de l’as- magnétique dans l’Univers – par exemple, dans le cas
trophysique du XXIe siècle. d’un système étoile/planète ou d’un objet central
L'Univers étant principalement constitué de gaz avec un disque de matière orbitant autour de cet
ionisé (autrement dit de plasma, quatrième état de objet. D’où, l’incise d’Eugene Parker(1) dans Cosmic
la matière), les effets du champ magnétique se font Magnetic Fields où il écrit : « Les champs magnétiques
sentir dans la plupart des objets célestes puisque les sont communs dans les laboratoires, et même dans les
courants électriques peuvent y circuler librement. maisons, où leurs propriétés sont bien connues. Avec les
Par exemple, sur Terre, le champ géomagnétique agit grandes échelles présentes dans l'Univers, cependant, le
sur les aiguilles des boussoles en les orientant vers le champ magnétique joue un rôle particulier, assez diffé-
Nord géographique qui, en fait, se trouve être le pôle rent de celui qu'il joue dans les laboratoires. Le champ
Sud magnétique. Mais dans le Soleil, où il s’avère magnétique se comporte dans l'Univers comme un ''or-
ganisme'', se nourrissant des mouvements créés par les
étoiles et galaxies. » C’est donc à cause de l'énorme
taille caractéristique des conducteurs cosmiques(2)
que les courants électriques qu'ils contiennent sont
déterminés par le mouvement du plasma plutôt que
par la conductivité électrique. La force de Lorentz,
associée au champ magnétique qui en résulte, agit
directement sur les mouvements du plasma. On peut
décomposer l'effet de cette force en une composante
reliée à un gradient de pression magnétique perpen-
diculaire aux lignes de champ magnétique, et en une
autre, reliée à la tension des lignes, le long desquelles
les ondes d'Alfvèn se propagent. En raison de la
longueur de l’échelle de temps cosmologique, la force
de Lorentz, bien que petite par rapport à la gravité
à ces grandes échelles, produit des effets systé-
matiques et importants.
• Origine du magnétisme : batterie de Biermann et
effet dynamo.
L’Univers baigne dans un champ magnétique infini-
tésimal. Son origine est liée à l’existence de gradients
développement utilisé pour évaluer numériquement champ magnétique que l’on évalue mais les poten-
les dérivées et autres gradients présents dans les tiels magnétiques dont il dérive. Cette stratégie
systèmes d’EDP/MHD. Au contraire, l’intérêt de la convient particulièrement aux méthodes spectrales
seconde approche, celle dite des méthodes spectrales, pour lesquelles les dérivées successives restent
réside dans la précision : ici, les dérives spatiales précises. En revanche, mieux vaut utiliser la
deviennent des multiplications dans l’espace spectral méthode dite de « flux contraint » pour les grilles
plutôt que des variations. Ces méthodes spectrales capturant les chocs, par exemple celle dite de
reposent sur des transformations directes et indirectes Godunov ou la Piecewise parabolic method (PPM) :
faisant passer de l’espace physique (réel) à l’espace ce sont des méthodes numériques permettant un
spectral, et vice versa, ce qui est préférable pour traitement spécifique des discontinuités réduisant le
évaluer les termes non linéaires. Pour la plupart de ces lissage du choc que des méthodes plus classiques
transformations, il existe des algorithmes utilisant opèrent. La méthode dite de « flux contraint » repose
les transformées de Fourier, ce qui les rend numéri- sur le fait que l’intégrale, sur le volume élément de
quement très efficaces et rapides (FFT pour Fast la divergence du champ magnétique, se réduit à l’in-
Fourrier Transform). En revanche, les méthodes spec- tégrale de surface du flux magnétique défini au
trales s’avèrent moins efficaces pour traiter des chocs centre de la surface. Or, en utilisant l’équation d’in-
car il est difficile de décrire des discontinuités avec des duction dans son approximation idéale (on néglige
fonctions trigonométriques (phénomène dit des les effets liés à la conductivité électrique finie du
anneaux de Gibbs(6)). plasma), on peut relier cette intégrale de surface sur
Afin de mettre en œuvre la contrainte concernant la le flux magnétique au calcul d’une circulation de la
conservation du flux magnétique, les chercheurs force électromotrice (emf)(7). Un simple bilan des
disposent de deux stratégies, à savoir la méthode contributions des différentes forces électromotrices
dite de la « décomposition toroïdale/poloïdale du sur les différents segments formant le contour (par
champ » et celle dite du « flux contraint ». La exemple les quatre côtés d’un carré) montre que les
première de ces approches consiste à introduire contributions s’annulent 2 à 2, laissant le flux
directement la contrainte dans les équations, ce qui magnétique inchangé. Dès lors, si une simulation est
entraîne une augmentation de l’ordre du système initialisée avec un flux magnétique nul, il le restera
d’équations à résoudre : dès lors, ce n’est plus le à la précision machine près.
Dans les simulations, le nombre de types d’ondes
dépend des hypothèses considérées pour l’évolution
corps céleste amplitude taille caractéristique (L) du plasma : incompressible, anélastique ou compres-
champ magnétique ou forme (topologie)
B en Gauss (G) du champ sible. Par exemple, dans le code ASH, les ondes
d’Alfvèn et les ondes magnéto-sonores lentes sont
champ intergalactique 10-9 bien prises en compte, mais pas les ondes purement
galaxie 2 x 10-6 B régulier, compressibles. À l’inverse, avec le code RAMSES,
L ~ plusieurs kiloparsec toutes les ondes sont traitées, même les ondes
nuage interstellaire 10-5 10 parsec compressibles ou les chocs. Elles sont traitées dans
mazer, nuage dense froid 10-2 à 10-3 < 1016 cm une approche de MHD idéale (la dissipation est
quasars (radio galaxie) 100 ~ 1 parsec purement numérique afin de stabiliser le schéma
numérique). La modélisation du magnétisme
Soleil
cosmique appelle le développement de codes sur des
champ poloïdal 1 à 10 0,1 à 1 rayon solaire machines massivement parallèles capables d’effec-
(dipôle et quadripôle) tuer des calculs en quelques jours ou semaines, alors
champ toroïdal > 103 5 000- 50 000 km que des ordinateurs domestiques mettraient
champ coronal 10-5 quelques rayons solaires plusieurs décennies. On les trouve notamment au
étoiles Ap 104 dipôle oblique, starpôle Centre de calcul recherche et technologie (CCRT),
naines blanches 10 à 108
6
dipôle
l’une des composantes du complexe de calcul scien-
tifique du CEA localisé sur le site de Bruyères-le-
pulsar 1012 (magnestar 1015) dipôle
Châtel (Centre DAM/Ile-de-France) ou au Grand
(étoiles à neutrons)
équipement national de calcul intensif (Genci)(8). Là
binaires X-ray 10-9 3 à100 encore, le SAp a développé deux stratégies : le paral-
(avec trou noir) rayon (R) gravitationnel
lélisme par décomposition de domaines (distribu-
planètes tion de sous-domaines parmi les processeurs) ou le
Terre 0,5 à 1 plusieurs rayons de la Terre parallélisme dans l’espace spectral (distribution des
Jupiter 4 plusieurs rayons de Jupiter nombres d’ondes). Le choix du problème astrophy-
Saturne 0,2 à 0,4 plusieurs rayons de Saturne
sique peut donc amener à des solutions numériques
très variées alors même que le système d’équations
Mercure 5 x 10-3 1 à 2 rayon de Mercure
physiques initial reste similaire.
Mars < 3 x10-4 reliquat dans la croute
Propriétés du magnétisme cosmique pour différents objets célestes. Nous listons (6) Il s’agit d’un bruit numérique se caractérisant par des
l'amplitude typique du champ magnétique en Gauss (104 G = 1 Tesla) et leur taille anneaux concentriques autour des structures les plus raides.
caractéristiques (L). Les méthodes d'observation du champ magnétique reposent
essentiellement sur trois approches : soit la polarisation de la lumière traversant (7) emf = u x B (u étant la vitesse du plasma, B désignant
le champ magnétique de l'objet observé (effet Hanle, rotation Faraday), soit le champ magnétique et x, les produits vectoriels).
la modification des niveaux d'énergie des atomes baignés dans un champ magnétique (8) Société civile détenue à 50 % par l’État représenté par
(effet Zeeman), soit par émission cyclotron ou synchrotron des électrons en mouvement le ministère de la Recherche et de l’Enseignement Supérieur,
giratoire le long des lignes de champ de l'objet. 20 % par le CEA, 20 % par le CNRS et 10 % par les universités.
Supercalculateur BULL
hybride installé au CCRT
CEA
en 2009.
insi, pour réussir pleinement les changements et/ou temporelle. La très grande quantité de mémoire
A d’échelles résultant des avancées technologiques
enregistrées dans le domaine du calcul de haute perfor-
disponible sur les supercalculateurs, associée à des
techniques numériques novatrices, favorise l’accès à
mance (le HPC pour High Performance Computing), les des résolutions spatiales de plus en plus importantes.
chercheurs en sciences fondamentales et appliquées L’objectif reste de s’approcher des échelles de dissipa-
doivent avoir accès à des ressources de calcul pouvant tion dans les écoulements turbulents, de résoudre les
aller jusqu’au calculateur entier, au moins pendant des cœurs protostellaires lors de la simulation d’un nuage
périodes limitées de temps. Il existe un moment moléculaire, ou encore de simuler finement les
propice pour une utilisation dite « grand challenge ». galaxies dans un contexte cosmologique. De cette
Il s’agit de la période de mise en production de la dernière problématique naquit, en 2007, le code
machine qui va de 3 à 6 mois après la réception du RAMSES, développé par le SAp, pour étudier la forma-
calculateur. Et pour cause, il s’agit d’un moment privi- tion des grandes structures et des galaxies. Il s’agit
légié pendant lequel les équipes du centre de calcul d’un code s’inscrivant dans le cadre du projet Horizon
(ingénieurs systèmes et spécialistes applicatifs) et les visant à fédérer les activités de simulation numérique
experts du constructeur informatique se retrouvent autour d’un projet ciblé sur l’étude de la formation des
tous ensemble et mobilisés sur le site pour régler galaxies. Cette réflexion fut menée pendant la période
d’éventuels problèmes liés au démarrage de l’instru- de démarrage du calculateur Bull Platine, au Centre
ment. Les chercheurs peuvent alors bénéficier de cette de calcul recherche et technologie (CCRT) du CEA,
étroite collaboration entre spécialistes pour optimiser avec pour objectif la simulation de la formation d’une
leur logiciel de simulation et pour espérer franchir de moitié de l’Univers observable. Pour la première fois
nouvelles étapes dans la réalisation de simulations de dans l’histoire du calcul scientifique, il fut possible de
très grande taille. Ainsi, les simulations de quelques décrire une galaxie comme la Voie lactée avec plus
milliers de processeurs qui relevaient, il y a peu de d’une centaine de particules tout en couvrant la moitié
temps encore, du défi technique, sont-elles désormais de l’Univers observable. Pour simuler un tel volume
très fréquentes. avec autant de détails, les acteurs du projet Horizon
En astrophysique, les grands challenges visent une utilisèrent 6 144 processeurs Intel Itanium2® du calcu-
meilleure prise en compte des couplages d’échelles lateur Bull Platine pour activer le programme
inhérents à la plupart des phénomènes physiques RAMSES à plein régime. Ce logiciel de simulation
rencontrés, cela en augmentant la résolution spatiale met en jeu une grille adaptative permettant d’atteindre
une finesse spatiale inégalée. Avec près de 70 milliards
de particules et plus de 140 milliards de mailles, ce
grand challenge représente le record absolu pour un
système à N corps modélisés par ordinateur.
Cet exemple montre bien, qu’en matière de simula-
tion, les avancées promises par les ordinateurs
de grande puissance ne s’obtiennent qu’au prix d’une
maîtrise de la complexité – celle concernant à la fois
les modèles physiques, les méthodes et les algorithmes
numériques, les méthodologies et les techniques de
programmation et d’optimisation parallèles. De plus,
la nécessité de contenir la consommation électrique a
favorisé l’apparition d’un nouveau type de supercal-
culateurs capables de combiner un très grand nombre
de processeurs généralistes avec des processeurs
spécialisés (processeurs graphiques, reconfigurables,
vectoriels…). Dès l’été 2009, la communauté scienti-
fique française a pu accéder à ces supercalculateurs
hybrides grâce à la machine BULL installée au CCRT.
Avec plus de 2 100 processeurs Intel de nouvelle géné-
ration, associés à 48 serveurs graphiques Nvidia, c'est
le premier supercalculateur de ce type implanté en
Europe.
projet COAST
sur des zones accueillant des phénomènes
signifiants comme la formation d’amas
de galaxies. En revanche, dans les zones à
plus faible densité, les calculs restent à des Figure 1.
résolutions plus modestes. Pour visualiser Le logiciel de visualisation interactive SDvision utilisé, ici, pour visualiser le champ magnétique
et analyser de telles structures de données, obtenu dans une simulation de la zone convective solaire.
les chercheurs ont dû recourir à des
algorithmes spécifiques et relever un défi : élevée dépassant 100 Gigaoctets par nœud). Le logiciel est employé dans une salle de
celui de la gestion de la mémoire. Il leur a Véritable instrument d’exploration des visualisation stéréoscopique installée au
fallu, en outre, s’adapter à divers modes simulations, ce logiciel permet de naviguer Service d’astrophysique (SAp/Irfu). Il s’agit
d’utilisation. La visualisation et l’analyse de interactivement et en immersion dans les d’une technique qui appréhende complète-
telles structures de données représentent un données. Elles contribuent également à ment la structuration des volumes simulés
véritable défi, qui a conduit au développement découvrir ou à étudier des structures dans les trois dimensions. Ces développe-
d’algorithmes spécifiques, notamment en astrophysiques à échelles multiples : par ments, qui ont pour moteur principal la
termes de gestion de la mémoire. En outre, exemple, la formation des grandes struc- recherche fondamentale en astrophysique,
le logiciel SDvision est adapté à des modes tures cosmologiques, des galaxies, turbu- devraient également bénéficier à d’autres
d’utilisation divers, par exemple sur des plate- lences du milieu interstellaire participant à domaines de la recherche et de la techno-
formes de visualisation locales bénéficiant la création des « cœurs protostellaires » où logie utilisant la simulation numérique : par
de l’accélération matérielle des cartes se forment les étoiles, dynamique des exemple, pour explorer des simulations
graphiques modernes ou distantes sur des disques d’accrétion planétaires, magnéto- du transport turbulent dans le plasma du
nœuds graphiques proposant d’importantes hydrodynamique de la zone convective futur réacteur expérimental ITER (pour
ressources (multicœurs, mémoire partagée solaire… International Thermonuclear Experimental
Reactor) actuellement en construction sur le
centre du CEA de Cadarache. Il s’agit d’une
collaboration avec l’Institut de recherche sur
la fusion magnétique (DSM).
La montée en puissance des grands centres
de calculs nationaux laisse prévoir l’obten-
tion de simulations toujours plus massives
et plus complexes mais aussi de nouveaux
défis à relever en matière de visualisation
des simulations destinées à l’astrophysique.
Projet COAST
Il devient indispensable d’enseigner les tech- parallèle comportant 240 cœurs de calcul. Outre sa vocation pédagogique, Godunov
niques et les méthodologies destinées à la Bien que la plate-forme soit également sert au traitement de données pour l’astro-
modélisation et la simulation numérique destinée à la recherche, les activités péda- physique. Par exemple, la préparation des
aux étudiants, aux doctorants et postdocto- gogiques demeurent néanmoins prioritaires. algorithmes de traitement de données
rants, ainsi qu’aux chercheurs et ingénieurs, Ainsi, pendant les cessions de formations, le émanant du satellite GLAST (pour Gamma-
impliqués ou non en astrophysique, et qui cluster demeure exclusivement réservé aux ray Large Area Space Telescope) et la réali-
souhaitent voir évoluer leurs connaissances. étudiants afin qu’ils s’initient au calcul haute sation du catalogue des sources. D’autres
D’où la mise en place, depuis 2007, de la performance à l’aide d’un outil à la fois perfor- expériences, comme le weak lensing(1),
plate-forme numérique pour l’enseigne- mant et disponible, avant de se confronter à bénéficient également de cette plate-forme
ment et la recherche Godunov (du nom du des ordinateurs de plus grande taille. pour leurs besoins de calcul, importants
mathématicien qui développa une méthode Les enseignements correspondent à un mais ponctuels, en matière de traitement
classique de résolution des équations de niveau postdoctoral, principalement dans le des images.
l’hydrodynamique). Il s’agit d’une collabora- cadre de l’École doctorale d’astrophysique,
tion entre le SAp, l’Unité d’enseignement en mais aussi à celui des masters dans lesquels
sciences de la matière et de simulation le CEA s’implique via l’INSTN : par exemple, > Édouard Audit
Service d’astrophysique (Sap)
(UESMS) de l’Institut national des sciences astronomie & astrophysique, modélisation et
Institut de recherche sur les lois fondamentales
et techniques nucléaires (INSTN) et simulation (M2S), matériaux pour les struc- de l’Univers (Irfu)
l’Université Paris 7/ Denis-Diderot. tures et l’énergie (MSE) et interaction climat Direction des sciences de la matière (DSM)
Unité mixte de recherche astrophysique
Située sur le centre du CEA de Saclay, cette et environnement (ICE). À ces enseigne- interactions multi-échelles
plate-forme a été équipée de vingt postes de ments s’ajoutent deux formations continues. (CEA-Université de Paris 7-CNRS)
travail, reliés par un réseau rapide à un L’une menée conjointement par l’INSTN et CEA Centre de Saclay (Orme des Merisiers)
cluster de calcul, c’est-à-dire un ordinateur le SAp où sont abordées les méthodes de > Constantin Meis
Monte-Carlo et les techniques de program- Institut national des sciences
(1) Technique qui permet de cartographier et techniques du nucléaire (INSTN)
mation parallèle (librairie MPI) ; l’autre étant
la distribution de la matière noire dans Unité d’enseignement en sciences de la matière
l'Univers et de caractériser les propriétés dédiée aux utilisateurs du Centre de calcul et de simulation (UESMS)
de l'énergie noire. du CEA (CCRT). CEA Centre de Saclay
CEA/L. Godart
polarisé : dont le vecteur de champ électrique décrivant une résolution angulaire : plus petite séparation angulaire entre
vibration électromagnétique se situe dans un plan défini. deux objets, qui caractérise en particulier l'aptitude d'un système
optique à distinguer ou à reproduire les détails d'une scène ou de
polyéthylène : un des polymères les plus simples (plastique inerte) son image. Elle s'exprime en minute d'arc ou en seconde d'arc,
qui appartient à la famille des polyoléfines. chaque minute d'arc étant divisée en soixante secondes d'arc.
primordial : qui correspond à la phase de l'évolution cosmique R-parité : numéro quantique supplémentaire introduit en
très dense, très chaude et très courte (quelques minutes) au cours supersymétrie. Il vaut +1 pour toutes les particules de la matière
de laquelle ont été fabriqués les éléments les plus légers de ordinaire et il vaut -1 pour les partenaires supersymétriques. Il doit
l'Univers (deutérium, hélium). être conservé dans tous les processus. En conséquence, une
principe anthropique : l’Univers doit être tel que l’existence particule supersymétrique ne peut pas se désintégrer dans des
d’observateurs est permise ; en particulier, les constantes de la particules ordinaires : le processus de désintégration aurait une
nature, comme la constante de structure fine, ne peuvent que peu particule de R-parité égal à -1 comme état de départ mais un
différer de leurs valeurs mesurées sous peine d’interdire l’existence ensemble de particules de R-parité égal à +1 comme état d'arrivée,
des noyaux atomiques, des atomes, etc., rendant ainsi impossible ce qui est interdit par la loi de conservation.
la présence d’observateurs ; appliqué à la constante cosmologique,
l’existence des galaxies implique que celle-ci est forcement bornée
par 100 fois la valeur de l’énergie des constituants de l’Univers actuel. S
principe cosmologique : l’Univers est isotrope et homogène ; séquence principale : région du diagramme de Hertzsprung-
l’isotropie signifie qu’aucune direction n’est privilégiée ; Russell où se trouvent regroupées les étoiles dont la source
l’homogénéité correspond à l’absence de point particulier dans d'énergie est la fusion de l'hydrogène en hélium : parmi elles, le
l’Univers ; le principe de Copernic énonce que la Terre n’a pas de Soleil actuel. Les étoiles d'une composition chimique donnée
position privilégiée dans l’Univers. s'installent en fonction de leur masse sur une ligne appelée
principe de moindre action et lagrangien : en optique, les séquence principale d'âge zéroou ZAMS (Zero Age Main Sequence).
rayons lumineux obéissent au principe de Fermat selon lequel ils signal stochastique : signal aléatoire variant dans le temps.
minimisent le chemin optique entre deux points ; les théories de Il se rencontre dans beaucoup de domaines : en physique, en
particules suivent le même schéma ; dans ce cas, le mouvement électronique, en chimie et même en musique. Les bulles
des particules (ou de leurs champs associés) extrémisent l’action convectives à la surface d’une étoile excitent stochastiquement
de la particule qui n’est autre que l’intégrale (au sens mathématique) les ondes qui se propagent.
du lagrangien.
simulation numérique : reproduction par le calcul du
proton : particule constitutive du noyau atomique(nucléon) portant fonctionnement d’un système, préalablement décrit par un modèle
une charge électrique positive égale et opposée à celle de l’électron. ou un ensemble de modèles.
Un proton est 1 836 fois plus lourd qu'un électron.
Soleil : étoile moyenne de type spectral G2V, située au cœur de
pulsar (depulsating radio source) : étoile à neutrons, tournant la séquence principale du diagramme de Hertzsprung-Russell.
très rapidement sur elle-même, émettant un fort rayonnement
Il est âgé de 4,6 milliards d'années. Son rayon est de 700 000 km,
électromagnétique dans la direction de son axe magnétique.
sa masse d'environ 2·1030 kg, et sa température de surface atteint
5 770 K. Sa luminosité est de 3,8·1026 watts. La distance entre la
Q Terre et le Soleil est voisine de 150 millions de km, soit 1 unité
astronomique (ua).
quantique : qui relève de la théorie développée à partir du principe
des quanta de Planck (toute manifestation de l'énergie ne peut spectre CMB (pour Cosmic Microwave Background ou
s'exprimer que par une valeur discrète (discontinue) appelée fond diffus à micro-ondes) : le fond diffus cosmologique est
quantum (unité indivisible)) et du principe d'incertitude d'Heisenberg le nom donné au rayonnement électromagnétique issu de l'époque
selon lequel il n'est pas possible de mesurer en même temps avec dense et chaude peu après le big bang ; bien qu'issu d'une époque
précision la position et la vitesse d'une particule. très chaude, ce rayonnement a été dilué et refroidi par l'expansion
de l'Univers et possède désormais une température très basse de
quasars : objets extrêmement lumineux situés au centre de 2,726 K ; la mesure précise de ses propriétés par le satellite WMAP
certaines galaxies, compacts et pleins d'énergie. Les quasars très (pour Wilkinson Microwave Anisotropy Probe) a permis de contraindre
lointains témoignent des premiers âges de l'Univers. de façon très précise les paramètres de l'évolution de l'Univers.
spectromètre à résonance : cet instrument a été inventé pour
R étudier les déplacements en vitesse des couches superficielles de
l’atmosphère solaire. Appliqué à des raies bien connues en
radiateur passif : refroidisseur entièrement passif utilisant les laboratoire (sodium, potassium, fer, nickel), il a l’avantage de fournir
échanges radiatifs (échange de chaleur par rayonnement avec une des précisions atomiques.
source à température plus froide).
spectrométrie dispersive en énergie : spectrométrie réalisée
radiation : énergie émise sous forme de rayonnement. au niveau du détecteur sans nécessité d’utiliser un dispositif
radiative (région ou zone) : zone proche du cœur, où le gaz optique comme des réseaux ou des cristaux de Bragg ; l’énergie
est fortement ionisé et l'énergie transportée par diffusion des se mesure en inventoriant le nombre de paires d’électrons-trous,
photons. de photons de scintillation, de paires d’électrons-ions créées