En écoutant l'émission du site Ciel et Espace Radio sur les projets d'interféromètres, et en particulier l'idée de faire une sorte de télescope géant en un grand nombre de petits morceaux qui permettrait de voir des planètes autour des étoiles, je me suis dit: bon, d'une part c'est un expert de la question, qui explique un certain nombre de choses qui ont un sens pour lui et en tant qu'expert il sait pourquoi ce projet serait effectivement utile à l'observation astronomique. D'autre part, il donne des informations à l'adresse d'un média grand public, et les détails qu'il présente sont des détails concrets sur la forme concrète qu'un tel observatoire aurait, forme concrète que n'importe qui peut entendre et comprendre. Mais il n'explique pas pourquoi et comment cela permettrait de satisfaire effectivement l'objectif annoncé. Bien sûr le nom du principe est lancé: interférences. Et bien sûr chacun peut facilement se renseigner et comprendre ce qu'est une interférence. Oui mais: de quelle interférence s'agit-il précisément ici, quel en sera le résultat, avec quels avantages et quels défauts ?
En un sens, je comprends sa posture: on est matheux ou on ne l'est pas. Une tentative d'explication plus détaillée risque de toute façon de laisser sur le bord du chemin ceux qui ne sont pas matheux, tandis que ceux qui le sont n'ont pas besoin d'explications supplémentaires pour refaire eux-mêmes les calculs et comprendre le résultat. Euh ? Il dit que pour faire les calculs il s'est appuyé sur des simulations informatiques. Pour ma part je n'en ai pas besoin: je trouve les résultats ci-dessous de façon intuitive et immédiate.
Alors, je vais ici entreprendre une voie médiane: sans écrire les détails des calculs et des démonstrations (que suite à mon entraînement en math spé je fais désormais de tête), je décrirai de manière mi-qualitative, mi-quantitative, les principaux caractères de ce qu'on obtient. Voie médiane qui me semble difficilement trouvable ailleurs sur le web (désolé je n'ai pas beaucoup cherché, donc si vous en connaissez une merci de me l'indiquer), la seule chose qui me semble trouvable étant celle introductive et vulgarisée des principes de l'interférence sans détails significatifs. Principes de base que je vais ici supposer acquis pour gagner du temps. Donc, ceux qui ne savent pas ce qu'est une interférence sont invités à aller se renseigner à ce sujet n'importe où ailleurs avant de lire ce qui suit.
Pour simplifier l'exposé, je commencerai par supprimer une dimension spatiale, réduisant la question à celle de la constitution d'une image unidimensionnelle par la mise en réseau d'une suite unidimensionnelle de télescopes, qui seront ici appelés « yeux ». (Comme expliqué dans l'émission, cela peut n'être en fait qu'un petit bout de miroir, de sorte que les appeler des télescopes serait assez pompeux...). Cela ne change essentiellement rien, sauf pour un point précis qui sera explicité.
Considérons N yeux unidimensionnels chacun étant de taille D, à distance moyenne x chacun de son voisin.
On peut distinguer deux sous-cas: ce peut être ou bien un espacement parfaitement régulier toujours égal à x, ou bien un espacement irrégulier avec la distance entre deux yeux successifs de même ordre de grandeur que x.
Le tout formant un télescope virtuel de largeur totale L=Nx, destiné à observer une lumière monochromatique de fréquence spatiale k (inverse de la longueur d'onde).
Supposons la source de lumière parfaitement ponctuelle, comme une étoile infiniment ponctuelle, et décrivons la forme de l'image obtenue par cette inférométrie. L'image de toute autre ensemble de sources sera alors immédiatement déductible de celle-ci, comme produit de convolution de cette image de la source ponctuelle par la forme de la source (qui ne sait pas ce qu'est le produit de convolution de deux fonctions, doit impérativement se renseigner à ce sujet).
Si l'espacement est parfaitement régulier, c'est-à-dire que les miroirs sont chacun centré sur un point de coordonnée nx où n est un entier, même si certains de ces points restent dépouvus d'oeil (et généralement pour un ensemble bidimensionnel d'yeux, que tous les yeux sont situés sur un réseau de droites parallèles d'espacement parfaitement régulier) alors l'image obtenue est une succession régulière de taches ayant chacune la forme de ce que donnerait un observatoire géant ayant la taille L et la même forme que cette succession de miroirs; donc une image de taille environ 1/kL. La distance entre ces taches sera de 1/kx. L'évolution de la luminosité le long de cette suite de taches jusqu'à ce qu'on ne les voie plus est définie par la forme individuelle de chaque oeil, et donc d'étendue 1/kD. Le nombre approximatif de taches est de x/D. Il y en a donc d'autant plus que la taille L de l'interféromètre est plus grande que la surface totale des yeux.
Le fait d'avoir écarté les yeux, plutôt que de les avoir maintenus collés les uns aux autres, pour une même surface totale de réception, ne modifie pas la luminosité reçue au centre de l'image, par contre cela réduit la taille de la tache centrale obtenue, renvoyant la lumière ainsi rejetée vers les autres taches.
Plus on augmente la distance x entre les yeux, augmentant donc L mais maintenant le même nombre N d'yeux, plus cela réduit la taille de la tache centrale en renvoyant la lumière ainsi rejetée sur un plus grand nombre de taches, maintenant la même densité lumineuse moyenne à grande échelle, mais ces taches se rapprochant les unes des autres.
Plus on divise les yeux, augmentant leur nombre N, diminuant D et x et maintenant L constant ainsi qu'une surface de réception constante, plus cela éloigne les taches les unes des autres, tout en gardant le même nombre de taches, ainsi dispersées sur un plus grand espace.
Si on maintient la même distance x entre yeux successifs mais on double la taille L de l'observatoire par l'ajout d'yeux supplémentaires, la surface totale étant doublée cela multiplie par 4 l'intensité lumineuse au centre. Ceci étant dû pour un facteur 2 au doublement du nombre total de photons reçus, donnant le même doublement du nombre de photons reçus par chaque tache, et pour un facteur 2 à la concentration de chaque tache qui rétrécit.
Si on double le nombre d'yeux dans le même espace, divisant x par 2, doublant N et maintenant L constant, cela quadruple encore l'intensité lumineuse centrale, mais aussi cela quadruple la lumière reçue par la tache centrale, ce qui est dû d'une part au doublement du nombre de photons reçus, d'autre part au fait qu'il y a 2 fois moins de taches entre lesquelles ils se répartiront (les taches sont plus espacées dans une même image).
Un tel interféromètre parfaitement régulier ne pourrait localiser une source monochromatique que si on en connaît déjà a priori la position de façon assez approchée, à savoir en particulier de façon au moins aussi précise que la tache obtenue par un observatoire d'un seul morceau de diamètre x. Car c'est cette précision qui permettra de dire que la vraie image est celle donnée par une certaine tache plutôt que par une autre tache.
Oui mais en pratique, les sources qui nous intéressent, celles des étoiles, ne sont pas monochromatiques mais possèdent un spectre continu. A chaque longueur d'onde correspond un espacement différent des taches. La « vraie tache » rassemble les images obtenues de toutes les longueurs d'onde, par contre les fausses taches d'une longueur d'onde donnée ne sont alimentées que par cette longueur d'onde, tandis que les longueurs d'onde voisines se répartissent en une succession de taches d'espacements différents, éclaireront les zones voisines. Seule la « vraie image » de l'étoile paraîtra vraiment lumineuse et nette par contribution de toutes les longueurs d'onde, le reste donnant, comme somme des contributions de toutes les longueurs d'onde, un résultat flou.
Et c'est là qu'il y a une différence entre l'image unidimensionnelle et l'image bidimensionnelle: la longueur d'onde varie suivant une seule dimension, donnant un étalage unidimensionnel d'une tache par rapport aux longueurs d'onde qui la constitue. Certes cela ne fait vraiment une telle différence que parmi les taches les plus proches de la tache centrale: celles plus éloignées sont tellement étalées qu'elles finissent par donner des traits denses, proches les uns des autres, qui finissent par remplir l'image.
Passons maintenant au cas d'un interféromètre à l'espacement des yeux irrégulier. Autrement dit, où il n'existe pas de réseau parfaitement régulier de points desquels la plupart des yeux seront particulièrement plus proches. Eh bien, cela donne à peu près le même effet pour une source monochromatique que ce qu'on vient de décrire ci-dessus dans le cas d'un spectre continu. A savoir, que cela donne la même tache centrale conforme aux lois ci-dessus précisées, tandis que la succession des autres taches est remplacée par un flou en lequel s'étale la même quantité totale de lumière qui était auparavant concentré en celles-ci. C'est une grisaille à peu près uniforme, ayant à grande échelle la même luminosité moyenne et la même extension spatiale avec sa décroissance suivant la forme et la taille de chaque oeil, mais où tout détail et toute séparation entre taches successives est effacé. On obtient donc une image centrale relativement nette, de taille 1/kL comme un grand télescope massif de taille L, mais de moindre luminosité et en surimpression sur un fond uniforme (ou du moins aux variations douces) gris.
Enfin, ce fond est-il bien localement uniforme ? Cela dépend bien sûr de la disposition précise des yeux les uns par rapport aux autres. Pour le rendre plus uniforme, il faut veiller à ce que, en gros, les distances entre yeux successifs varie de façon continue, cela pouvant en fait, et même de préférence, se faire de façon régulière avec des distances de plus en plus grandes d'un intervalle à son voisin. Mais avec des distances qui ne soient pas elles-mêmes multiples d'une même quantité plus grande que D, sous peine de recréer une tache nette correspondant à cette quantité.
Récapitulons: pour N grand, définissant sur l'image une unité de longueur liée à la taille angulaire des objets visés, chaque source ponctuelle de luminosité unité aura une image nette de taille 1/kL, de luminosité totale ND2/x et de densité de luminosité égale a kN2D2 (carré du total de l'amplitude sur la surface ND); et une image floue de taille 1/kD, de luminosité totale ND (énergie totale reçue sur la surface), et de densité de luminosité kND2. Ainsi la luminosité totale de la tache nette est D/x fois celle de la tache floue, ce qui correspond à la proportion de la surface des yeux par rapport à la largeur totale de l'interféromètre; et la densité de luminosité de la tache nette est N fois celle de la tache floue.
Une dernière chose mérite discussion: tout en gardant le même ensemble d'yeux, on peut décider d'opérer les interférences d'une manière différente, en reconstruisant le puzzle des lumières passées par les différents yeux, de manière non conforme aux dispositions spatiales réelles des yeux les uns par rapport aux autres. Par exemple, on peut recomposer les lumières en les disposant de manière plus écartée, ou au contraire plus rapprochée en proportion de la largeur de chacune, que le rapport x/D de la disposition spatiale des yeux en proportion du diamètre de chacun. Le résultat sera un zoom différencié entre la composante nette de l'image et sa composante floue. Plus on rapproche les lumières plus cela agrandit, à densité lumineuse égale et donc à somme lumineuse croissante, la taille de l'image nette en gardant la même image floue (euh, dont les éventuelles petites variations seront étalées de même), et au contraire plus on les écarte plus cela rétrécit l'image nette (et donc diminue sa luminosité totale). En fin de compte, une augmentation artificielle de l'écartement des faisceaux relativement à leur largeur lors de la recomposition de la lumière en interférences, aura un effet comparable à un découpage des yeux en petits morceaux, mais sans diminution de la densité lumineuse de l'image floue issue d'une ou quelques étoiles fixées, et donc moins intéressant.
Au contraire, ce que Antoine Labeyrie a expliqué, c'est que la but est d'assembler les faisceaux de manière jointive, annulant l'espace vide qui les sépare. Donc, des formules ci-dessus, la seule chose qui change est que (gardant la même résolution des images fines relativement aux angles du ciel, ainsi que la même densité de luminosité) l'image nette de la portion du ciel visée est zoomée de x/D: la taille de l'image nette d'un point devient 1/kND donc 1/N fois la taille de son image floue; et sa luminosité totale devient ND, donc égale à la valeur précédemment exprimée de la luminosité totale de l'image floue. Note : si les faisceaux sont parfaitement jointifs et on considère une source ponctuelle du ciel au centre de l'axe de visée alors son image floue s'annule, donnant presque toute sa lumière à l'image nette; mais les formules ci-dessus s'appliquent en rendant lumineuse l'image floue dès que la source est écartée de telle sorte que son image nette (au déplacement démultiplié) est écartée suivant un angle comparable à la taille de l'image floue telle qu'elle est ci-dessus calculée.
Car il y a un problème: l'image nette d'une source ne reste visible que comme image nette que dans la mesure où elle reste à l'intérieur des contours précédemment calculés de l'image floue de la même source; mais plus elle en sort, plus elle rend sa lumière à l'image floue. L'image nette était toujours contenue dans l'image floue lorsque les faisceaux gardaient le même écartement que les yeux, mais cela devient faux lorsqu'on modifie cet écartement en général, et lorsqu'on les rassemble de manière jointive en particulier. En effet alors, supposant D/x proche de 0 et les faisceaux assemblés de manière jointive, le mouvement des images nettes est infiniment plus rapide que celui des images floues, et donc une image nette sortira de son image floue et lui rendra sa lumière lorsque la source sera décentrée d'un angle 1/kx. Les images floues de toutes ces sources décentrées continuent de se superposer à l'image tant qu'elles ne sont pas décallées suivant la mesure de leur propre taille, à savoir 1/kD. Ainsi, le fait d'avoir assemblé les faisceaux de manière jointive ne change rien au fait que si les miroirs de l'hypertélescope sont directement exposés à un ciel uniformément blanc, alors l'intensité de la blancheur de l'image obtenue vient suivant une proportion x/D fois plus grande, de l'image floue de la blancheur du ciel issue des angles 1/kx à 1/kD, que de l'image nette de celle intérieure à l'angle 1/kx. Voilà ce que les détecteurs de la caméra obtiennent à l'arrivée. Il est physiquement nécessaire d'employer une grande caméra, de surface physique de réception telle qu'elle recevra toute la lumière du ciel issue de l'angle 1/kx et réfléchie par la surface ND des yeux. Cette surface est donc ND/kx. Elle est certes bien plus petite que la surface des yeux, mais ça fait quand même beaucoup pour sa résolution de seulement N pixels (nombre de points nets dans la zone de netteté), recevant en proportion D/x l'image nette voulue, et pour le reste irrémédiablement soumise à la blancheur du fond du ciel. (C'est la même surface par pixel utile, que les faisceaux soient ou non jointifs: ainsi des faisceaux non jointifs donneraient plus de pixels sur une surface de réception plus grande mais moindre intensité d'éclairage par pixel et avec le même bruit de fond)
Autrement dit: même si le ciel autour d'une exoplanète est très sombre, juste un peu de grisaille ambiante (des galaxies, de petites étoiles, un vent solaire etc) qui semble négligeable dans une image standard, risque de recouvrir de blancheur son image interférométrique. Et c'est évidemment bien pire si précisément on vise une planète dont l'étoile est dans le champ 1/kx: sa lumière recouvrira totalement celle de la planète. En effet, l'étalement de la luminosité stellaire sur les N pixels ne pourra guère suffire à compenser sa bien plus forte brillance en comparaison de celle de la planète.
Un tel instrument serait excécrable pour cartographier une nébuleuse floue, car il ne permettrait guère de savoir si un flou observé vient du flou réel de l'objet projetant l'image nette de son flou, ou bien de l'image flouée de quoi que ce soit de la source. Car le rapport de luminosité totale de la composante nette de l'image par rapport à la composante floutée, est égal à D/x, ce qui donc rendrait cette lumière indistinguable étant donné que la composante floutée a toujours ses propres variations.
Par contre, il sera extrêmement utile pour déterminer les paramètres exacts d'une portion du ciel dont on sait a priori qu'elle est faite d'un petit nombre de sources à peu près ponctuelles perdues au sein d'un gigantesque fond noir, comme c'est très souvent le cas en astronomie. En effet, il suffit pour cela de soustraire le flou continu de fond de l'image pour ne considérer que les petites zones de lumière concentrée qui en ressortent.
Alors, est-il possible d'observer la lumière d'une planète en la distinguant d'avec la lumière de l'étoile dont elle est proche ? Le problème, donc, est que la planète est beaucoup moins lumineuse que son étoile, et que par un télescope normal d'un seul morceau, l'image de l'étoile, du fait de sa grande intensité, déborde jusqu'à la position de la planète (même si celle-ci est hors de la partie principale de la tache et donc d'intensité plus faible en dehors, il reste encore un flou d'une trop grande intensité à cet écartement) et rend donc relativement imperceptible l'image de celle-ci. Ce rapport de luminosité est le produit de deux facteurs (oubliant l'albedo): d'une part celui de l'éloignement de la planète par rapport à l'étoile, qui la rend faiblement éclairée; d'autre part, la petite taille de la planète, plus petite que l'étoile, qui lui fait renvoyer une lumière plus petite en largeur et donc un total de lumière d'autant plus faible pour une concentration angulaire donnée.
En ce qui concerne le premier facteur, son ampleur peut se décrire de la manière suivante: si on étale et donc dilue la lumière de l'image de l'étoile sur une largeur égale à l'image de sa distance à la planète, cela donne une densité de lumière du même ordre de grandeur que la densité de lumière que la planète donnerait si l'image avait la finesse de pouvoir représenter la taille angulaire de la planète.
Si cet étalement de l'image de l'étoile était déjà ce qu'on obtenait du fait que la finesse d'image était de l'ordre de (ou plus grossière que) la distance entre l'étoile et la planète, le problème était évident: l'image de la planète s'étalait sur la même largeur et donc se confondait avec l'image de l'étoile, rendant négligeable sa contribution. Autrement, avec une meilleure résolution, le problème devait donc venir du fait que le débordement de la lumière de l'étoile hors de la tache centrale, même de densité bien plus faible aux alentours de la planète que celle apparaissant au centre de l'image (et donc plus faible que si toute la lumière de l'étoile était étalée jusqu'à la distance de la planète), est encore prépondérant sur l'image de la planète, ce qui dont donc être de la faute du fait que la résolution est beaucoup plus grossière que la taille angulaire de la planète, diluant l'image de celle-ci et la rendant négligeable face à cet éclaboussement.
En ce qui concerne l'interférométrie, un pixel fin de l'image d'une planète serait éclaboussé par 1/N fois la lumière de l'étoile, si la taille D des miroirs est inférieure à la taille 1/ka de résolution de l'angle a entre l'étoile et la planète, ce qui pour un système Soleil-Terre à 10 années-lumière, vaut environ 30 centimètres pour la lumière visible. Donc si la taille de chaque miroir est inférieure à 30 cm alors il sera nécessaire d'avoir un nombre N de miroirs au moins égal au rapport des luminosités entre l'étoile et la planète pour diluer cette lumière entre les N pixels et que si un pixel représente une taille plus petite que la planète, la lumière de celle-ci sur ce pixel devienne appréciable relativement à la lumière de l'étoile sur le même pixel. Dans le cas de la Terre autour du Soleil avec la lumière visible, il faudrait environ 30 000 yeux au carré, soit un milliard d'yeux en tout. Certes on pourrait réduire le nombre en observant dans l'infrarouge, où le rapport de luminosité de la planète à l'étoile est plus favorable. Mais dans ce même infrarouge, à la place de l'étoile il y aura probablement d'autres sources alentours aussi importantes que l'étoile, comme par exemple des images de galaxies lointaines décallées vers le rouge, ou des poussières, des nébuleuses etc...
Le seul moyen d'échapper à la lumière de l'étoile cela serait de faire une sorte de coronographe géant.
En effet, il est physiquement trop tard pour espérer faire quelque séparation que ce soit une fois la lumière du ciel directement arrivée et réfléchie sur des yeux de taille comparable ou inférieure à la taille 30 cm correspondant à la séparation entre planète et étoile. Soit on fait des yeux beaucoup plus grands que 30 cm en espérant que cela permette une relative séparation a posteriori, soit il est nécessaire de cacher la lumière de l'étoile avant son arrivée sur les yeux, donc en s'en allant placer un gigantesque cache percé d'un grand trou à quelques milliers de kilomètres de l'interféromètre, comme expliqué ici...
Retour: astronomie – sommaire scientifique