Par: Johnny Kung
30 Juin, 2020
En astronomie et en cosmologie, il est essentiel de recourir à des instruments, comme des télescopes et des interféromètres, pour observer l’Univers par l’entremise de divers canaux ou « messagers » (comme différentes parties du spectre électromagnétique, y compris la lumière visible et les ondes radio; les neutrinos; et, plus récemment, les ondes gravitationnelles). Il faudra ensuite analyser la grande quantité de données observationnelles, souvent bruyantes, recueillies pour repérer les phénomènes astronomiques qui présentent un intérêt et extraire des données afin de mieux modéliser et comprendre l’Univers. Des astronomes et des cosmologues, y compris un certain nombre de chercheurs du programme Extrême Univers et gravité du CIFAR, utilisent de puissants algorithmes informatiques, notamment des méthodes basées sur l’intelligence artificielle (IA) et l’apprentissage automatique (AA), pour réaliser un éventail d’analyses d’images et de données astronomiques. Il est ensuite possible d’adapter les percées réalisées dans ces algorithmes pour analyser des données tout aussi complexes en biomédecine, qu’il s’agisse entre autres de génomique ou d’imagerie médicale.
L’analyse de données d’imagerie astronomique et biomédicale partage certaines caractéristiques et contraintes similaires :
Les deux types d’imagerie produisent de grandes quantités de données qui présentent des problèmes similaires en matière de conservation et de gestion des données;
L’image ou le signal cible peut souvent être une composante petite ou transitoire qu’il faut séparer d’un arrière-plan bruyant, et identifier et classer correctement, une tâche qui peut se faire à l’aide de l’IA et de l’AA;
Cependant, contrairement à l’application de l’AA à des objets usuels, il n’existe souvent pas, en astronomie ni en microscopie, de grandes collections d’images préexistantes bien annotées pour entraîner les algorithmes;
En même temps, le nombre et la qualité des images en astronomie se trouvent souvent limités par la fenêtre d’observation disponible, c’est-à-dire qu’il est impossible de recommencer et de prendre de nouvelles images, ce qui constitue également un défi pour de nombreuses situations en imagerie médicale;
Finalement, pour certains types d’imagerie non optique, comme la radioastronomie ou l’imagerie par résonance magnétique (IRM), les images sont obtenues indirectement et doivent être à partir du signal.
Par conséquent, les algorithmes d’IA mis au point pour relever ces défis en imagerie astronomique peuvent éventuellement être utilisés pour résoudre des problèmes similaires en imagerie biomédicale, et vice versa.
Lorsque les interféromètres pour ondes gravitationnelles (OG), comme le LIGO, détectent un signal, les astronomes orientent leurs télescopes vers la région du ciel d’où provient le signal d’OG afin de tenter de repérer un « homologue électromagnétique (EM) » (un signal dans le spectre EM, dans la longueur d’onde des rayons gamma, de la lumière visible ou autre) qui correspond à la source des OG. La nature de l’homologue EM, ou son absence, fournit des données sur le type d’événement astronomique à la source du signal d’OG. Dans un article récent, Daryl Haggard, Maria Drout et leurs collègues ont fait état d’une recherche d’un homologue EM pour un signal d’OG qui proviendrait de la fusion d’une étoile à neutrons et d’un trou noir. Après avoir soustrait les images observées des images de référence (obtenues avant ou suffisamment longtemps après l’événement d’OG) pour obtenir des images illustrant les différences, ces triplets d’images ont été examinés par un classificateur « réel-fictif » (real-bogus classifier) basé sur l’apprentissage profond. L’entraînement de l’algorithme s’est fait avec environ 10 % du total des données (environ 2000 triplets), inspectées visuellement par les chercheurs pour être éventuellement des sources EM réelles ou non, en plus d’un ensemble plus restreint d’événements astronomiques transitoires connus. Le classificateur a réduit de 90 % le nombre de candidats destinés à une analyse plus approfondie. Bien qu’au bout du compte, les chercheurs n’aient pas repéré de candidat EM convaincant pour l’événement d’OG, le travail a établi un système d’analyse pour des recherches similaires en cas d’observations futures.
Plusieurs relevés en astronomie optique en cours et à venir, comme le Legacy Survey of Space and Time (LSST) qui sera réalisé à l’observatoire Vera C. Rubin au Chili, scrutent le ciel à la recherche de phénomènes transitoires, notamment des supernovæ, des kilonovæ (fusion d’un trou noir et d’une étoile à neutrons, ou de deux étoiles à neutrons) et des événements de rupture par effet de marée (lorsqu’une étoile se fait déchirer par un trou noir). De tels relevés effectueront à terme des millions de détections chaque nuit, si bien que les astronomes ont besoin d’un moyen d’analyser automatiquement les signaux entrants pour cerner les candidats intéressants. Renée Hložek et ses collègues ont fait état du développement d’un classificateur en temps réel appelé RAPID (Real-time Automated Photometric IDentification, Identification photométrique automatisée en temps réel) à l’aide d’un réseau neuronal récurrent (RNR) profond avec des unités récurrentes fermées (URF) qui permet la classification précise et rapide (dans les deux jours après la première détection) de douze types d’événements transitoires différents. À des moments si précoces, les données disponibles sont rares, mais la possibilité d’effectuer une classification rapide, plutôt que d’attendre la courbe de lumière (séries chronologiques de mesures photométriques) complète, permet des analyses de suivi plus détaillées de la source de l’événement transitoire au moyen d’outils comme la spectroscopie, pendant que l’événement est encore en cours. Vu le manque de grands ensembles de données bien étiquetés (en particulier pour les événements transitoires plus rares), les auteurs ont créé un ensemble simulé de plus de 48 000 événements transitoires et en ont utilisé 60 % comme ensemble d’entraînement. Le classificateur RNR entraîné a réussi à classer avec précision le reste des données simulées, ainsi que les données observationnelles réelles du Zwicky Transient Facility.
L’expérience canadienne de cartographie de l’intensité de l’hydrogène (CHIME) est un radiotélescope interférométrique qui joue un rôle majeur dans la détection des sursauts radio rapides (SRR), de mystérieuses impulsions radio transitoires (de l’ordre de la milliseconde), mais brillantes, dont l’origine et la nature nous échappent encore. Tout comme d’autres télescopes qui scrutent le ciel, CHIME génère des téraoctets de données d’observation radio chaque seconde et 142 Go/s de données sont saisis dans les systèmes d’arrière-plan du télescope. En conséquence, la collaboration CHIME/FRB (qui compte les boursiers du CIFAR Matt Dobbs, Mark Halpern, Gary Hinshaw, Vicky Kaspi, Ue-Li Pen, Scott Ransom, Kendrick Smith et Ingrid Stairs) a mis au point un système automatisé d’analyse de données en temps réel afin de passer au crible les données et de repérer des événements de SRR éventuels aux fins d’analyses plus approfondies. Ce système incorpore une méthode d’apprentissage automatique supervisée (appelée Support Vector Machines) dans un classificateur pour évaluer la probabilité qu’un signal représente un événement astrophysique réel, plutôt qu’une interférence radio provenant, par exemple, d’une transmission cellulaire ou télévisuelle, en fonction de caractéristiques telles que le motif du signal, son emplacement et son rapport signal/bruit. Les signaux classés comme étant d’origine astrophysique sont ensuite saisis dans le système pour déterminer en fin de compte si les données complètes associées à l’événement devraient être rejetées ou conservées.
Un nouvel outil en cosmologie observationnelle est la « raie de l’hydrogène » à 21 cm, la raie du spectre EM qui correspond à la transition entre deux états énergétiques dans les atomes d’hydrogène neutres. Bien que cette transition d’énergie se produise avec une faible probabilité, la quantité astronomique d’hydrogène dans l’Univers crée un signal observable qui peut être exploité pour créer une carte d’intensité 3-D (où la troisième dimension est fournie par le décalage vers le rouge du signal, z, pour lequel une valeur élevée correspond à une plus grande distance de la Terre et donc à un plus grand recul dans le temps). On estime que la cosmologie à 21 cm est particulièrement éclairante sur l’« âge des ténèbres » de l’Univers, qui commence environ 400 000 ans après le Big Bang, lorsque l’Univers s’était suffisamment refroidi pour que les électrons et les noyaux atomiques se « recombinent » en atomes neutres, et qui se termine environ 1,5 milliard d’années après le Big Bang, lorsque la lumière des premières étoiles et galaxies a entraîné une « réionisation » (dont les premiers stades prennent la forme de « bulles » sur les cartes de la raie à 21 cm). Pour examiner comment exploiter la cosmologie à 21 cm afin de comprendre l’Univers pendant cette ère, Adrian Liu et ses collègues ont utilisé des réseaux neuronaux convolutifs (RNC) pour analyser des données simulées de 21 cm, soit des images 2-D du ciel à un décalage vers le rouge particulier, soit des « cônes de lumière » 2-D dans des directions spécifiques (« lignes de visée ») en remontant dans le temps. Dans une des expériences, les RNC servent à concevoir un classificateur pour distinguer les images qui découlent de différents modèles du mécanisme de réionisation, causée soit par des galaxies formatrices d’étoiles, ou par le rayonnement non stellaire de noyaux galactiques actifs (où il y a émission d’énergie lors de l’accrétion de la matière dans des trous noirs supermassifs, par ex., des quasars). Dans une deuxième étude, les chercheurs ont utilisé des RNC pour analyser des cônes de lumière obtenus à partir de modèles affichant différents paramètres astrophysiques associés à divers facteurs, comme la vitesse de formation stellaire ou l’émission et l’absorption de différentes formes de rayonnement, qui procurent des données sur le processus et la chronologie de divers événements cosmologiques. En outre, l’équipe explore le recours aux RNC pour reconstruire la forme de régions ionisées dans des images à 21 cm, déformées par la filtration des contaminants pendant le traitement des données, en utilisant les données qui n’ont pas été filtrées. Quand la prochaine génération de radiotélescopes pour la cartographie d’intensité à 21 cm sera lancée et commencera à produire des données, de tels outils basés sur les RNC constitueront un élément important de la boîte à outils d’analyse des astronomes.
The CHIME/FRB Collaboration et coll. 2018. The CHIME Fast Radio Burst project: System overview. ApJ 863:48.
The CHIME/FRB Collaboration et coll. 2019. Observations of fast radio bursts at frequencies down to 400 megahertz. Nature 566:230-234.
Gillet N et coll. 2019. Deep learning from 21-cm tomography of the cosmic dawn and reionization. Mon. Not. R. Astron. Soc. 484:282-293.
Hassan S et coll. 2018. Identifying reionization sources from 21 cm maps using Convolutional Neural Networks. Mon. Not. R. Astron. Soc. 483:2524-2537.
Liu A et coll. 2020. Data analysis for precision 21 cm cosmology. Publ. Astron. Soc. Pac. 132:062001.
Muthukrishna D et coll. 2019. RAPID: Early classification of explosive transients using deep learning. Publ. Astron. Soc. Pac. 131:118002.
Putzky P et coll. 2019. Invert to learn to invert. In Wallach H. et coll. (éd.), Advances in Neural Information Processing Systems 32 (NeurIPS 2019). San Diego: Neural Information Processing Systems Foundation, Inc.
Vieira N et coll. 2020. A deep CFHT optical search for a counterpart to the possible neutron star – black hole merger GW190814. Apj 895:96.
Ressources du CIFAR :
Déchiffrer le cosmos (compte-rendu de symposium)
Un sursaut radio rapide répétitif (compte-rendu de recherche)
La recherche en IA permet une percée en astronomie (nouvelles du CIFAR)
Détection d’étranges éclairs émanant du cosmos (nouvelles du CIFAR)
Des boursiers du CIFAR participent à la première détection d’ondes gravitationnelles émanant de la collision d’étoiles à neutrons (nouvelles du CIFAR)