Impact du clustering de sources sur les statistiques d'ordre supérieur des données weak lensing d'Euclid // Sources clustering Impact on Euclid weak lensing high order statistics
ABG-127297
ADUM-59539 |
Thesis topic | |
2024-11-30 | Public/private mixed funding |
Université Paris-Saclay GS Physique
Gif sur yvette - France
Impact du clustering de sources sur les statistiques d'ordre supérieur des données weak lensing d'Euclid // Sources clustering Impact on Euclid weak lensing high order statistics
- Earth, universe, space sciences
Cosmologie, Survey, weak lensing, clustering
Cosmology, Survey, weak lensing, clustering
Cosmology, Survey, weak lensing, clustering
Topic description
Dans les années à venir, la mission Euclid fournira des mesures des formes et des positions de milliards de galaxies avec une précision sans précédent. Lorsque la lumière des galaxies d'arrière-plan traverse l'Univers, elle est déviée par la gravité des structures cosmiques, déformant les formes apparentes des galaxies. Cet effet, connu sous le nom de lentille faible, est la sonde cosmologique la plus puissante de la prochaine décennie, et il peut répondre à certaines des plus grandes questions de la cosmologie : que sont la matière noire et l'énergie noire, et comment se forment les structures cosmiques ?
L'approche standard de l'analyse de la lentille faible consiste à ajuster les statistiques à deux points des données, telles que la fonction de corrélation des formes de galaxies observées. Cependant, cette compression des données n'est pas optimale et rejette de grandes quantités d'informations. Cela a conduit au développement de plusieurs approches basées sur des statistiques d'ordre élevé, telles que les troisièmes moments, les harmoniques de phase en ondelettes et les analyses au niveau du champ. Ces techniques fournissent des contraintes plus précises sur les paramètres du modèle cosmologique (Ajani et al. 2023). Cependant, avec leur précision croissante, ces méthodes deviennent sensibles aux effets systématiques qui étaient négligeables dans les analyses statistiques standard à deux points.
L'une de ces systématiques est le regroupement des sources, qui fait référence à la distribution non uniforme des galaxies observées dans les relevés de lentilles faibles. Plutôt que d'être uniformément distribuées, les galaxies observées suivent la densité de matière sous-jacente. Ce regroupement provoque une corrélation entre le signal de lentille et la densité du nombre de galaxies, conduisant à deux effets : (1) il module la distribution effective du décalage vers le rouge des galaxies, et (2) il corrèle le bruit de forme des galaxies avec le signal de lentille. Bien que cet effet soit négligeable pour les statistiques à deux points (Krause et al. 2021, Linke et al. 2024), il a un impact significatif sur les résultats des statistiques d'ordre élevé (Gatti et al. 2023). Par conséquent, une modélisation précise du regroupement des sources est essentielle pour appliquer ces nouvelles techniques aux données de lentilles faibles d'Euclid.
Dans ce projet, nous développerons un cadre d'inférence pour modéliser le regroupement de sources et évaluer son impact sur les contraintes cosmologiques à partir de statistiques d'ordre élevé. Les objectifs du projet sont :
1. Développer un cadre d'inférence qui remplit les champs de matière noire avec des galaxies, en modélisant avec précision la distribution non uniforme des galaxies d'arrière-plan dans les relevés de lentilles faibles.
2. Quantifier l'impact du regroupement de sources sur les paramètres cosmologiques à partir de transformées en ondelettes et d'analyses au niveau du champ.
3. Incorporer le regroupement de sources dans des émulateurs de la distribution de matière pour permettre une modélisation précise des données dans les analyses statistiques d'ordre élevé.
Grâce à ces développements, ce projet améliorera la précision des analyses cosmologiques et le réalisme de la modélisation des données, rendant possibles des analyses statistiques d'ordre élevé pour les données Euclid.
------------------------------------------------------------------------------------------------------------------------------------------------------------------------
------------------------------------------------------------------------------------------------------------------------------------------------------------------------
ies with unprecedented precision. As the light from the background galaxies travels through the Universe, it is deflected by the gravity of cosmic structures, distorting the apparent shapes of galaxies. This effect, known as weak lensing, is the most powerful cosmological probe of the next decade, and it can answer some of the biggest questions in cosmology: What are dark matter and dark energy, and how do cosmic structures form?
The standard approach to weak lensing analysis is to fit the two-point statistics of the data, such as the correlation function of the observed galaxy shapes. However, this data compression is sub- optimal and discards large amounts of information. This has led to the development of several approaches based on high- order statistics, such as third moments, wavelet phase harmonics and field-level analyses. These techniques provide more precise constraints on the parameters of the cosmological model (Ajani et al. 2023). However, with their increasing precision, these methods become sensitive to systematic effects that were negligible in the standard two-point statistics analyses.
One of these systematics is source clustering, which refers to the non-uniform distribution of the galaxies observed in weak lensing surveys. Rather than being uniformly distributed, the observed galaxies trace the underlying matter density. This clustering causes a correlation between the lensing signal and the galaxy number density, leading to two effects: (1) it modulates the effective redshift distribution of the galaxies, and (2) it correlates the galaxy shape noise with the lensing signal. Although this effect is negligible for two-point statistics (Krause et al. 2021, Linke et al. 2024), it significantly impacts the results of high-order statistics (Gatti et al. 2023). Therefore, accurate modelling of source clustering is critical to applying these new techniques to Euclid's weak lensing data.
In this project, we will develop an inference framework to model source clustering and asses its impact on cosmological constraints from high-order statistics. The objectives of the project are:
1. Develop an inference framework that populates dark matter fields with galaxies, accurately modelling the non-uniform distribution of background galaxies in weak lensing surveys.
2. Quantify the source clustering impact on the cosmological parameters from wavelet transforms and field- level analyses.
3. Incorporate source clustering in emulators of the matter distribution to enable accurate data modelling in the high-order statistics analyses.
With these developments, this project will improve the accuracy of cosmological analyses and the realism of the data modelling, making high-order statistics analyses possible for Euclid data.
------------------------------------------------------------------------------------------------------------------------------------------------------------------------
------------------------------------------------------------------------------------------------------------------------------------------------------------------------
Début de la thèse : 01/10/2025
WEB : http://www.cosmostat.orrg
L'approche standard de l'analyse de la lentille faible consiste à ajuster les statistiques à deux points des données, telles que la fonction de corrélation des formes de galaxies observées. Cependant, cette compression des données n'est pas optimale et rejette de grandes quantités d'informations. Cela a conduit au développement de plusieurs approches basées sur des statistiques d'ordre élevé, telles que les troisièmes moments, les harmoniques de phase en ondelettes et les analyses au niveau du champ. Ces techniques fournissent des contraintes plus précises sur les paramètres du modèle cosmologique (Ajani et al. 2023). Cependant, avec leur précision croissante, ces méthodes deviennent sensibles aux effets systématiques qui étaient négligeables dans les analyses statistiques standard à deux points.
L'une de ces systématiques est le regroupement des sources, qui fait référence à la distribution non uniforme des galaxies observées dans les relevés de lentilles faibles. Plutôt que d'être uniformément distribuées, les galaxies observées suivent la densité de matière sous-jacente. Ce regroupement provoque une corrélation entre le signal de lentille et la densité du nombre de galaxies, conduisant à deux effets : (1) il module la distribution effective du décalage vers le rouge des galaxies, et (2) il corrèle le bruit de forme des galaxies avec le signal de lentille. Bien que cet effet soit négligeable pour les statistiques à deux points (Krause et al. 2021, Linke et al. 2024), il a un impact significatif sur les résultats des statistiques d'ordre élevé (Gatti et al. 2023). Par conséquent, une modélisation précise du regroupement des sources est essentielle pour appliquer ces nouvelles techniques aux données de lentilles faibles d'Euclid.
Dans ce projet, nous développerons un cadre d'inférence pour modéliser le regroupement de sources et évaluer son impact sur les contraintes cosmologiques à partir de statistiques d'ordre élevé. Les objectifs du projet sont :
1. Développer un cadre d'inférence qui remplit les champs de matière noire avec des galaxies, en modélisant avec précision la distribution non uniforme des galaxies d'arrière-plan dans les relevés de lentilles faibles.
2. Quantifier l'impact du regroupement de sources sur les paramètres cosmologiques à partir de transformées en ondelettes et d'analyses au niveau du champ.
3. Incorporer le regroupement de sources dans des émulateurs de la distribution de matière pour permettre une modélisation précise des données dans les analyses statistiques d'ordre élevé.
Grâce à ces développements, ce projet améliorera la précision des analyses cosmologiques et le réalisme de la modélisation des données, rendant possibles des analyses statistiques d'ordre élevé pour les données Euclid.
------------------------------------------------------------------------------------------------------------------------------------------------------------------------
------------------------------------------------------------------------------------------------------------------------------------------------------------------------
ies with unprecedented precision. As the light from the background galaxies travels through the Universe, it is deflected by the gravity of cosmic structures, distorting the apparent shapes of galaxies. This effect, known as weak lensing, is the most powerful cosmological probe of the next decade, and it can answer some of the biggest questions in cosmology: What are dark matter and dark energy, and how do cosmic structures form?
The standard approach to weak lensing analysis is to fit the two-point statistics of the data, such as the correlation function of the observed galaxy shapes. However, this data compression is sub- optimal and discards large amounts of information. This has led to the development of several approaches based on high- order statistics, such as third moments, wavelet phase harmonics and field-level analyses. These techniques provide more precise constraints on the parameters of the cosmological model (Ajani et al. 2023). However, with their increasing precision, these methods become sensitive to systematic effects that were negligible in the standard two-point statistics analyses.
One of these systematics is source clustering, which refers to the non-uniform distribution of the galaxies observed in weak lensing surveys. Rather than being uniformly distributed, the observed galaxies trace the underlying matter density. This clustering causes a correlation between the lensing signal and the galaxy number density, leading to two effects: (1) it modulates the effective redshift distribution of the galaxies, and (2) it correlates the galaxy shape noise with the lensing signal. Although this effect is negligible for two-point statistics (Krause et al. 2021, Linke et al. 2024), it significantly impacts the results of high-order statistics (Gatti et al. 2023). Therefore, accurate modelling of source clustering is critical to applying these new techniques to Euclid's weak lensing data.
In this project, we will develop an inference framework to model source clustering and asses its impact on cosmological constraints from high-order statistics. The objectives of the project are:
1. Develop an inference framework that populates dark matter fields with galaxies, accurately modelling the non-uniform distribution of background galaxies in weak lensing surveys.
2. Quantify the source clustering impact on the cosmological parameters from wavelet transforms and field- level analyses.
3. Incorporate source clustering in emulators of the matter distribution to enable accurate data modelling in the high-order statistics analyses.
With these developments, this project will improve the accuracy of cosmological analyses and the realism of the data modelling, making high-order statistics analyses possible for Euclid data.
------------------------------------------------------------------------------------------------------------------------------------------------------------------------
------------------------------------------------------------------------------------------------------------------------------------------------------------------------
Début de la thèse : 01/10/2025
WEB : http://www.cosmostat.orrg
Funding category
Public/private mixed funding
Funding further details
Contrats ED : Programme blanc GS-Physique*Financement d'autres établissements publics à caractère industriel et commercial (ADEME, ADIT , ANDRA, Bpifrance, BRGM., CIRAD, CNES, Universcience, CSTB., IFPEN, IFREMER, INERIS, IRSN)*Financement du CEA - CFR (Contrat formation par la recherche)
Presentation of host institution and host laboratory
Université Paris-Saclay GS Physique
Institution awarding doctoral degree
Université Paris-Saclay GS Physique
Graduate school
127 Astronomie et Astrophysique d'Ile de France
Candidate's profile
Un diplôme d'ingénieur ou M2 recherche en astrophysique, traitement du signal, ou apprentissage automatique est nécessaire. Être confortable avec le développement logiciel (au moins en Python) et les outils de développement ouverts et collaboratifs sera un atout important (e.g. GitHub).
The successful candidate should hold an engineering degree or Master 2 diploma in astrophysics, signal processing, or deep learning. To be able to make progress on the core scientific challenges of the project, the successful candidate should also already be comfortable with software development (at least in Python), and ideally be familiar with open source and collaborative development tools (e.g. GitHub).
The successful candidate should hold an engineering degree or Master 2 diploma in astrophysics, signal processing, or deep learning. To be able to make progress on the core scientific challenges of the project, the successful candidate should also already be comfortable with software development (at least in Python), and ideally be familiar with open source and collaborative development tools (e.g. GitHub).
2025-03-15
Apply
Close
Vous avez déjà un compte ?
Nouvel utilisateur ?
More information about ABG?
Get ABG’s monthly newsletters including news, job offers, grants & fellowships and a selection of relevant events…
Discover our members
- Institut Sup'biotech de Paris
- PhDOOC
- ONERA - The French Aerospace Lab
- Nokia Bell Labs France
- Groupe AFNOR - Association française de normalisation
- Laboratoire National de Métrologie et d'Essais - LNE
- CESI
- Aérocentre, Pôle d'excellence régional
- MabDesign
- ANRT
- MabDesign
- Ifremer
- Généthon
- ADEME
- TotalEnergies
- SUEZ
- Tecknowmetrix
- CASDEN
- Institut de Radioprotection et de Sureté Nucléaire - IRSN - Siège