Skip to content

Commit

Permalink
Built site for gh-pages
Browse files Browse the repository at this point in the history
  • Loading branch information
ASKabalan committed Sep 5, 2024
1 parent c787329 commit d865736
Show file tree
Hide file tree
Showing 4 changed files with 13 additions and 23 deletions.
2 changes: 1 addition & 1 deletion .nojekyll
Original file line number Diff line number Diff line change
@@ -1 +1 @@
591b82c9
dc47ddbe
11 changes: 6 additions & 5 deletions csi2024/index.html
Original file line number Diff line number Diff line change
Expand Up @@ -405,7 +405,7 @@ <h2>Accelerating Bayesian Inference in Cosmology</h2>
<h3 id="working-framework">Working Framework</h3>
<p>➢   Using advanced software and tools to constrain cosmological parameters through Bayesian inference</p>
<p>➢   Leveraging the Cosmic Microwave Background (CMB) as a tracer to constrain the tensor-to-scalar ratio, <span class="math inline">\(r\)</span></p>
<p>➢   Utilizing weak lensing to constrain key cosmological parameters like <span class="math inline">\(\Omega_m\)</span> and <span class="math inline">\(\sigma_8\)</span></p>
<p>➢   Utilizing weak lensing to constrain key <strong>cosmological parameters</strong> like <span class="math inline">\(\Omega_m\)</span> and <span class="math inline">\(\sigma_8\)</span></p>
<p><br> <br></p>
<div class="fragment" data-fragment-index="1">
<!-- -->
Expand Down Expand Up @@ -1045,6 +1045,7 @@ <h2>Fast Particle-mesh scaling <img data-src="assets/Logos/lsst_desc.png" class=
<p>➢  (Poqueres et al.&nbsp;2021) : <span class="math inline">\(64^3\)</span> mesh size, on a 1000 Mpc/h box</p>
<p>➢  (Li et al.&nbsp;2022) : <span class="math inline">\(512^3\)</span> mesh size, using <a href="https://github.com/eelregit/pmwd">pmwd</a></p>
<p>➢  (Lanusse et al.) : <a href="https://github.com/DifferentiableUniverseInitiative/JaxPM">JaxPM</a> similaire à pmwd.</p>
<p>➢  <a href="https://github.com/fastpm/fastpm">FastPM</a> : distributed but CPU-based</p>
<div class="fragment" data-fragment-index="1">
<p><img data-src="assets/HPC/depict_gathered.png" class="absolute" style="top: 10px; right: 0px; width: 15%; "></p>
</div>
Expand Down Expand Up @@ -1115,7 +1116,7 @@ <h2>Fast Particle-mesh scaling <img data-src="assets/Logos/lsst_desc.png" class=
<ul>
<li><strong>Distributed FFT</strong> operations<br>
</li>
<li><strong>Distributed Interpolation</strong> and boundary conditions</li>
<li><strong>Interpolation scheme</strong> to handle boundary conditions in a distributed manner</li>
</ul>
</div>
</div>
Expand Down Expand Up @@ -1336,7 +1337,7 @@ <h2>Interpolation function for Particle-Mesh simulations (Cloud-in-Cell)</h2>
<div>

</div>
<div class="quarto-layout-panel" data-layout-align="center" data-layout="[2, 1 , 2] ">
<div class="quarto-layout-panel" data-layout="[2, 1 , 2] " data-layout-align="center">
<div class="quarto-layout-row quarto-layout-valign-center">
<div class="quarto-layout-cell" style="flex-basis: 40.0%;justify-content: center;">
<div class="quarto-figure quarto-figure-center">
Expand Down Expand Up @@ -1417,7 +1418,7 @@ <h2>Halo exchange in distributed simulations</h2>
<div>

</div>
<div class="quarto-layout-panel" data-layout-align="center" data-layout="[[1] , [1] , [1] , [1]]">
<div class="quarto-layout-panel" data-layout="[[1] , [1] , [1] , [1]]" data-layout-align="center">
<div class="quarto-layout-row quarto-layout-valign-center">
<div class="quarto-layout-cell" style="flex-basis: 100.0%;justify-content: center;">
<div class="quarto-figure quarto-figure-center">
Expand Down Expand Up @@ -1464,7 +1465,7 @@ <h2>Halo exchange in distributed simulations</h2>
<div>

</div>
<div class="quarto-layout-panel" data-layout-align="center" data-layout="[[1] , [1] , [1] , [1]]">
<div class="quarto-layout-panel" data-layout="[[1] , [1] , [1] , [1]]" data-layout-align="center">
<div class="quarto-layout-row quarto-layout-valign-center">
<div class="quarto-layout-cell" style="flex-basis: 100.0%;justify-content: center;">
<div class="quarto-figure quarto-figure-center">
Expand Down
9 changes: 1 addition & 8 deletions search.json
Original file line number Diff line number Diff line change
Expand Up @@ -88,7 +88,7 @@
"href": "csi2024/index.html#fast-particle-mesh-scaling-lsst-desc",
"title": "CSI Presentation 2024",
"section": "Fast Particle-mesh scaling ",
"text": "Fast Particle-mesh scaling \n➢  (Poqueres et al. 2021) : \\(64^3\\) mesh size, on a 1000 Mpc/h box\n➢  (Li et al. 2022) : \\(512^3\\) mesh size, using pmwd\n➢  (Lanusse et al.) : JaxPM similaire à pmwd.\n\n\n\n\n\n\n\n\n\n\nInitial Conditions with a 1024 mesh\n\n\n\n\n\n\n\nInitial Conditions with a 64 mesh\n\n\n\n\n\n\n\n\nPower spectrum comparison\n\n\n\n\n\n\n\n\nMuti Node ( \\(\\infty\\) )\n\n\n\n\n\n\n\n\n\n\nFinal field with a 1024 mesh\n\n\n\n\n\n\n\nFinal field with a 64 mesh\n\n\n\n\n\n\nMy contributions (in the context of ISSC and LSST DESC)\n\n\nWe need a fast, differentiable and Scalable Particle-Mesh simulation that can run on multiple GPUs.\nMulti-GPU Particle mesh requires :\n\nDistributed FFT operations\n\nDistributed Interpolation and boundary conditions\n\n\n\n\n\n\n\n\nIl existe déja quelque implementation de simulation de particules-mesh qui sont capable de simuler des boites de 1000 Mpc/h avec une résolution de 64^3 ou 512^3.\nLes deux exemples faites dans un papier de poqueres et l’autre par le package pmwd basé sur JAX.\nLe papier de poqueres à utilisé une résolution de 64^3 pour simuler une boite de 1000 Mpc/h, et le package pmwd peut aller jusq’à une résolution de 512^3.\nJaxPM est un package similaire à pmwd, qui est capable de simuler des résolutions similaires à celles de pmwd et toujours sur un seul GPU.\nNEXT\nUn exemple de deux simulation faites sur une boite de 1 Gpc/h avec une résolution de 64^3 et 1024^3. On peut voir que la résolution plus élevée permet de capturer plus de détails dans le champ de densité.\nNEXT\nSi on visualise le spectre de puissance de ces deux champs, on peut voir que la résolution plus basse sous-estime la densité de matière et les interactions à petite échelle. En fonction du type du but cosmologique , ce qui peut dire que ce type d’inference ne sera pas capable de mettre une contrainte mielleure voir meme pire par rapport à une méthode basé sur des fonction de correlation à deux points ou spectre de puissance.\nLa taille de mémoire etant un facteur limitant, il est important de pouvoir mettre à l’échelle ces simulations sur plusieurs GPU et nœuds de calcul haute performance.\nLe passage à une simulation multi-GPU nécessite des opérations de FFT distribuées, des interpolations distribuées et des conditions aux limites.\nNEXT\nNotre but serait de pouvoir faires simulation qui peuvent être distribuées sur plusieur GPU et nœuds de calcul haute performance. Tout en restant diffirentiable et rapide (quelque secondes pour chaque simulation).\npas été fait"
"text": "Fast Particle-mesh scaling \n➢  (Poqueres et al. 2021) : \\(64^3\\) mesh size, on a 1000 Mpc/h box\n➢  (Li et al. 2022) : \\(512^3\\) mesh size, using pmwd\n➢  (Lanusse et al.) : JaxPM similaire à pmwd.\n➢  FastPM : distributed but CPU-based\n\n\n\n\n\n\n\n\n\n\nInitial Conditions with a 1024 mesh\n\n\n\n\n\n\n\nInitial Conditions with a 64 mesh\n\n\n\n\n\n\n\n\nPower spectrum comparison\n\n\n\n\n\n\n\n\nMuti Node ( \\(\\infty\\) )\n\n\n\n\n\n\n\n\n\n\nFinal field with a 1024 mesh\n\n\n\n\n\n\n\nFinal field with a 64 mesh\n\n\n\n\n\n\nMy contributions (in the context of ISSC and LSST DESC)\n\n\nWe need a fast, differentiable and Scalable Particle-Mesh simulation that can run on multiple GPUs.\nMulti-GPU Particle mesh requires :\n\nDistributed FFT operations\n\nInterpolation scheme to handle boundary conditions in a distributed manner\n\n\n\n\n\n\n\n\nIl existe déja quelque implementation de simulation de particules-mesh qui sont capable de simuler des boites de 1000 Mpc/h avec une résolution de 64^3 ou 512^3.\nLes deux exemples faites dans un papier de poqueres et l’autre par le package pmwd basé sur JAX.\nLe papier de poqueres à utilisé une résolution de 64^3 pour simuler une boite de 1000 Mpc/h, et le package pmwd peut aller jusq’à une résolution de 512^3.\nJaxPM est un package similaire à pmwd, qui est capable de simuler des résolutions similaires à celles de pmwd et toujours sur un seul GPU.\nNEXT\nUn exemple de deux simulation faites sur une boite de 1 Gpc/h avec une résolution de 64^3 et 1024^3. On peut voir que la résolution plus élevée permet de capturer plus de détails dans le champ de densité.\nNEXT\nSi on visualise le spectre de puissance de ces deux champs, on peut voir que la résolution plus basse sous-estime la densité de matière et les interactions à petite échelle. En fonction du type du but cosmologique , ce qui peut dire que ce type d’inference ne sera pas capable de mettre une contrainte mielleure voir meme pire par rapport à une méthode basé sur des fonction de correlation à deux points ou spectre de puissance.\nLa taille de mémoire etant un facteur limitant, il est important de pouvoir mettre à l’échelle ces simulations sur plusieurs GPU et nœuds de calcul haute performance.\nLe passage à une simulation multi-GPU nécessite des opérations de FFT distribuées, des interpolations distribuées et des conditions aux limites.\nNEXT\nNotre but serait de pouvoir faires simulation qui peuvent être distribuées sur plusieur GPU et nœuds de calcul haute performance. Tout en restant diffirentiable et rapide (quelque secondes pour chaque simulation).\npas été fait"
},
{
"objectID": "csi2024/index.html#distributed-fast-fourier-transform",
Expand Down Expand Up @@ -208,12 +208,5 @@
"title": "Differentiable and distributed Particle-Mesh n-body simulations",
"section": "Conclusion ",
"text": "Conclusion \n \n\n\nDistruibuted Particle-Mesh simulations for cosmological inference\n\n\n\nA shift from analytical likelihoods to full field inference\n\nThe need for fast differentiable simulators\nParticle-Mesh as simulators for full field inference\nDistributed fourrier transforms that work on multi-node HPC using jaxDecomp\nHighly scalable LPT simulations using JaxPM\n\nStill subject to some challenges\n\nSome issues with the ODE solving step\nOnly Euler gives decent results.\n\n\n\n\n\n\n\nLSST France, 2024"
},
{
"objectID": "notes.html",
"href": "notes.html",
"title": "",
"section": "",
"text": "1 - contraint cosmo\nCadre de travail\n\nAjouter un cadre de travail\n\nAccelerating Bayesian pipelines for cosmology\nConstraining cosmological parameters\nR , Sigma 8 Omega m\nNumerical tools\nHardware acceleration Avant JAX the future Inversion de la matrice Exemple de la taille\n\ndonnes complex volumineux\nLa contrate mise sur R\nCMB as tracer\nSMICA blind methonds\nCadre de SO LiteBird\nScipols parametric method fgbuster [cite] Remove slide 7 ~fix liklehood~\n\nslide 8\nSolution box saying contribution instead of second part\nslide 9\nConclusion\nShift from CPU and pure numpy based computation to JAX Using a gradient based Minimisation TODO Expand to include the ability to do multi resolution and multi patch seperation\nPaper\nSlide 12\nswitch power spectrum image\ntalk : instead of using a summary statistique we use the entire field (data) we have at hand\nSlide 13\ncite Remove HMC To slow to be usable\nSlide 14\nChange the gif to have black dots\nSLide 15\nLess code\nCite Francois\nBetter graphics\nadd constribution\nSlide 16\nExplain Small scale lower resolution the less acurate is the simulation for the small scale interaction\nSlide 17\nAdd units for the plots Stress the Fact that we are the only one doing this\nSlide 18\nSwitch animagion with depiction\nShow image of field\nSkide 19\nSlide 21\nCIC explain\nAdd Fragmentation\n~Pas de Matrices~\n~Corriger L(BETA…)~\nFurax ~Resumé constribution aprs chaque truc~\nQ quoi ça sert\nMulti res Muilti patch remove (prospectus Next steps)\nAstroDeep pas AIM\nPas de UCL\nBule JAX HPC etc ..\nFaire Age plus avance Evolution des structures\nR =&gt; Omega m Sigma 8\nResumé par le spectre de puissance\nMethodes de contraint\nSBI (faire des simulation rapidement)\n–&gt; Weak lensing shear field\nHMC pas besoin de le mettre Très lent sans Gradient\nPetite echelle et grande echelle –&gt;\nPour le SBI il faut faire beaucoup\nBottleneck les outils\nFaut expliquer LPT\nScale factor evolution\nTaille physique (en MP\nScaling on medern hardware\nNumero du slide\nScaling on modern hardware –&gt; remove\nMy contribution is …"
}
]
14 changes: 5 additions & 9 deletions sitemap.xml
Original file line number Diff line number Diff line change
Expand Up @@ -2,22 +2,18 @@
<urlset xmlns="http://www.sitemaps.org/schemas/sitemap/0.9">
<url>
<loc>https://ASKabalan.github.io/slides/csi2024/index.html</loc>
<lastmod>2024-09-05T11:49:47.351Z</lastmod>
<lastmod>2024-09-05T11:54:09.012Z</lastmod>
</url>
<url>
<loc>https://ASKabalan.github.io/slides/index.html</loc>
<lastmod>2024-07-22T13:01:30.866Z</lastmod>
<loc>https://ASKabalan.github.io/slides/template/index.html</loc>
<lastmod>2024-09-03T22:06:03.052Z</lastmod>
</url>
<url>
<loc>https://ASKabalan.github.io/slides/marseille2024/index.html</loc>
<lastmod>2024-09-04T09:48:02.568Z</lastmod>
</url>
<url>
<loc>https://ASKabalan.github.io/slides/template/index.html</loc>
<lastmod>2024-09-03T22:06:03.052Z</lastmod>
</url>
<url>
<loc>https://ASKabalan.github.io/slides/notes.html</loc>
<lastmod>2024-09-04T15:31:06.177Z</lastmod>
<loc>https://ASKabalan.github.io/slides/index.html</loc>
<lastmod>2024-07-22T13:01:30.866Z</lastmod>
</url>
</urlset>

0 comments on commit d865736

Please sign in to comment.