<html>
<head>
<meta http-equiv="Content-Type" content="text/html; charset=utf-8">
<style type="text/css" style="display:none;"> P {margin-top:0;margin-bottom:0;} </style>
</head>
<body dir="ltr">
<div class="elementToProof" style="font-family: Calibri, Helvetica, sans-serif; font-size: 12pt; color: rgb(0, 0, 0);">
Attached is the output with -ksp_view, it is not exactly what Philip has been running because this was done on my laptop instead of Ascent.</div>
<div class="elementToProof" style="font-family: Calibri, Helvetica, sans-serif; font-size: 12pt; color: rgb(0, 0, 0);">
<br>
</div>
<div class="elementToProof"><span style="font-family: Calibri, Helvetica, sans-serif; font-size: 12pt; color: rgb(0, 0, 0);">Looking at the options we've been using, "redundant" is in charge of the diffusive part here (finite difference cell centered), in 1D
 simulation. When we do 2D or 3D simulations we switch it to "-fieldsplit_1_pc_type gamg -fieldsplit_1_ksp_type gmres -ksp_type fgmres".</span></div>
<div class="elementToProof"><span style="font-family: Calibri, Helvetica, sans-serif; font-size: 12pt; color: rgb(0, 0, 0);"><br>
</span></div>
<div class="elementToProof"><span style="font-family: Calibri, Helvetica, sans-serif; font-size: 12pt; color: rgb(0, 0, 0);">Cheers,</span></div>
<div class="elementToProof"><span style="font-family: Calibri, Helvetica, sans-serif; font-size: 12pt; color: rgb(0, 0, 0);"><br>
</span></div>
<div class="elementToProof"><span style="font-family: Calibri, Helvetica, sans-serif; font-size: 12pt; color: rgb(0, 0, 0);">Sophie<br>
</span></div>
<div id="appendonsend"></div>
<hr style="display:inline-block;width:98%" tabindex="-1">
<div id="divRplyFwdMsg" dir="ltr"><font face="Calibri, sans-serif" style="font-size:11pt" color="#000000"><b>From:</b> Jed Brown <jed@jedbrown.org><br>
<b>Sent:</b> Thursday, November 30, 2023 00:59<br>
<b>To:</b> Blondel, Sophie <sblondel@utk.edu>; Fackler, Philip <facklerpw@ornl.gov>; Junchao Zhang <junchao.zhang@gmail.com><br>
<b>Cc:</b> petsc-users@mcs.anl.gov <petsc-users@mcs.anl.gov>; xolotl-psi-development@lists.sourceforge.net <xolotl-psi-development@lists.sourceforge.net><br>
<b>Subject:</b> Re: [Xolotl-psi-development] [petsc-users] [EXTERNAL] Re: Unexpected performance losses switching to COO interface</font>
<div> </div>
</div>
<div class="BodyFragment"><font size="2"><span style="font-size:11pt;">
<div class="PlainText">[You don't often get email from jed@jedbrown.org. Learn why this is important at
<a href="https://aka.ms/LearnAboutSenderIdentification">https://aka.ms/LearnAboutSenderIdentification</a> ]<br>
<br>
"Blondel, Sophie" <sblondel@utk.edu> writes:<br>
<br>
> Hi Jed,<br>
><br>
> I'm not sure I'm going to reply to your question correctly because I don't really understand how the split is done. Is it related to on diagonal and off diagonal? If so, the off-diagonal part is usually pretty small (less than 20 DOFs) and related to diffusion,
 the diagonal part involves thousands of DOFs for the reaction term.<br>
<br>
From the run-time option, it'll be a default (additive) split and we're interested in the two diagonal blocks. One currently has a cheap solver that would only be efficient with a well-conditioned positive definite matrix and the other is using a direct solver
 ('redundant'). If you were to run with -ksp_view and share the output, it would be informative.<br>
<br>
Either way, I'd like to understand what physics are beind the equation currently being solved with 'redundant'. If it's diffusive, then algebraic multigrid would be a good place to start.<br>
<br>
> Let us know what we can do to answer this question more accurately.<br>
><br>
> Cheers,<br>
><br>
> Sophie<br>
> ________________________________<br>
> From: Jed Brown <jed@jedbrown.org><br>
> Sent: Tuesday, November 28, 2023 19:07<br>
> To: Fackler, Philip <facklerpw@ornl.gov>; Junchao Zhang <junchao.zhang@gmail.com><br>
> Cc: petsc-users@mcs.anl.gov <petsc-users@mcs.anl.gov>; xolotl-psi-development@lists.sourceforge.net <xolotl-psi-development@lists.sourceforge.net><br>
> Subject: Re: [Xolotl-psi-development] [petsc-users] [EXTERNAL] Re: Unexpected performance losses switching to COO interface<br>
><br>
> [Some people who received this message don't often get email from jed@jedbrown.org. Learn why this is important at
<a href="https://aka.ms/LearnAboutSenderIdentification">https://aka.ms/LearnAboutSenderIdentification</a> ]<br>
><br>
> "Fackler, Philip via petsc-users" <petsc-users@mcs.anl.gov> writes:<br>
><br>
>> That makes sense. Here are the arguments that I think are relevant:<br>
>><br>
>> -fieldsplit_1_pc_type redundant -fieldsplit_0_pc_type sor -pc_type fieldsplit -pc_fieldsplit_detect_coupling​<br>
><br>
> What sort of physics are in splits 0 and 1?<br>
><br>
> SOR is not a good GPU algorithm, so we'll want to change that one way or another. Are the splits of similar size or very different?<br>
><br>
>> What would you suggest to make this better?<br>
>><br>
>> Also, note that the cases marked "serial" are running on CPU only, that is, using only the SERIAL backend for kokkos.<br>
>><br>
>> Philip Fackler<br>
>> Research Software Engineer, Application Engineering Group<br>
>> Advanced Computing Systems Research Section<br>
>> Computer Science and Mathematics Division<br>
>> Oak Ridge National Laboratory<br>
>> ________________________________<br>
>> From: Junchao Zhang <junchao.zhang@gmail.com><br>
>> Sent: Tuesday, November 28, 2023 15:51<br>
>> To: Fackler, Philip <facklerpw@ornl.gov><br>
>> Cc: petsc-users@mcs.anl.gov <petsc-users@mcs.anl.gov>; xolotl-psi-development@lists.sourceforge.net <xolotl-psi-development@lists.sourceforge.net><br>
>> Subject: Re: [EXTERNAL] Re: [petsc-users] Unexpected performance losses switching to COO interface<br>
>><br>
>> Hi, Philip,<br>
>>    I opened hpcdb-PSI_9-serial and it seems you used PCLU.  Since Kokkos does not have a GPU LU implementation, we do it on CPU via MatLUFactorNumeric_SeqAIJ(). Perhaps you can try other PC types?<br>
>><br>
>> [Screenshot 2023-11-28 at 2.43.03 PM.png]<br>
>> --Junchao Zhang<br>
>><br>
>><br>
>> On Wed, Nov 22, 2023 at 10:43 AM Fackler, Philip <facklerpw@ornl.gov<mailto:facklerpw@ornl.gov>> wrote:<br>
>> I definitely dropped the ball on this. I'm sorry for that. I have new profiling data using the latest (as of yesterday) of petsc/main. I've put them in a single google drive folder linked here:<br>
>><br>
>> <a href="https://drive.google.com/drive/folders/14ScvyfxOzc4OzXs9HZVeQDO-g6FdIVAI?usp=drive_link<https://urldefense.us/v2/url?u=https-3A__drive.google.com_drive_folders_14ScvyfxOzc4OzXs9HZVeQDO-2Dg6FdIVAI-3Fusp-3Ddrive-5Flink&d=DwMFaQ&c=v4IIwRuZAmwupIjowmMWUmLasxPEgYsgNI-O7C4ViYc&r=DAkLCjn8leYU-uJ-kfNEQMhPZWx9lzc4d5KgIR-RZWQ&m=Qn5D9xuzFcMdyuL0I2ruKmU6yeez0NrOx69oUjRaAXTeKD6etHt4USuZgnbqF4v6&s=_Lqg9v8aa4KXUdud3zqSp55FiYkZ12Pp5ZY54_9OvJI&e=>">
https://drive.google.com/drive/folders/14ScvyfxOzc4OzXs9HZVeQDO-g6FdIVAI?usp=drive_link<https://urldefense.us/v2/url?u=https-3A__drive.google.com_drive_folders_14ScvyfxOzc4OzXs9HZVeQDO-2Dg6FdIVAI-3Fusp-3Ddrive-5Flink&d=DwMFaQ&c=v4IIwRuZAmwupIjowmMWUmLasxPEgYsgNI-O7C4ViYc&r=DAkLCjn8leYU-uJ-kfNEQMhPZWx9lzc4d5KgIR-RZWQ&m=Qn5D9xuzFcMdyuL0I2ruKmU6yeez0NrOx69oUjRaAXTeKD6etHt4USuZgnbqF4v6&s=_Lqg9v8aa4KXUdud3zqSp55FiYkZ12Pp5ZY54_9OvJI&e=></a><br>
>><br>
>> Have a happy holiday weekend!<br>
>><br>
>> Thanks,<br>
>><br>
>> Philip Fackler<br>
>> Research Software Engineer, Application Engineering Group<br>
>> Advanced Computing Systems Research Section<br>
>> Computer Science and Mathematics Division<br>
>> Oak Ridge National Laboratory<br>
>> ________________________________<br>
>> From: Junchao Zhang <junchao.zhang@gmail.com<mailto:junchao.zhang@gmail.com>><br>
>> Sent: Monday, October 16, 2023 15:24<br>
>> To: Fackler, Philip <facklerpw@ornl.gov<mailto:facklerpw@ornl.gov>><br>
>> Cc: petsc-users@mcs.anl.gov<mailto:petsc-users@mcs.anl.gov> <petsc-users@mcs.anl.gov<mailto:petsc-users@mcs.anl.gov>>; xolotl-psi-development@lists.sourceforge.net<mailto:xolotl-psi-development@lists.sourceforge.net> <xolotl-psi-development@lists.sourceforge.net<mailto:xolotl-psi-development@lists.sourceforge.net>><br>
>> Subject: Re: [EXTERNAL] Re: [petsc-users] Unexpected performance losses switching to COO interface<br>
>><br>
>> Hi, Philip,<br>
>>    That branch was merged to petsc/main today. Let me know once you have new profiling results.<br>
>><br>
>>    Thanks.<br>
>> --Junchao Zhang<br>
>><br>
>><br>
>> On Mon, Oct 16, 2023 at 9:33 AM Fackler, Philip <facklerpw@ornl.gov<mailto:facklerpw@ornl.gov>> wrote:<br>
>> Junchao,<br>
>><br>
>> I've attached updated timing plots (red and blue are swapped from before; yellow is the new one). There is an improvement for the NE_3 case only with CUDA. Serial stays the same, and the PSI cases stay the same. In the PSI cases, MatShift doesn't show up
 (I assume because we're using different preconditioner arguments). So, there must be some other primary culprit. I'll try to get updated profiling data to you soon.<br>
>><br>
>> Thanks,<br>
>><br>
>> Philip Fackler<br>
>> Research Software Engineer, Application Engineering Group<br>
>> Advanced Computing Systems Research Section<br>
>> Computer Science and Mathematics Division<br>
>> Oak Ridge National Laboratory<br>
>> ________________________________<br>
>> From: Fackler, Philip via Xolotl-psi-development <xolotl-psi-development@lists.sourceforge.net<mailto:xolotl-psi-development@lists.sourceforge.net>><br>
>> Sent: Wednesday, October 11, 2023 11:31<br>
>> To: Junchao Zhang <junchao.zhang@gmail.com<mailto:junchao.zhang@gmail.com>><br>
>> Cc: petsc-users@mcs.anl.gov<mailto:petsc-users@mcs.anl.gov> <petsc-users@mcs.anl.gov<mailto:petsc-users@mcs.anl.gov>>; xolotl-psi-development@lists.sourceforge.net<mailto:xolotl-psi-development@lists.sourceforge.net> <xolotl-psi-development@lists.sourceforge.net<mailto:xolotl-psi-development@lists.sourceforge.net>><br>
>> Subject: Re: [Xolotl-psi-development] [EXTERNAL] Re: [petsc-users] Unexpected performance losses switching to COO interface<br>
>><br>
>> I'm on it.<br>
>><br>
>> Philip Fackler<br>
>> Research Software Engineer, Application Engineering Group<br>
>> Advanced Computing Systems Research Section<br>
>> Computer Science and Mathematics Division<br>
>> Oak Ridge National Laboratory<br>
>> ________________________________<br>
>> From: Junchao Zhang <junchao.zhang@gmail.com<mailto:junchao.zhang@gmail.com>><br>
>> Sent: Wednesday, October 11, 2023 10:14<br>
>> To: Fackler, Philip <facklerpw@ornl.gov<mailto:facklerpw@ornl.gov>><br>
>> Cc: petsc-users@mcs.anl.gov<mailto:petsc-users@mcs.anl.gov> <petsc-users@mcs.anl.gov<mailto:petsc-users@mcs.anl.gov>>; xolotl-psi-development@lists.sourceforge.net<mailto:xolotl-psi-development@lists.sourceforge.net> <xolotl-psi-development@lists.sourceforge.net<mailto:xolotl-psi-development@lists.sourceforge.net>>;
 Blondel, Sophie <sblondel@utk.edu<mailto:sblondel@utk.edu>><br>
>> Subject: Re: [EXTERNAL] Re: [petsc-users] Unexpected performance losses switching to COO interface<br>
>><br>
>> Hi,  Philip,<br>
>>   Could you try this branch jczhang/2023-10-05/feature-support-matshift-aijkokkos ?<br>
>><br>
>>   Thanks.<br>
>> --Junchao Zhang<br>
>><br>
>><br>
>> On Thu, Oct 5, 2023 at 4:52 PM Fackler, Philip <facklerpw@ornl.gov<mailto:facklerpw@ornl.gov>> wrote:<br>
>> Aha! That makes sense. Thank you.<br>
>><br>
>> Philip Fackler<br>
>> Research Software Engineer, Application Engineering Group<br>
>> Advanced Computing Systems Research Section<br>
>> Computer Science and Mathematics Division<br>
>> Oak Ridge National Laboratory<br>
>> ________________________________<br>
>> From: Junchao Zhang <junchao.zhang@gmail.com<mailto:junchao.zhang@gmail.com>><br>
>> Sent: Thursday, October 5, 2023 17:29<br>
>> To: Fackler, Philip <facklerpw@ornl.gov<mailto:facklerpw@ornl.gov>><br>
>> Cc: petsc-users@mcs.anl.gov<mailto:petsc-users@mcs.anl.gov> <petsc-users@mcs.anl.gov<mailto:petsc-users@mcs.anl.gov>>; xolotl-psi-development@lists.sourceforge.net<mailto:xolotl-psi-development@lists.sourceforge.net> <xolotl-psi-development@lists.sourceforge.net<mailto:xolotl-psi-development@lists.sourceforge.net>>;
 Blondel, Sophie <sblondel@utk.edu<mailto:sblondel@utk.edu>><br>
>> Subject: [EXTERNAL] Re: [petsc-users] Unexpected performance losses switching to COO interface<br>
>><br>
>> Wait a moment, it seems it was because we do not have a GPU implementation of MatShift...<br>
>> Let me see how to add it.<br>
>> --Junchao Zhang<br>
>><br>
>><br>
>> On Thu, Oct 5, 2023 at 10:58 AM Junchao Zhang <junchao.zhang@gmail.com<mailto:junchao.zhang@gmail.com>> wrote:<br>
>> Hi, Philip,<br>
>>   I looked at the hpcdb-NE_3-cuda file. It seems you used MatSetValues() instead of the COO interface?  MatSetValues() needs to copy the data from device to host and thus is expensive.<br>
>>   Do you have profiling results with COO enabled?<br>
>><br>
>> [Screenshot 2023-10-05 at 10.55.29 AM.png]<br>
>><br>
>><br>
>> --Junchao Zhang<br>
>><br>
>><br>
>> On Mon, Oct 2, 2023 at 9:52 AM Junchao Zhang <junchao.zhang@gmail.com<mailto:junchao.zhang@gmail.com>> wrote:<br>
>> Hi, Philip,<br>
>>   I will look into the tarballs and get back to you.<br>
>>    Thanks.<br>
>> --Junchao Zhang<br>
>><br>
>><br>
>> On Mon, Oct 2, 2023 at 9:41 AM Fackler, Philip via petsc-users <petsc-users@mcs.anl.gov<mailto:petsc-users@mcs.anl.gov>> wrote:<br>
>> We finally have xolotl ported to use the new COO interface and the aijkokkos implementation for Mat (and kokkos for Vec). Comparing this port to our previous version (using MatSetValuesStencil and the default Mat and Vec implementations), we expected to
 see an improvement in performance for both the "serial" and "cuda" builds (here I'm referring to the kokkos configuration).<br>
>><br>
>> Attached are two plots that show timings for three different cases. All of these were run on Ascent (the Summit-like training system) with 6 MPI tasks (on a single node). The CUDA cases were given one GPU per task (and used CUDA-aware MPI). The labels on
 the blue bars indicate speedup. In all cases we used "-fieldsplit_0_pc_type jacobi" to keep the comparison as consistent as possible.<br>
>><br>
>> The performance of RHSJacobian (where the bulk of computation happens in xolotl) behaved basically as expected (better than expected in the serial build). NE_3 case in CUDA was the only one that performed worse, but not surprisingly, since its workload for
 the GPUs is much smaller. We've still got more optimization to do on this.<br>
>><br>
>> The real surprise was how much worse the overall solve times were. This seems to be due simply to switching to the kokkos-based implementation. I'm wondering if there are any changes we can make in configuration or runtime arguments to help with PETSc's
 performance here. Any help looking into this would be appreciated.<br>
>><br>
>> The tarballs linked here<<a href="https://urldefense.us/v2/url?u=https-3A__drive.google.com_file_d_19X-5FL3SVkGBM9YUzXnRR-5FkVWFG0JFwqZ3_view-3Fusp-3Ddrive-5Flink&d=DwMFaQ&c=v4IIwRuZAmwupIjowmMWUmLasxPEgYsgNI-O7C4ViYc&r=DAkLCjn8leYU-uJ-kfNEQMhPZWx9lzc4d5KgIR-RZWQ&m=GTpC2k9hIdMhUg_aJkeAqd-1CP5M8bwJMJjTriVE1k-j36ZnEHerQkZOzszxWoG2&s=GW0ImGWhWr4rR5AoSULCnaP1CN1QWxTSeMDhdOuhTEA&e=">https://urldefense.us/v2/url?u=https-3A__drive.google.com_file_d_19X-5FL3SVkGBM9YUzXnRR-5FkVWFG0JFwqZ3_view-3Fusp-3Ddrive-5Flink&d=DwMFaQ&c=v4IIwRuZAmwupIjowmMWUmLasxPEgYsgNI-O7C4ViYc&r=DAkLCjn8leYU-uJ-kfNEQMhPZWx9lzc4d5KgIR-RZWQ&m=GTpC2k9hIdMhUg_aJkeAqd-1CP5M8bwJMJjTriVE1k-j36ZnEHerQkZOzszxWoG2&s=GW0ImGWhWr4rR5AoSULCnaP1CN1QWxTSeMDhdOuhTEA&e=</a>>
 and here<<a href="https://urldefense.us/v2/url?u=https-3A__drive.google.com_file_d_15yDBN7-2DYlO1g6RJNPYNImzr611i1Ffhv_view-3Fusp-3Ddrive-5Flink&d=DwMFaQ&c=v4IIwRuZAmwupIjowmMWUmLasxPEgYsgNI-O7C4ViYc&r=DAkLCjn8leYU-uJ-kfNEQMhPZWx9lzc4d5KgIR-RZWQ&m=GTpC2k9hIdMhUg_aJkeAqd-1CP5M8bwJMJjTriVE1k-j36ZnEHerQkZOzszxWoG2&s=tO-BnNY2myA-pIsRnBjQNoaOSjn-B3-lWGiQp7XXJwk&e=">https://urldefense.us/v2/url?u=https-3A__drive.google.com_file_d_15yDBN7-2DYlO1g6RJNPYNImzr611i1Ffhv_view-3Fusp-3Ddrive-5Flink&d=DwMFaQ&c=v4IIwRuZAmwupIjowmMWUmLasxPEgYsgNI-O7C4ViYc&r=DAkLCjn8leYU-uJ-kfNEQMhPZWx9lzc4d5KgIR-RZWQ&m=GTpC2k9hIdMhUg_aJkeAqd-1CP5M8bwJMJjTriVE1k-j36ZnEHerQkZOzszxWoG2&s=tO-BnNY2myA-pIsRnBjQNoaOSjn-B3-lWGiQp7XXJwk&e=</a>>
 are profiling databases which, once extracted, can be viewed with hpcviewer. I don't know how helpful that will be, but hopefully it can give you some direction.<br>
>><br>
>> Thanks for your help,<br>
>><br>
>> Philip Fackler<br>
>> Research Software Engineer, Application Engineering Group<br>
>> Advanced Computing Systems Research Section<br>
>> Computer Science and Mathematics Division<br>
>> Oak Ridge National Laboratory<br>
><br>
><br>
> _______________________________________________<br>
> Xolotl-psi-development mailing list<br>
> Xolotl-psi-development@lists.sourceforge.net<br>
> <a href="https://lists.sourceforge.net/lists/listinfo/xolotl-psi-development">https://lists.sourceforge.net/lists/listinfo/xolotl-psi-development</a><br>
</div>
</span></font></div>
</body>
</html>