<div dir="ltr"><div><div><div>Dear Devs,<br></div><br>first of all, even after the latest Karl's fix, my GPU-enabled solver (using PETSc's KSPGMRES and PCASM) still gives a substantially different residual after one time step in 1 or more GPUs:<br>
<br>+0.72 (1 GPU) against -1.00 (2-8 GPU). <br><br></div><div>The situtation is even more dramatic for PCBJACOBI: in this case it works the same on 1 GPU and crashes on more GPUs ( "Null argument, when expecting valid pointer! [0]PETSC ERROR: Trying to zero at a null pointer!").<br>
</div><div><br></div><div>The only thing that could be wrong on my side, I think, is the way I construct the matrix sparsity pattern for the MPIAIJ matrix, as far as I see, since that is the only difference between a "normal"scenario using parallel BAIJ matrices (which perfectly works for me on multiple CPUs).  <br>
<br>BUT, surprise, if I use PCJACOBI (which is GPU-based as far as I understood), single and multi-GPU residuals are identical! so I start doubting that the problem is due to my sparsity pattern. Perhaps there is something wrong in the PCASM / PCBJACOBI preconditioners when used combined with the GPU-version of the KSP ... what do you think?<br>
<br>I remind that I create the matrix for the multi-GPU case with:<br><br>MatSetType(m_mat, MATMPIAIJCUSP);<br>MatSetBlockSize(m_mat, blockSize);<br>MatMPIAIJSetPreallocation(m_mat, dnz, dnnz, onz, onnz);<br><br></div><div>
please confirm if this is right ...<br><br></div>I do have another problem though: if I compile the last petsc-dev master with  debugging=0 (which is desirable in my case since I'd like to do benchmarks), the petsc tests fail with the messages in the enclosed text file. Any idea why this happens. Mind that I'm using openmpi version 1.6.5 (if this matters) and that by just configuring/compiling with debugging flag = 1, all tests passed with no problem.<br>
</div><div>I guess this could potentially affect many users ...<br><br></div><div>Thanks in advance<br></div><div><br></div>Andrea<br><div><br><br><br><br><br>  <br><div><div><div><div><br><br clear="all"><br>-- <br><span style="color:rgb(102,102,102)">Dr. Andrea Lani                                                               </span><br style="color:rgb(102,102,102)">

<span style="color:rgb(102,102,102)">Senior Research Engineer, PhD</span><br style="color:rgb(102,102,102)"><span style="color:rgb(102,102,102)">Aeronautics & Aerospace dept., CFD group </span><span style="color:rgb(102,102,102)"><br>
Von Karman Institute for Fluid Dynamics   </span><br style="color:rgb(102,102,102)"><span style="color:rgb(102,102,102)">

Chausse de Waterloo 72, </span><br style="color:rgb(102,102,102)"><span style="color:rgb(102,102,102)">B-1640, Rhode-Saint-Genese,  Belgium</span><span style="color:rgb(102,102,102)"><br>fax  : +32-2-3599600  </span><br style="color:rgb(102,102,102)">
<span style="color:rgb(153,153,153)"><span style="color:rgb(102,102,102)">

work : +32-2-3599769  </span>              <span style="background-color:rgb(255,255,255)"></span></span><u style="background-color:rgb(51,51,255);color:rgb(153,153,153)"><br><span style="background-color:rgb(255,255,255);color:rgb(0,0,153)"><a href="mailto:lani@vki.ac.be" target="_blank">lani@vki.ac.be</a></span></u>
</div></div></div></div></div></div>