<div dir="ltr">Thanks Jed,<div><br></div><div>I got the attached, it looks is coming from one of my routines CorrectU4Pressure.F90, what other information can i get from this log?</div><div><br></div><div>Thanks,</div></div><div class="gmail_extra"><br><div class="gmail_quote">On Tue, Aug 14, 2018 at 12:57 PM, Jed Brown <span dir="ltr"><<a href="mailto:jed@jedbrown.org" target="_blank">jed@jedbrown.org</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><span class="">Manuel Valera <<a href="mailto:mvalera-w@sdsu.edu">mvalera-w@sdsu.edu</a>> writes:<br>
<br>
> Hello everyone,<br>
><br>
> I am working on running part of my code in a GPU, recently i was able to<br>
> run the whole model using one P100 GPU and one processor with good timing<br>
> but using  --with-debugging=1 as configure argument,<br>
><br>
> With this in mind i compiled PETSc in a separate folder with the same exact<br>
> flags except for --with-debugging=no instead to do some profiling, but this<br>
> was enough to give segfault as an error after running the code, it looks<br>
> the error happens just after solving the linear system,<br>
><br>
> Any idea on why this may be happening?<br>
<br>
</span>Run in a debugger and send a stack trace.<br>
<div class="HOEnZb"><div class="h5"><br>
> My configure options:<br>
><br>
>  ./configure PETSC_ARCH=cuda  --with-mpi-dir=/usr/lib64/<wbr>openmpi<br>
> --COPTFLAGS='-O2' --CXXOPTFLAGS='-O2' --FOPTFLAGS='-O2'<br>
> --with-shared-libraries=1 --with-debugging=no --with-cuda=1<br>
> --CUDAFLAGS=-arch=sm_60  --with-blaslapack-dir=/usr/<wbr>lib64<br>
> --download-viennacl<br>
><br>
> My running arguments:<br>
><br>
> mpirun -n 1 ./gcmLEP tc=TestCases/LockRelease/LE_<wbr>401x6x101/ jid=cuda_dt0.1<br>
> -dm_vec_type viennacl -dm_mat_type aijviennacl -pc_type saviennacl<br>
> -log_view<br>
><br>
> Thanks.<br>
</div></div></blockquote></div><br></div>