<html>
  <head>
    <meta content="text/html; charset=ISO-8859-1"
      http-equiv="Content-Type">
  </head>
  <body text="#000000" bgcolor="#FFFFFF">
    <div class="moz-cite-prefix">Hello Karl,<br>
      <br>
      Thanks for fixing the problem. ex19 runs now in parallel on GPU<br>
      on the last petsc-dev versions.<br>
      I got another problem though but will create another thread.<br>
      <br>
      PL <br>
    </div>
    <blockquote cite="mid:52D563AF.9080207@mcs.anl.gov" type="cite">Hi
      Pierre,
      <br>
      <br>
      >> I could reproduce the problem and also get some
      uninitialized variable
      <br>
      <blockquote type="cite">
        <blockquote type="cite">warnings in Valgrind. The debug version
          detects these errors, hence
          <br>
          you only see the errors in the debug build. For the optimized
          build,
          <br>
          chances are good that the computed values are either wrong or
          may
          <br>
          become wrong in other environments. I'll see what I can do
          when I'm
          <br>
          again at GPU machine tomorrow (parallel GPU debugging via SSH
          is not
          <br>
          great...)
          <br>
        </blockquote>
        Sorry, I mean:
        <br>
        <br>
        Parallel calculation on CPU or GPU run well with PETSc non
        optimized library
        <br>
        Parallel calculation on GPU crashes with PETSc optimized library
        (on CPU
        <br>
        it is OK)
        <br>
      </blockquote>
      <br>
      The fact that it happens to run in one mode out of {debug,
      optimized} but not in the other is at most a lucky coincidence,
      but it still means that this is a bug we need to solve :-)
      <br>
      <br>
      <br>
      <blockquote type="cite">I could add that the "mpirun -np 1 ex19"
        runs well for all builds on CPU
        <br>
        and GPU.
        <br>
      </blockquote>
      <br>
      I see valgrind warnings in the vector scatter routines, which is
      likely the reason why it doesn't work with multiple MPI ranks.
      <br>
      <br>
      Best regards,
      <br>
      Karli
      <br>
      <br>
    </blockquote>
    <br>
    <br>
    <div class="moz-signature">-- <br>
      <b>Trio_U support team</b>
      <br>
      Marthe ROUX (01 69 08 00 02) Saclay
      <br>
      Pierre LEDAC (04 38 78 91 49) Grenoble
    </div>
  </body>
</html>