On Fri, Sep 16, 2011 at 12:15 PM, Alexander Grayver <span dir="ltr">&lt;<a href="mailto:agrayver@gfz-potsdam.de">agrayver@gfz-potsdam.de</a>&gt;</span> wrote:<br><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex;">
<u></u>

  
    
  
  <div bgcolor="#ffffff" text="#000000">
    Matt,<br>
    <br>
    Can you explain what do you by seeing what format is returned?<br></div></blockquote><div><br></div><div>You can step into the MatView function, into MatView_MPIDense_Binary(), where it checks</div><div>the format, and see what format it thought it had. It just feels like a memory overwrite since</div>
<div>it should work.</div><div><br></div><div>   Matt</div><div> </div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex;"><div bgcolor="#ffffff" text="#000000">
    I will check in debugger of course, but still I find it strange. <br>
    I have two versions of petsc (3.1-p7 and 3.2-p1) configured with the
    same options, my code and runs are absolutely identical and I get
    this error only with petsc-3.2.<br>
    <br>
    Regards,<br><font color="#888888">
    Alexander</font><div><div></div><div class="h5"><br>
    <br>
    On 16.09.2011 15:04, Matthew Knepley wrote:
    <blockquote type="cite">On Fri, Sep 16, 2011 at 5:38 AM, Alexander Grayver <span dir="ltr">&lt;<a href="mailto:agrayver@gfz-potsdam.de" target="_blank">agrayver@gfz-potsdam.de</a>&gt;</span>
      wrote:<br>
      <div class="gmail_quote">
        <blockquote class="gmail_quote" style="margin:0pt 0pt 0pt 0.8ex;border-left:1px solid rgb(204, 204, 204);padding-left:1ex">
          Hello,<br>
          <br>
          With petsc-3.1 I used this code to output MPI dense matrix:<br>
          <br>
          PetscViewer          :: dviewer<br>
          call PetscViewerBinaryOpen(MPI_COMM_WORLD,&#39;A.dat&#39;,FILE_MODE_WRITE,dviewer,ierr);
          CHKERRQ(ierr)<br>
          call PetscViewerSetFormat(dviewer,PETSC_VIEWER_NATIVE,ierr);
          CHKERRQ(ierr)<br>
          call MatView(A,dviewer,ierr); CHKERRQ(ierr)<br>
          call PetscViewerDestroy(dviewer,ierr); CHKERRQ(ierr)<br>
          <br>
          With petsc-3.2 this code fails with error:<br>
        </blockquote>
        <div><br>
        </div>
        <div>This error just says that the viewer did not return a
          format of PETSC_VIEWER_NATIVE. Either you</div>
        <div>accidentally set it in the wrong viewer, or not on every
          process, or there is memory corruption. I recommend</div>
        <div>using the debugger to see what format is returned.</div>
        <div><br>
        </div>
        <div>  Thanks,</div>
        <div><br>
        </div>
        <div>     Matt</div>
        <div> </div>
        <blockquote class="gmail_quote" style="margin:0pt 0pt 0pt 0.8ex;border-left:1px solid rgb(204, 204, 204);padding-left:1ex">
          [7]PETSC ERROR: --------------------- Error Message
          ------------------------------------<br>
          [7]PETSC ERROR: No support for this operation for this object
          type!<br>
          [7]PETSC ERROR: To store a parallel dense matrix you must
          first call PetscViewerSetFormat(viewer,PETSC_VIEWER_NATIVE)!<br>
          [7]PETSC ERROR: ------------------------------------------------------------------------<br>
          [7]PETSC ERROR: Petsc Release Version 3.2.0, Patch 1, Mon Sep
          12 16:01:51 CDT 2011<br>
          [7]PETSC ERROR: See docs/changes/index.html for recent
          updates.<br>
          [7]PETSC ERROR: See docs/faq.html for hints about trouble
          shooting.<br>
          [7]PETSC ERROR: See docs/index.html for manual pages.<br>
          [7]PETSC ERROR: ------------------------------------------------------------------------<br>
          [7]PETSC ERROR: /home/run/test on a openmpi-i named node205 by
          user Fri Sep 16 09:17:13 2011<br>
          [7]PETSC ERROR: Libraries linked from /home/lib/petsc-3.2-p1/openmpi-intel-complex-debug-f/lib<br>
          [7]PETSC ERROR: Configure run at Wed Sep 14 14:32:55 2011<br>
          [7]PETSC ERROR: Configure options --with-petsc-arch=openmpi-intel-complex-debug-f
          --with-fortran-interfaces=1 --with-mpi-dir=/opt/mpi/intel/openmpi-1.4.2
          --with-scalar-type=complex --with-blas-lapack-dir=/opt/intel/Compiler/11.1/072/mkl/lib/em64t
          --with-precision=double --with-x=0<br>
          [7]PETSC ERROR: ------------------------------------------------------------------------<br>
          [7]PETSC ERROR: MatView_MPIDense_Binary() line 667 in
          /home/lib/petsc-3.2-p1/src/mat/impls/dense/mpi/mpidense.c<br>
          [7]PETSC ERROR: MatView_MPIDense() line 789 in
          /home/lib/petsc-3.2-p1/src/mat/impls/dense/mpi/mpidense.c<br>
          [7]PETSC ERROR: MatView() line 757 in
          /home/lib/petsc-3.2-p1/src/mat/interface/matrix.c<br>
          MatView_MPIDense() line 789 in /home/lib/petsc-3.2-p1/src/mat/impls/dense/mpi/mpidense.c<br>
          <br>
          See full error attached. Is there something new in petsc-3.2
          concerning matrix output?<br>
          <br>
          Regards,<br>
          <font color="#888888">
            Alexander<br>
          </font></blockquote>
      </div>
      <br>
      <br clear="all">
      <div><br>
      </div>
      -- <br>
      What most experimenters take for granted before they begin their
      experiments is infinitely more interesting than any results to
      which their experiments lead.<br>
      -- Norbert Wiener<br>
    </blockquote>
    <br>
  </div></div></div>

</blockquote></div><br><br clear="all"><div><br></div>-- <br>What most experimenters take for granted before they begin their experiments is infinitely more interesting than any results to which their experiments lead.<br>
-- Norbert Wiener<br>