On Fri, Sep 16, 2011 at 5:38 AM, Alexander Grayver <span dir="ltr">&lt;<a href="mailto:agrayver@gfz-potsdam.de">agrayver@gfz-potsdam.de</a>&gt;</span> wrote:<br><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex;">
Hello,<br>
<br>
With petsc-3.1 I used this code to output MPI dense matrix:<br>
<br>
PetscViewer          :: dviewer<br>
call PetscViewerBinaryOpen(MPI_<u></u>COMM_WORLD,&#39;A.dat&#39;,FILE_MODE_<u></u>WRITE,dviewer,ierr); CHKERRQ(ierr)<br>
call PetscViewerSetFormat(dviewer,<u></u>PETSC_VIEWER_NATIVE,ierr); CHKERRQ(ierr)<br>
call MatView(A,dviewer,ierr); CHKERRQ(ierr)<br>
call PetscViewerDestroy(dviewer,<u></u>ierr); CHKERRQ(ierr)<br>
<br>
With petsc-3.2 this code fails with error:<br></blockquote><div><br></div><div>This error just says that the viewer did not return a format of PETSC_VIEWER_NATIVE. Either you</div><div>accidentally set it in the wrong viewer, or not on every process, or there is memory corruption. I recommend</div>
<div>using the debugger to see what format is returned.</div><div><br></div><div>  Thanks,</div><div><br></div><div>     Matt</div><div> </div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex;">

[7]PETSC ERROR: --------------------- Error Message ------------------------------<u></u>------<br>
[7]PETSC ERROR: No support for this operation for this object type!<br>
[7]PETSC ERROR: To store a parallel dense matrix you must first call PetscViewerSetFormat(viewer,<u></u>PETSC_VIEWER_NATIVE)!<br>
[7]PETSC ERROR: ------------------------------<u></u>------------------------------<u></u>------------<br>
[7]PETSC ERROR: Petsc Release Version 3.2.0, Patch 1, Mon Sep 12 16:01:51 CDT 2011<br>
[7]PETSC ERROR: See docs/changes/index.html for recent updates.<br>
[7]PETSC ERROR: See docs/faq.html for hints about trouble shooting.<br>
[7]PETSC ERROR: See docs/index.html for manual pages.<br>
[7]PETSC ERROR: ------------------------------<u></u>------------------------------<u></u>------------<br>
[7]PETSC ERROR: /home/run/test on a openmpi-i named node205 by user Fri Sep 16 09:17:13 2011<br>
[7]PETSC ERROR: Libraries linked from /home/lib/petsc-3.2-p1/<u></u>openmpi-intel-complex-debug-f/<u></u>lib<br>
[7]PETSC ERROR: Configure run at Wed Sep 14 14:32:55 2011<br>
[7]PETSC ERROR: Configure options --with-petsc-arch=openmpi-<u></u>intel-complex-debug-f --with-fortran-interfaces=1 --with-mpi-dir=/opt/mpi/intel/<u></u>openmpi-1.4.2 --with-scalar-type=complex --with-blas-lapack-dir=/opt/<u></u>intel/Compiler/11.1/072/mkl/<u></u>lib/em64t --with-precision=double --with-x=0<br>

[7]PETSC ERROR: ------------------------------<u></u>------------------------------<u></u>------------<br>
[7]PETSC ERROR: MatView_MPIDense_Binary() line 667 in /home/lib/petsc-3.2-p1/src/<u></u>mat/impls/dense/mpi/mpidense.c<br>
[7]PETSC ERROR: MatView_MPIDense() line 789 in /home/lib/petsc-3.2-p1/src/<u></u>mat/impls/dense/mpi/mpidense.c<br>
[7]PETSC ERROR: MatView() line 757 in /home/lib/petsc-3.2-p1/src/<u></u>mat/interface/matrix.c<br>
MatView_MPIDense() line 789 in /home/lib/petsc-3.2-p1/src/<u></u>mat/impls/dense/mpi/mpidense.c<br>
<br>
See full error attached. Is there something new in petsc-3.2 concerning matrix output?<br>
<br>
Regards,<br><font color="#888888">
Alexander<br>
</font></blockquote></div><br><br clear="all"><div><br></div>-- <br>What most experimenters take for granted before they begin their experiments is infinitely more interesting than any results to which their experiments lead.<br>
-- Norbert Wiener<br>