I am running on my University&#39;s computers, would I have access to the test/mpi/coll directory?  Also, I am new to programming, how can I run tests across machines manually?<br><br>Thank you for your help<br><br><div class="gmail_quote">
On Mon, Nov 21, 2011 at 3:19 PM, Rajeev Thakur <span dir="ltr">&lt;<a href="mailto:thakur@mcs.anl.gov">thakur@mcs.anl.gov</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin: 0pt 0pt 0pt 0.8ex; border-left: 1px solid rgb(204, 204, 204); padding-left: 1ex;">
OK, run make in the test/mpi/coll directory and run some of those tests across machines manually.<br>
<div><div></div><div class="h5"><br>
On Nov 21, 2011, at 5:13 PM, Chavez, Andres wrote:<br>
<br>
&gt; I ran the cpi example and below is the output.<br>
&gt;<br>
&gt; [schaudhry@n13 examples]$ mpiexec -hosts n13,n03 -np 2 ./cpi<br>
&gt; Process 0 of 2 is on n13<br>
&gt; Process 1 of 2 is on n03<br>
&gt; pi is approximately 3.1415926544231318, Error is 0.0000000008333387<br>
&gt; wall clock time = 0.000931<br>
&gt; [schaudhry@n13 examples]$<br>
&gt;<br>
&gt;<br>
&gt; On Mon, Nov 21, 2011 at 2:57 PM, Rajeev Thakur &lt;<a href="mailto:thakur@mcs.anl.gov">thakur@mcs.anl.gov</a>&gt; wrote:<br>
&gt; See if other MPI programs run across multiple machines. For example, the cpi example in the examples directory.<br>
&gt;<br>
&gt;<br>
&gt; On Nov 21, 2011, at 3:51 PM, Chavez, Andres wrote:<br>
&gt;<br>
&gt; &gt; When restricted to running on one machine, my F90 program works perfectly, but when I try to have it run on multiple machines the problem below occurs.  I can&#39;t figure out what is going wrong, any help will be greatly appreciated thank you.<br>

&gt; &gt;<br>
&gt; &gt; Fatal error in PMPI_Gather: Other MPI error, error stack:<br>
&gt; &gt; PMPI_Gather(863)..................: MPI_Gather(sbuf=0xeb59a0, scount=512, MPI_DOUBLE_COMPLEX, rbuf=(nil), rcount=512, MPI_DOUBLE_COMPLEX, root=0, MPI_COMM_WORLD) failed<br>
&gt; &gt; MPIR_Gather_impl(693).............:<br>
&gt; &gt; MPIR_Gather(655)..................:<br>
&gt; &gt; MPIR_Gather_intra(283)............:<br>
&gt; &gt; MPIC_Send(66).....................:<br>
&gt; &gt; MPIC_Wait(540)....................:<br>
&gt; &gt; MPIDI_CH3I_Progress(402)..........:<br>
&gt; &gt; MPID_nem_mpich2_blocking_recv(905):<br>
&gt; &gt; MPID_nem_tcp_connpoll(1838).......:<br>
&gt; &gt; state_listening_handler(1908).....: accept of socket fd failed - Invalid argument<br>
&gt; &gt; Fatal error in PMPI_Gather: Other MPI error, error stack:<br>
&gt; &gt; PMPI_Gather(863)..........: MPI_Gather(sbuf=0x25d39e0, scount=512, MPI_DOUBLE_COMPLEX, rbuf=0x25bd9b0, rcount=512, MPI_DOUBLE_COMPLEX, root=0, MPI_COMM_WORLD) failed<br>
&gt; &gt; MPIR_Gather_impl(693).....:<br>
&gt; &gt; MPIR_Gather(655)..........:<br>
&gt; &gt; MPIR_Gather_intra(202)....:<br>
&gt; &gt; dequeue_and_set_error(596): Communication error with rank 1<br>
&gt; &gt;<br>
&gt; &gt; These are all the instances of MPI_GATHER<br>
&gt; &gt; call MPI_GATHER(xi_dot_matrix_transp,na*n_elements*nsd/numtasks,MPI_DOUBLE_COMPLEX,xi_dot_matrix_gath,&amp;<br>
&gt; &gt;      na*n_elements*nsd/numtasks,MPI_DOUBLE_COMPLEX,0,MPI_COMM_WORLD,ierr)<br>
&gt; &gt; call MPI_GATHER(Matrix_A_hat_3d_transp,5*na*size_matrix*nsd/numtasks,MPI_DOUBLE_COMPLEX,&amp;<br>
&gt; &gt;      Matrix_A_hat_3d_gath,5*na*size_matrix*nsd/numtasks,MPI_DOUBLE_COMPLEX,0,MPI_COMM_WORLD,ierr)<br>
&gt; &gt; call MPI_GATHER(JR_matrix_transp,5*na*size_matrix*nsd/numtasks,MPI_INTEGER,JR_matrix_gath,&amp;<br>
&gt; &gt;      5*na*size_matrix*nsd/numtasks,MPI_INTEGER,0,MPI_COMM_WORLD,ierr)<br>
&gt; &gt; call MPI_GATHER(JC_matrix_transp,5*na*size_matrix*nsd/numtasks,MPI_INTEGER,JC_matrix_gath,&amp;<br>
&gt; &gt;      5*na*size_matrix*nsd/numtasks,MPI_INTEGER,0,MPI_COMM_WORLD,ierr)<br>
&gt; &gt;<br>
&gt; &gt; _______________________________________________<br>
&gt; &gt; mpich-discuss mailing list     <a href="mailto:mpich-discuss@mcs.anl.gov">mpich-discuss@mcs.anl.gov</a><br>
&gt; &gt; To manage subscription options or unsubscribe:<br>
&gt; &gt; <a href="https://lists.mcs.anl.gov/mailman/listinfo/mpich-discuss" target="_blank">https://lists.mcs.anl.gov/mailman/listinfo/mpich-discuss</a><br>
&gt;<br>
&gt; _______________________________________________<br>
&gt; mpich-discuss mailing list     <a href="mailto:mpich-discuss@mcs.anl.gov">mpich-discuss@mcs.anl.gov</a><br>
&gt; To manage subscription options or unsubscribe:<br>
&gt; <a href="https://lists.mcs.anl.gov/mailman/listinfo/mpich-discuss" target="_blank">https://lists.mcs.anl.gov/mailman/listinfo/mpich-discuss</a><br>
&gt;<br>
&gt; _______________________________________________<br>
&gt; mpich-discuss mailing list     <a href="mailto:mpich-discuss@mcs.anl.gov">mpich-discuss@mcs.anl.gov</a><br>
&gt; To manage subscription options or unsubscribe:<br>
&gt; <a href="https://lists.mcs.anl.gov/mailman/listinfo/mpich-discuss" target="_blank">https://lists.mcs.anl.gov/mailman/listinfo/mpich-discuss</a><br>
<br>
_______________________________________________<br>
mpich-discuss mailing list     <a href="mailto:mpich-discuss@mcs.anl.gov">mpich-discuss@mcs.anl.gov</a><br>
To manage subscription options or unsubscribe:<br>
<a href="https://lists.mcs.anl.gov/mailman/listinfo/mpich-discuss" target="_blank">https://lists.mcs.anl.gov/mailman/listinfo/mpich-discuss</a><br>
</div></div></blockquote></div><br>