When restricted to running on one machine, my F90 program works perfectly, but when I try to have it run on multiple machines the problem below occurs.  I can&#39;t figure out what is going wrong, any help will be greatly appreciated thank you.<br>
<i><br>Fatal error in PMPI_Gather: Other MPI error, error stack:<br>PMPI_Gather(863)..................: MPI_Gather(sbuf=0xeb59a0, scount=512, MPI_DOUBLE_COMPLEX, rbuf=(nil), rcount=512, MPI_DOUBLE_COMPLEX, root=0, MPI_COMM_WORLD) failed<br>
MPIR_Gather_impl(693).............: <br>MPIR_Gather(655)..................: <br>MPIR_Gather_intra(283)............: <br>MPIC_Send(66).....................: <br>MPIC_Wait(540)....................: <br>MPIDI_CH3I_Progress(402)..........: <br>
MPID_nem_mpich2_blocking_recv(905): <br>MPID_nem_tcp_connpoll(1838).......: <br>state_listening_handler(1908).....: accept of socket fd failed - Invalid argument<br>Fatal error in PMPI_Gather: Other MPI error, error stack:<br>
PMPI_Gather(863)..........: MPI_Gather(sbuf=0x25d39e0, scount=512, MPI_DOUBLE_COMPLEX, rbuf=0x25bd9b0, rcount=512, MPI_DOUBLE_COMPLEX, root=0, MPI_COMM_WORLD) failed<br>MPIR_Gather_impl(693).....: <br>MPIR_Gather(655)..........: <br>
MPIR_Gather_intra(202)....: <br>dequeue_and_set_error(596): Communication error with rank 1</i><br><b><br>These are all the instances of MPI_GATHER</b><br>call MPI_GATHER(xi_dot_matrix_transp,na*n_elements*nsd/numtasks,MPI_DOUBLE_COMPLEX,xi_dot_matrix_gath,&amp;<br>
     na*n_elements*nsd/numtasks,MPI_DOUBLE_COMPLEX,0,MPI_COMM_WORLD,ierr)<br>call MPI_GATHER(Matrix_A_hat_3d_transp,5*na*size_matrix*nsd/numtasks,MPI_DOUBLE_COMPLEX,&amp;<br>     Matrix_A_hat_3d_gath,5*na*size_matrix*nsd/numtasks,MPI_DOUBLE_COMPLEX,0,MPI_COMM_WORLD,ierr)<br>
call MPI_GATHER(JR_matrix_transp,5*na*size_matrix*nsd/numtasks,MPI_INTEGER,JR_matrix_gath,&amp;<br>     5*na*size_matrix*nsd/numtasks,MPI_INTEGER,0,MPI_COMM_WORLD,ierr)<br>call MPI_GATHER(JC_matrix_transp,5*na*size_matrix*nsd/numtasks,MPI_INTEGER,JC_matrix_gath,&amp;<br>
     5*na*size_matrix*nsd/numtasks,MPI_INTEGER,0,MPI_COMM_WORLD,ierr)<br><br>