Hi,<br><br>I installed petsc-dev. Everything thing's fine when compiling it. <br><br>But problems appeared with the downloaded openmpi-1.6.3 when I make /ksp/ex2 and ran by<br><br><br>mpirun -n 2 ex2<br><br>Errors as follows,<br><br>It looks like orte_init failed for some reason; your parallel process is<br>likely to abort.  There are many reasons that a parallel process can<br>fail during orte_init; some of which are due to configuration or<br>environment problems.  This failure appears to be an internal failure;<br>here's some additional information (which may only be relevant to an<br>Open MPI developer):<br><br>  orte_util_nidmap_init failed<br>  --> Returned value Data unpack would read past end of buffer (-26) instead of ORTE_SUCCESS<br>--------------------------------------------------------------------------<br>[ubuntu:03237] [[3831,1],0] ORTE_ERROR_LOG: Data unpack would read past end of buffer in file util/nidmap.c at line 118<br>[ubuntu:03237
 
 ] [[3831,1],0] ORTE_ERROR_LOG: Data unpack would read past end of buffer in file ess_env_module.c at line 174<br>--------------------------------------------------------------------------<br>It looks like orte_init failed for some reason; your parallel process is<br>likely to abort.  There are many reasons that a parallel process can<br>fail during orte_init; some of which are due to configuration or<br>environment problems.  This failure appears to be an internal failure;<br>here's some additional information (which may only be relevant to an<br>Open MPI developer):<br><br>  orte_ess_set_name failed<br>  --> Returned value Data unpack would read past end of buffer (-26) instead of ORTE_SUCCESS<br>--------------------------------------------------------------------------<br>[ubuntu:03237] [[3831,1],0] ORTE_ERROR_LOG: Data unpack would read past end of buffer in file runtime/orte_init.c at line 128<br>----------------------------------------------------
 
 ----------------------<br>It looks like MPI_INIT failed for some reason; your parallel process is<br>likely to abort.  There are many reasons that a parallel process can<br>fail during MPI_INIT; some of which are due to configuration or environment<br>problems.  This failure appears to be an internal failure; here's some<br>additional information (which may only be relevant to an Open MPI<br>developer):<br><br>  ompi_mpi_init: orte_init failed<br>  --> Returned "Data unpack would read past end of buffer" (-26) instead of "Success" (0)<br>--------------------------------------------------------------------------<br>[ubuntu:3237] *** An error occurred in MPI_Init_thread<br>[ubuntu:3237] *** on a NULL communicator<br>[ubuntu:3237] *** Unknown error<br>[ubuntu:3237] *** MPI_ERRORS_ARE_FATAL: your MPI job will now abort<br>--------------------------------------------------------------------------<br>An MPI process is aborting at a time when it cannot guaran
 
 tee that all<br>of its peer processes in the job will be killed properly.  You should<br>double check that everything has shut down cleanly.<br><br>  Reason:     Before MPI_INIT completed<br>  Local host: ubuntu<br>  PID:        3237<br>--------------------------------------------------------------------------<br>[ubuntu:03240] [[3831,1],1] ORTE_ERROR_LOG: Data unpack would read past end of buffer in file util/nidmap.c at line 118<br>[ubuntu:03240] [[3831,1],1] ORTE_ERROR_LOG: Data unpack would read past end of buffer in file ess_env_module.c at line 174<br>[ubuntu:03240] [[3831,1],1] ORTE_ERROR_LOG: Data unpack would read past end of buffer in file runtime/orte_init.c at line 128<br>--------------------------------------------------------------------------<br>mpirun has exited due to process rank 0 with PID 3237 on<br>node ubuntu exiting without calling "finalize". This may<br>have caused other proce
 
 sses in the application to be<br>terminated by signals sent by mpirun (as reported here).<br>--------------------------------------------------------------------------<br>[ubuntu:03236] 1 more process has sent help message help-orte-runtime.txt / orte_init:startup:internal-failure<br>[ubuntu:03236] Set MCA parameter "orte_base_help_aggregate" to 0 to see all help / error messages<br>[ubuntu:03236] 1 more process has sent help message help-orte-runtime / orte_init:startup:internal-failure<br>[ubuntu:03236] 1 more process has sent help message help-mpi-runtime / mpi_init:startup:internal-failure<br>[ubuntu:03236] 1 more process has sent help message help-mpi-errors.txt / mpi_errors_are_fatal unknown handle<br>[ubuntu:03236] 1 more process has sent help message help-mpi-runtime.txt / ompi mpi abort:cannot guarantee all killed<br><br><br>Please help solve this, and many thanks<br><br>Zhenyu<br><span></span>