<div dir="ltr"><font face="verdana,sans-serif">Dear Nilima Natoo,<br></font><div><div><font class="Apple-style-span" face="verdana, sans-serif"><br></font></div><div><font class="Apple-style-span" face="verdana, sans-serif">     Where is the location of oceanM file? Can you try the command &quot;which oceanM&quot; if not there. Go to oceanM file folder and where is the input file? Copy the input file to oceanM file folder then y</font>ou can try to run your parallel program --&gt; mpirun -np 4 ./oceanM <a href="http://coupling_inlet_test.in">coupling_inlet_test.in</a></div>

<div><div class="gmail_quote"><br></div><div class="gmail_quote">Hope this explains.</div><div class="gmail_quote"><br></div><div class="gmail_quote">Regards,</div><div class="gmail_quote">Ashok Vignesh K</div><div class="gmail_quote">

<br></div><div class="gmail_quote"><br></div><div class="gmail_quote">On 19 August 2011 20:41, nilima natoo <span dir="ltr">&lt;<a href="mailto:nilima.2002@gmail.com">nilima.2002@gmail.com</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex;">

Dear friends,<br><br>I have following errors, and these seem to be related with MPI libraries. I use MPICH2-version 1.4. I am trying to run a test case where ROMS and SWAN models need to be coupled using MCT.<br><br>[nma@k6 inlet_test]$ mpirun -np 4 oceanM <a href="http://coupling_inlet_test.in" target="_blank">coupling_inlet_test.in</a><br>


<br>[proxy:0:0@k6] HYDU_create_process (./utils/launch/launch.c:69): execvp error on file oceanM (No such file or directory)<br><br>[proxy:0:0@k6] HYDU_create_process (./utils/launch/launch.c:69): execvp error on file oceanM (No such file or directory)<br>


<br>[proxy:0:0@k6] HYDU_create_process (./utils/launch/launch.c:69): execvp error on file oceanM (No such file or directory)<br><br>[proxy:0:0@k6] HYDU_create_process (./utils/launch/launch.c:69): execvp error on file oceanM (No such file or directory)<br>


<br><br>kindly advice if I am making basic mistakes in using MPI...<br><br>thanks and regards, nma<br>
<br>_______________________________________________<br>
mpich-discuss mailing list<br>
<a href="mailto:mpich-discuss@mcs.anl.gov">mpich-discuss@mcs.anl.gov</a><br>
<a href="https://lists.mcs.anl.gov/mailman/listinfo/mpich-discuss" target="_blank">https://lists.mcs.anl.gov/mailman/listinfo/mpich-discuss</a><br>
<br></blockquote></div><br></div></div></div>