<div dir="ltr"><div dir="ltr"><br></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Wed, Sep 25, 2019 at 12:44 PM Balay, Satish <<a href="mailto:balay@mcs.anl.gov">balay@mcs.anl.gov</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">Can you retry with updated balay/fix-mpiexec-shell-escape branch?<br>
<br>
<br>
current mpiexec interface/code in petsc is messy.<br>
<br>
Its primarily needed for the test suite. But then - you can't easily<br>
run the test suite on machines like summit.<br>
<br>
Also - it assumes mpiexec provided supports '-n 1'. However if one<br>
provides non-standard mpiexec such as --with-mpiexec="jsrun -g 1" -<br>
what is the appropriate thing here?<br></blockquote><div><br></div><div>jsrun does take -n. It just has other args. I am trying to check if it requires other args. I thought it did but let me check.</div><div> </div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">
<br>
And then configure needs to run some binaries for some checks - here<br>
perhaps '-n 1' doesn't matter. [MPICH defaults to 1, OpenMPI defaults<br>
to ncore]. So perhaps mpiexec is required for this purpose on summit?<br>
<br>
And then there is this code to escape spaces in path - for<br>
windows. [but we have to make sure this is not in code-path for user<br>
specified --with-mpiexec="jsrun -g 1"<br>
<br>
Satish<br>
<br>
On Wed, 25 Sep 2019, Mark Adams via petsc-dev wrote:<br>
<br>
> No luck,<br>
> <br>
> On Wed, Sep 25, 2019 at 10:01 AM Balay, Satish <<a href="mailto:balay@mcs.anl.gov" target="_blank">balay@mcs.anl.gov</a>> wrote:<br>
> <br>
> > Mark,<br>
> ><br>
> > Can you try the fix in branch balay/fix-mpiexec-shell-escape and see if it<br>
> > works?<br>
> ><br>
> > Satish<br>
> ><br>
> > On Wed, 25 Sep 2019, Balay, Satish via petsc-dev wrote:<br>
> ><br>
> > > Mark,<br>
> > ><br>
> > > Can you send configure.log from mark/fix-cuda-with-gamg-pintocpu branch?<br>
> > ><br>
> > > Satish<br>
> > ><br>
> > > On Wed, 25 Sep 2019, Mark Adams via petsc-dev wrote:<br>
> > ><br>
> > > > I double checked that a clean build of your (master) branch has this<br>
> > error<br>
> > > > by my branch (mark/fix-cuda-with-gamg-pintocpu), which may include<br>
> > stuff<br>
> > > > from Barry that is not yet in master, works.<br>
> > > ><br>
> > > > On Wed, Sep 25, 2019 at 5:26 AM Karl Rupp via petsc-dev <<br>
> > > > <a href="mailto:petsc-dev@mcs.anl.gov" target="_blank">petsc-dev@mcs.anl.gov</a>> wrote:<br>
> > > ><br>
> > > > ><br>
> > > > ><br>
> > > > > On 9/25/19 11:12 AM, Mark Adams via petsc-dev wrote:<br>
> > > > > > I am using karlrupp/fix-cuda-streams, merged with master, and I<br>
> > get this<br>
> > > > > > error:<br>
> > > > > ><br>
> > > > > > Could not execute "['jsrun -g\\ 1 -c\\ 1 -a\\ 1 --oversubscribe -n<br>
> > 1<br>
> > > > > > printenv']":<br>
> > > > > > Error, invalid argument:  1<br>
> > > > > ><br>
> > > > > > My branch mark/fix-cuda-with-gamg-pintocpu seems to work but I did<br>
> > edit<br>
> > > > > > the jsrun command but Karl's branch still fails. (SUMMIT was down<br>
> > today<br>
> > > > > > so there could have been updates).<br>
> > > > > ><br>
> > > > > > Any suggestions?<br>
> > > > ><br>
> > > > > Looks very much like a systems issue to me.<br>
> > > > ><br>
> > > > > Best regards,<br>
> > > > > Karli<br>
> > > > ><br>
> > > ><br>
> > ><br>
> ><br>
> ><br>
> <br>
<br>
</blockquote></div></div>