<p><br>
On Sep 17, 2013 9:39 PM, "Satish Balay" <<a href="mailto:balay@mcs.anl.gov">balay@mcs.anl.gov</a>> wrote:<br>
><br>
> This doesn't make any sense..<br>
><br>
> If the build is hanging - we'd like to know exactly where its hanging.<br>
> [perhaps copy/paste]<br>
><br></p>
<p>It didn't dump any output, either to stdout or Stderr. There was nothing to copy/paste. </p>
<p>> If the run is hanging - we'd like to see the stack trace [via gdb] of the<br>
> location of the hang.<br>
><br>
> xorg-devel should'nt make a difference [from what we know]..<br>
><br><br></p>
<p>Doesn't it need xorg headers for rendering graphic output via petscdraw? </p>
<p>Maybe it was one of the dependencies of xorg devel that did the trick. </p>
<p>I'll try to reproduce the problem and see. <br></p>
<p>> Satish<br>
><br>
> On Tue, 17 Sep 2013, Analabha Roy wrote:<br>
><br>
> > Update again:<br>
> ><br>
> >  On a hunch, I went to a non-graphical tty where compilation worked! So I<br>
> > installed all xorg-devel packages from repository and now compilation seems<br>
> > to be working.<br>
> ><br>
> > Guess it just needed those...<br>
> ><br>
> > Thanks.<br>
> ><br>
> ><br>
> ><br>
> > On Tue, Sep 17, 2013 at 1:24 PM, Analabha Roy <<a href="mailto:hariseldon99@gmail.com">hariseldon99@gmail.com</a>>wrote:<br>
> ><br>
> > > Update: Purging openmpi and reinstalling did not work. "make all" in<br>
> > > $PETSC_DIR still freezes.<br>
> > ><br>
> > ><br>
> > > On Tue, Sep 17, 2013 at 11:17 AM, Analabha Roy <<a href="mailto:hariseldon99@gmail.com">hariseldon99@gmail.com</a>>wrote:<br>
> > ><br>
> > >> Hi,<br>
> > >><br>
> > >> Sorry for the late reply<br>
> > >><br>
> > >><br>
> > >> On Mon, Sep 16, 2013 at 7:03 PM, Matthew Knepley <<a href="mailto:knepley@gmail.com">knepley@gmail.com</a>>wrote:<br>
> > >><br>
> > >>> On Mon, Sep 16, 2013 at 1:18 AM, Analabha Roy <<a href="mailto:hariseldon99@gmail.com">hariseldon99@gmail.com</a>>wrote:<br>
> > >>><br>
> > >>>> Hi,<br>
> > >>>><br>
> > >>>>  I just got a new laptop and installed linux mint KDE. Details below:<br>
> > >>>><br>
> > >>>> samsung NP300E5X-U01IN:<br>
> > >>>> Kernel 3.8.0-26-generic #38-Ubuntu SMP<br>
> > >>>> Four Intel Unknown 800MHz processors, 16760.20 total bogomips, 3733M RAM<br>
> > >>>> System library 2.17.0<br>
> > >>>><br>
> > >>>><br>
> > >>>> I tried to compile petsc-3.4.2 with the following configuration<br>
> > >>>><br>
> > >>>> ./configure --with-scalar-type=complex --with-c2html=0<br>
> > >>>> --with-debugging=no --with-fortran-kernels=1 --with-hdf5=yes<br>
> > >>>> --with-hdf5-dir=/usr --enable-parallel<br>
> > >>>><br>
> > >>>><br>
> > >>>> The configure log is posted here<<a href="https://dl.dropboxusercontent.com/u/2769707/configure.log">https://dl.dropboxusercontent.com/u/2769707/configure.log</a>>(dropbox)<br>
> > >>>><br>
> > >>>> The configure script seems to run okay, but running "make<br>
> > >>>> PETSC_DIR=/usr/local/src/petsc-3.4.2 PETSC_ARCH=arch-linux2-c-opt all" or<br>
> > >>>> "make all" causes the compile to hang with no output.<br>
> > >>>><br>
> > >>><br>
> > >>> This sounds like a CMake problem on your machine. Please try running<br>
> > >>><br>
> > >>>   make all-legacy<br>
> > >>><br>
> > >>> although it seems like your Builder run succeeded.<br>
> > >>><br>
> > >><br>
> > >><br>
> > >> I purged cmake using apt-get and reinstalled it from scratch. The problem<br>
> > >> persists<br>
> > >><br>
> > >> I also ran "make all-legacy". Same problem. No output. Just hangs.<br>
> > >><br>
> > >><br>
> > >><br>
> > >>><br>
> > >>> Downgrading to a previous version of petsc does not seem to help. The<br>
> > >>>> problem persists. Using default options "./configure<br>
> > >>>> --with-scalar-type=complex" doesn;t seem to change anything either.<br>
> > >>>><br>
> > >>>> Running ./config/builder.py works, but then "make test" hangs<br>
> > >>>> similarly, as does running make on any example or any of my petsc sources.<br>
> > >>>><br>
> > >>><br>
> > >>> This is different. It is likely that your MPI is not setup correctly to<br>
> > >>> launch on this machine. Can you<br>
> > >>> run any MPI job?<br>
> > >>><br>
> > >>><br>
> > >> Yes. Both this hello world example<<a href="http://www.dartmouth.edu/~rc/classes/intro_mpi/hello_world_ex.html">http://www.dartmouth.edu/~rc/classes/intro_mpi/hello_world_ex.html</a>>and this calculation<br>

> > >> of pi<<a href="http://www.mcs.anl.gov/research/projects/mpi/usingmpi/examples/simplempi/cpi_c.htm">http://www.mcs.anl.gov/research/projects/mpi/usingmpi/examples/simplempi/cpi_c.htm</a>>compiles without errors and runs as expected.<br>

> > >><br>
> > >><br>
> > >> Should I try purging openmpi and reinstalling?<br>
> > >><br>
> > >><br>
> > >>>    Thanks,<br>
> > >>><br>
> > >>>       Matt<br>
> > >>><br>
> > >>><br>
> > >>>>  Thanks in advance,<br>
> > >>>><br>
> > >>>><br>
> > >>>><br>
> > >>>><br>
> > >>>><br>
> > >>>> --<br>
> > >>>> ---<br>
> > >>>> *Analabha Roy*<br>
> > >>>> C.S.I.R <<a href="http://www.csir.res.in">http://www.csir.res.in</a>>  Senior Research Associate<<a href="http://csirhrdg.res.in/poolsra.htm">http://csirhrdg.res.in/poolsra.htm</a>><br>

> > >>>> Saha Institute of Nuclear Physics <<a href="http://www.saha.ac.in">http://www.saha.ac.in</a>><br>
> > >>>> Section 1, Block AF<br>
> > >>>> Bidhannagar, Calcutta 700064<br>
> > >>>> India<br>
> > >>>> *Emails*: <a href="mailto:daneel@physics.utexas.edu">daneel@physics.utexas.edu</a>, <a href="mailto:hariseldon99@gmail.com">hariseldon99@gmail.com</a><br>
> > >>>> *Webpage*: <a href="http://www.ph.utexas.edu/~daneel/">http://www.ph.utexas.edu/~daneel/</a><br>
> > >>>><br>
> > >>><br>
> > >>><br>
> > >>><br>
> > >>> --<br>
> > >>> What most experimenters take for granted before they begin their<br>
> > >>> experiments is infinitely more interesting than any results to which their<br>
> > >>> experiments lead.<br>
> > >>> -- Norbert Wiener<br>
> > >>><br>
> > >><br>
> > >><br>
> > >><br>
> > >> --<br>
> > >> ---<br>
> > >> *Analabha Roy*<br>
> > >> C.S.I.R <<a href="http://www.csir.res.in">http://www.csir.res.in</a>>  Senior Research Associate<<a href="http://csirhrdg.res.in/poolsra.htm">http://csirhrdg.res.in/poolsra.htm</a>><br>
> > >> Saha Institute of Nuclear Physics <<a href="http://www.saha.ac.in">http://www.saha.ac.in</a>><br>
> > >> Section 1, Block AF<br>
> > >> Bidhannagar, Calcutta 700064<br>
> > >> India<br>
> > >> *Emails*: <a href="mailto:daneel@physics.utexas.edu">daneel@physics.utexas.edu</a>, <a href="mailto:hariseldon99@gmail.com">hariseldon99@gmail.com</a><br>
> > >> *Webpage*: <a href="http://www.ph.utexas.edu/~daneel/">http://www.ph.utexas.edu/~daneel/</a><br>
> > >><br>
> > ><br>
> > ><br>
> > ><br>
> > > --<br>
> > > ---<br>
> > > *Analabha Roy*<br>
> > > C.S.I.R <<a href="http://www.csir.res.in">http://www.csir.res.in</a>>  Senior Research Associate<<a href="http://csirhrdg.res.in/poolsra.htm">http://csirhrdg.res.in/poolsra.htm</a>><br>
> > > Saha Institute of Nuclear Physics <<a href="http://www.saha.ac.in">http://www.saha.ac.in</a>><br>
> > > Section 1, Block AF<br>
> > > Bidhannagar, Calcutta 700064<br>
> > > India<br>
> > > *Emails*: <a href="mailto:daneel@physics.utexas.edu">daneel@physics.utexas.edu</a>, <a href="mailto:hariseldon99@gmail.com">hariseldon99@gmail.com</a><br>
> > > *Webpage*: <a href="http://www.ph.utexas.edu/~daneel/">http://www.ph.utexas.edu/~daneel/</a><br>
> > ><br>
> ><br>
> ><br>
> ><br>
> ><br>
><br>
</p>