What the error? It always shows the error when it cannot pop up the window.<br>
Sounds like a problem with some batch environment being different from the<br>
interactive node. Computer centers are the worst run thing in the world.<br>
<br>
&nbsp; Matt<br><br><div><span class="gmail_quote">On 5/27/06, <b class="gmail_sendername">Randall Mackie</b> &lt;<a href="mailto:randy@geosystem.us">randy@geosystem.us</a>&gt; wrote:</span><blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;">
I can't seem to get the debugger to pop up on my screen.<br><br>When I'm logged into the cluster I'm working on, I can<br>type xterm &amp;, and an xterm pops up on my display. So I know<br>I can get something from the remote cluster.
<br><br>Now, when I try this using PETSc, I'm getting the following error<br>message, for example:<br><br>------------------------------------------------------------------------<br>[17]PETSC ERROR: PETSC: Attaching gdb to /home/randy/d3inv/PETSC_V3.3/d3inv_3_3_petsc of pid 3628 on display 
<a href="http://24.5.142.138:0">24.5.142.138:0</a>.0 on<br>machine compute-0-23.local<br>------------------------------------------------------------------------<br><br>I'm using this in my command file:<br><br>source ~/.bashrc
<br>time /opt/mpich/intel/bin/mpirun -np 20 -nolocal -machinefile machines \<br>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;/home/randy/d3inv/PETSC_V3.3/d3inv_3_3_petsc \<br>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;-start_in_debugger \<br>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;-debugger_node 1 \<br>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;-display 
<a href="http://24.5.142.138:0">24.5.142.138:0</a>.0 \<br>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;-em_ksp_type bcgs \<br>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;-em_sub_pc_type ilu \<br>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;-em_sub_pc_factor_levels 8 \<br>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;-em_sub_pc_factor_fill 4 \<br>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;-em_sub_pc_factor_reuse_ordering \
<br>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;-em_sub_pc_factor_reuse_fill \<br>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;-em_sub_pc_factor_mat_ordering_type rcm \<br>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;-divh_ksp_type cr \<br>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;-divh_sub_pc_type icc \<br>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;-ppc_sub_pc_type ilu \<br>&lt;&lt; EOF
<br>...<br><br><br>Randy<br><br><br>Matthew Knepley wrote:<br>&gt; 1) Make sure ssh is forwarding X (-Y I think)<br>&gt;<br>&gt; 2) -start_in_debugger<br>&gt;<br>&gt; 3) -display &lt;your machine&gt;:0.0<br>&gt;<br>&gt; should do it.
<br>&gt;<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp;Matt<br>&gt;<br>&gt; On 5/27/06, *Randall Mackie* &lt;<a href="mailto:randy@geosystem.us">randy@geosystem.us</a><br>&gt; &lt;mailto:<a href="mailto:randy@geosystem.us">randy@geosystem.us</a>&gt;&gt; wrote:
<br>&gt;<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp; This is a stupid question, but how do I start in the debugger if I'm<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp; running<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp; on a cluster half-way around the world and I'm working on that cluster<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp; via ssh?<br>&gt;
<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp; Randy<br>&gt;<br>&gt;<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp; Matthew Knepley wrote:<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&gt; The best thing to do here is get a stack trace from the debugger.<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp; From the<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&gt; description, it is hard to tell what statement is trying to
<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp; access which<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&gt; illegal<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&gt; memory.<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&gt;<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&gt;&nbsp;&nbsp;&nbsp;&nbsp;Matt<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&gt;<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&gt; On 5/27/06, *Randall Mackie* &lt; <a href="mailto:randy@geosystem.us">
randy@geosystem.us</a><br>&gt;&nbsp;&nbsp;&nbsp;&nbsp; &lt;mailto:<a href="mailto:randy@geosystem.us">randy@geosystem.us</a>&gt;<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&gt; &lt;mailto:<a href="mailto:randy@geosystem.us">randy@geosystem.us</a> &lt;mailto:<a href="mailto:randy@geosystem.us">
randy@geosystem.us</a>&gt;&gt;&gt; wrote:<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&gt;<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&gt;&nbsp;&nbsp;&nbsp;&nbsp; In my PETSc based modeling code, I write out intermediate<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp; results to<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&gt;&nbsp;&nbsp;&nbsp;&nbsp; a scratch<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&gt;&nbsp;&nbsp;&nbsp;&nbsp;
file, and then read them back later. This has worked fine up<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp; until<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&gt;&nbsp;&nbsp;&nbsp;&nbsp; today,<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&gt;&nbsp;&nbsp;&nbsp;&nbsp; when for a large model, this seems to be causing my program<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp; to crash<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&gt;&nbsp;&nbsp;&nbsp;&nbsp; with
<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&gt;&nbsp;&nbsp;&nbsp;&nbsp; errors like:<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&gt;<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&gt;<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp; ------------------------------------------------------------------------<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&gt;&nbsp;&nbsp;&nbsp;&nbsp; [9]PETSC ERROR: Caught signal number 11 SEGV: Segmentation
<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&gt;&nbsp;&nbsp;&nbsp;&nbsp; Violation, probably memory access out of range<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&gt;<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&gt;<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&gt;&nbsp;&nbsp;&nbsp;&nbsp; I've tracked down the offending code to:<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&gt;<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;IF
(rank == 0) THEN<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;irec=(iper-1)*2+ipol<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;write(7,rec=irec)
(xvec(i),i=1,np)<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;END
IF<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&gt;<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&gt;&nbsp;&nbsp;&nbsp;&nbsp;
It writes out xvec for the first record, but then on the second<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&gt;&nbsp;&nbsp;&nbsp;&nbsp; record my program is crashing.<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&gt;<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&gt;&nbsp;&nbsp;&nbsp;&nbsp;
The record length (from an inquire statement) is&nbsp;&nbsp;recl<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp; 22626552<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&gt;<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&gt;&nbsp;&nbsp;&nbsp;&nbsp;
The size of the scratch file when my program crashes is 98M.<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&gt;<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&gt;&nbsp;&nbsp;&nbsp;&nbsp;
PETSc is compiled using the intel compilers ( v9.0 for fortran),<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&gt;&nbsp;&nbsp;&nbsp;&nbsp;
and the users manual says that you can have record lengths of<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&gt;&nbsp;&nbsp;&nbsp;&nbsp; up to 2 billion bytes.<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&gt;<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&gt;&nbsp;&nbsp;&nbsp;&nbsp; I'm kind of stuck as to what might be the cause. Any ideas<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp; from anyone
<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&gt;&nbsp;&nbsp;&nbsp;&nbsp; would be greatly appreciated.<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&gt;<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&gt;&nbsp;&nbsp;&nbsp;&nbsp; Randy Mackie<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&gt;<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&gt;&nbsp;&nbsp;&nbsp;&nbsp; ps. I've tried both the optimized and debugging versions of<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp; the PETSc
<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&gt;&nbsp;&nbsp;&nbsp;&nbsp; libraries, with the same result.<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&gt;<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&gt;<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&gt;&nbsp;&nbsp;&nbsp;&nbsp; --<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&gt;&nbsp;&nbsp;&nbsp;&nbsp; Randall Mackie<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&gt;&nbsp;&nbsp;&nbsp;&nbsp; GSY-USA, Inc.<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&gt;&nbsp;&nbsp;&nbsp;&nbsp; PMB# 643<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&gt;&nbsp;&nbsp;&nbsp;&nbsp; 2261 Market St.,<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&gt;&nbsp;&nbsp;&nbsp;&nbsp; San Francisco, CA 94114-1600<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&gt;&nbsp;&nbsp;&nbsp;&nbsp; Tel (415) 469-8649<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&gt;&nbsp;&nbsp;&nbsp;&nbsp; Fax (415) 469-5044<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&gt;<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&gt;&nbsp;&nbsp;&nbsp;&nbsp; California Registered Geophysicist
<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&gt;&nbsp;&nbsp;&nbsp;&nbsp; License No. GP 1034<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&gt;<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&gt;<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&gt;<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&gt;<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&gt; --<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&gt; &quot;Failure has a thousand explanations. Success doesn't need one&quot;
<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp; -- Sir<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&gt; Alec Guiness<br>&gt;<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp; --<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp; Randall Mackie<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp; GSY-USA, Inc.<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp; PMB# 643<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp; 2261 Market St.,<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp; San Francisco, CA 94114-1600<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp; Tel (415) 469-8649<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp; Fax (415) 469-5044<br>&gt;<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp; California Registered Geophysicist<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp; License No. GP 1034<br>&gt;<br>&gt;<br>&gt;<br>&gt;<br>&gt; --<br>&gt; &quot;Failure has a thousand explanations. Success doesn't need one&quot; -- Sir
<br>&gt; Alec Guiness<br><br>--<br>Randall Mackie<br>GSY-USA, Inc.<br>PMB# 643<br>2261 Market St.,<br>San Francisco, CA 94114-1600<br>Tel (415) 469-8649<br>Fax (415) 469-5044<br><br>California Registered Geophysicist<br>License No. GP 1034
<br><br></blockquote></div><br><br clear="all"><br>-- <br>&quot;Failure has a thousand explanations. Success doesn't need one&quot; -- Sir Alec Guiness