Dear Barry,<div>    I guess the best is to probe directly the GPUs instaled on the system using the NVIDIA CLI tool called nvidia-smi. Command line options "-a" or "-q" report the model. The problem will be parse the information in the sdtout. Maybe we can ping NVIDIA to improve the output to be more "machine-readable". It changes if drivers change. It can be very annoying (I am speaking for direct experience)....</div>

<div><br></div><div>Regards</div><div><br></div><div>--<br>Filippo SPIGA, MSc Computer Science<br><div>~ homepage: <a href="http://tinyurl.com/fspiga" target="_blank">http://tinyurl.com/fspiga</a> ~<br> <br>«Nobody will drive us out of Cantor's paradise.»<br>

    -- David Hilbert</div>
<br><br><div class="gmail_quote">On Tue, Jan 11, 2011 at 11:44 PM, Barry Smith <span dir="ltr"><<a href="mailto:bsmith@mcs.anl.gov">bsmith@mcs.anl.gov</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex;">

<div class="im"><br>
On Jan 11, 2011, at 4:55 PM, Lisandro Dalcin wrote:<br>
<br>
> I think the two lines below (config/PETSc/packages/cuda.py ) are wrong:<br>
><br>
>      if self.scalartypes.precision == 'double':<br>
>        self.setCompilers.addCompilerFlag('-arch sm_13')<br>
><br>
> What if your GPU is sm_20?<br>
<br>
</div>   This is a hack to get things to work. We've love for you to tell us the correct solution. Should it try to set the arch to the highest one supported by the system? (If so how do we find out the highest)?<br>


<br>
  Thanks<br>
<font color="#888888"><br>
   Barry<br>
</font><div><div></div><div class="h5"><br>
<br>
><br>
> --<br>
> Lisandro Dalcin<br>
> ---------------<br>
> CIMEC (INTEC/CONICET-UNL)<br>
> Predio CONICET-Santa Fe<br>
> Colectora RN 168 Km 472, Paraje El Pozo<br>
> Tel: +54-342-4511594 (ext 1011)<br>
> Tel/Fax: +54-342-4511169<br>
<br>
</div></div></blockquote></div><br></div>