<div dir="ltr">Barry wanted to do sth about Plapack. He found some bugs. I don&#39;t know details. Of course, if I find some bugs in Petsc, I will report it. I benefit a lot from it. thank you for your work in Petsc :).<br>
<br>Regards,<br>Yujie<br><br><div class="gmail_quote">On Mon, Sep 22, 2008 at 7:29 PM, Matthew Knepley <span dir="ltr">&lt;<a href="mailto:knepley@gmail.com">knepley@gmail.com</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;">
<div class="Ih2E3d">On Mon, Sep 22, 2008 at 9:43 PM, Lisandro Dalcin &lt;<a href="mailto:dalcinl@gmail.com">dalcinl@gmail.com</a>&gt; wrote:<br>
&gt; On Mon, Sep 22, 2008 at 11:03 PM, Yujie &lt;<a href="mailto:recrusader@gmail.com">recrusader@gmail.com</a>&gt; wrote:<br>
&gt;&gt; Dear Lisandro:<br>
&gt;&gt;<br>
&gt;&gt; Barry has tried to establish an interface for Plapack. However, there are<br>
&gt;&gt; some bugs in Plapack. Therefore, it doesn&#39;t work.<br>
&gt;<br>
&gt; Sorry, I didn&#39;t know about those Plapack issues.<br>
<br>
</div>Neither did I, and seeing as how I use it, this is interesting. Please<br>
please please<br>
report any bugs you find, because I have been using it without problems.<br>
<br>
 &nbsp; Matt<br>
<div><div></div><div class="Wj3C7c"><br>
&gt;&gt; I am wondering if CG in<br>
&gt;&gt; Petsc can work with parallel dense matrix.<br>
&gt;<br>
&gt; Of course it works. In fact, any other KSP should work. As Barry said,<br>
&gt; The KSP methods are INDEPENDENT of the matrix format, try -pc_type<br>
&gt; jacobi as preconditioner.<br>
&gt;<br>
&gt;&gt; When using the same matrix, which<br>
&gt;&gt; one is faster, sequential or parallel? thanks.<br>
&gt;<br>
&gt; For a fixed-size matrix, you should get really good speedups iterating<br>
&gt; in parallel. Of course, that would be even better if you can generate<br>
&gt; the local rows of the matrix in each processor. If not, communicating<br>
&gt; the matrix row from the &#39;master&#39; to the &#39;slaves&#39; could be a real<br>
&gt; bootleneck (large data to compute at the master while slaves waiting,<br>
&gt; large data to scatter from master to slaves), If you cannot avoid<br>
&gt; dense matrices, then you should try hard to compute the local rows at<br>
&gt; the owning processor.<br>
&gt;<br>
&gt;<br>
&gt;&gt;<br>
&gt;&gt; On Mon, Sep 22, 2008 at 6:51 PM, Lisandro Dalcin &lt;<a href="mailto:dalcinl@gmail.com">dalcinl@gmail.com</a>&gt; wrote:<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; Well, any iterative solver will actually work, but expect a really<br>
&gt;&gt;&gt; poor scalability :-). I believe (never used dense matrices) that you<br>
&gt;&gt;&gt; could use a direct method (PLAPACK?), but again, be prepared for long<br>
&gt;&gt;&gt; running times if your problem is (even moderately) large.<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; On Mon, Sep 22, 2008 at 10:35 PM, Yujie &lt;<a href="mailto:recrusader@gmail.com">recrusader@gmail.com</a>&gt; wrote:<br>
&gt;&gt;&gt; &gt; To my knowledge, PETsc doesn&#39;t provide parallel dense matrix-based<br>
&gt;&gt;&gt; &gt; solvers,<br>
&gt;&gt;&gt; &gt; such as for CG, GMRES and so on. If it is, how to deal with this<br>
&gt;&gt;&gt; &gt; problem?<br>
&gt;&gt;&gt; &gt; Thanks.<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt; Regards,<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt; Yujie<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; --<br>
&gt;&gt;&gt; Lisandro Dalcín<br>
&gt;&gt;&gt; ---------------<br>
&gt;&gt;&gt; Centro Internacional de Métodos Computacionales en Ingeniería (CIMEC)<br>
&gt;&gt;&gt; Instituto de Desarrollo Tecnológico para la Industria Química (INTEC)<br>
&gt;&gt;&gt; Consejo Nacional de Investigaciones Científicas y Técnicas (CONICET)<br>
&gt;&gt;&gt; PTLC - Güemes 3450, (3000) Santa Fe, Argentina<br>
&gt;&gt;&gt; Tel/Fax: +54-(0)342-451.1594<br>
&gt;&gt;&gt;<br>
&gt;&gt;<br>
&gt;&gt;<br>
&gt;<br>
&gt;<br>
&gt;<br>
&gt; --<br>
&gt; Lisandro Dalcín<br>
&gt; ---------------<br>
&gt; Centro Internacional de Métodos Computacionales en Ingeniería (CIMEC)<br>
&gt; Instituto de Desarrollo Tecnológico para la Industria Química (INTEC)<br>
&gt; Consejo Nacional de Investigaciones Científicas y Técnicas (CONICET)<br>
&gt; PTLC - Güemes 3450, (3000) Santa Fe, Argentina<br>
&gt; Tel/Fax: +54-(0)342-451.1594<br>
&gt;<br>
&gt;<br>
<br>
<br>
<br>
</div></div><font color="#888888">--<br>
What most experimenters take for granted before they begin their<br>
experiments is infinitely more interesting than any results to which<br>
their experiments lead.<br>
-- Norbert Wiener<br>
<br>
</font></blockquote></div><br></div>