<div dir="ltr"><div class="gmail_extra"><br><div class="gmail_quote">On Fri, May 15, 2015 at 3:18 PM, Jose E. Roman <span dir="ltr"><<a href="mailto:jroman@dsic.upv.es" target="_blank">jroman@dsic.upv.es</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left-width:1px;border-left-color:rgb(204,204,204);border-left-style:solid;padding-left:1ex"><span class=""><br>
El 15/05/2015, a las 15:00, Vijay Gopal Chilkuri escribió:<br>
<br>
> Yes, those seem to be the right eigenvalues.<br>
> Ok so the solution is to recompile PETSc/SLEPc with a basic configuration and test with --with-debugging=1<br>
<br>
</span>Yes, it is always good to work --with-debugging=1 until you know your code is working correctly. But anyway, I did the computation --with-debugging=0, with gnu compilers. It is more important to avoid multiple threads, for the moment, both in the LAPACK linked with SLEPc (avoid MKL), and the code that generates the matrix (just in case there was a problem in computing the coefficients). <br></blockquote><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left-width:1px;border-left-color:rgb(204,204,204);border-left-style:solid;padding-left:1ex"><span class="">
><br>
> Would it make a difference if I use -esp_type lanczos or some other diagonalization procedure ?<br>
<br>
</span>Do not use lanczos, it is just a worse algorithm than the default solver (explicit vs implicit restart).<br>
<br>
In principle, methods of the CG type are appropriate for your problem, but convergence may be too slow. You can try RQCG with icc preconditioner. I am currently implementing LOBPCG in the development version - I will try with your matrices.<br>
<span class=""><font color="#888888"><br></font></span></blockquote><div><br></div><div>Yes ! that would be great ! </div><div><br></div><div>At the moment, I'm having a lot of trouble with the assembly time for large matrices, although the actual diagonalization with <br></div><div>Krylov-Schur takes considerable time too. </div><div><div>Please let me know if you could improve the matrix assembly performance for large matrices.</div></div><div><br></div><div>Although I have to say that the implicit restart in Krylov-Schur seems to be working great for my type of matrices.</div><div>Please keep in touch if you find something interesting.</div><div><br></div><div>Thanks again,</div><div> Vijay </div><div><br></div><div><br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left-width:1px;border-left-color:rgb(204,204,204);border-left-style:solid;padding-left:1ex"><span class=""><font color="#888888">
Jose<br>
</font></span><div class=""><div class="h5"><br>
<br>
><br>
> I'll run the test with a new version of PETSc/SLEPc and report back.<br>
><br>
> Thanks a  lot,<br>
>  Vijay<br>
><br>
> On Fri, May 15, 2015 at 2:55 PM, Jose E. Roman <<a href="mailto:jroman@dsic.upv.es">jroman@dsic.upv.es</a>> wrote:<br>
><br>
> El 14/05/2015, a las 19:13, Vijay Gopal Chilkuri escribió:<br>
><br>
> > oups sorry, I send you a smaller one (540540) this should finish in a few minutes.<br>
> ><br>
> > It requires the same makefile and irpf90.a library.<br>
> > so just replace the old problem.c file with this and it should compile.<br>
> ><br>
> > Thanks again,<br>
> >  Vijay<br>
> ><br>
><br>
> I was able to compute 300 eigenvalues of this matrix of size 540540. All eigenvalues are in the range -4.70811 .. -4.613807, and the associated residual is always below 1e-9.<br>
><br>
> There must be something in your software configuration that is causing problems. I would suggest trying with a basic PETSc/SLEPc configuration, with no openmp flags, using --download-fblaslapack (instead of MKL). Also, although it should not make any difference, you may want to try with a smaller number of MPI processes (rather than 741).<br>
><br>
> Jose<br>
><br>
><br>
<br>
</div></div></blockquote></div><br></div></div>