<div>Hi,</div>
<div> </div>
<div>First of all, thank you for this library.</div>
<div>View years ago, we had mixed our (f77) finite volume code with petsc, and obtained some very interested results (faster calculations, multi-processor issues, ..), with a 4 linux-PC cluster and a myrinet switch, and petsc-2.1.3</div>

<div>Regarding the new PC architecture (multi-threading), the same mixed code apparently is calculating slower each time we increase the number of processors used (processor or core, I&#39;m not sure to use the right word). We thought that time that we should upgrade our petsc library (with petsc-3.1-p8) to have benefit of the multi-threading architecture. So do we, changing a little bit some stuff (merrely &quot;include&quot; names). We compiled it with mpif77. The fortran-samples of petsc are working just fine. But our code doesn&#39;t work. We have tried a lot of different options and tried for view weeks to figure out what is happening, nothing. </div>

<div>I really would like some help in that matter because I don&#39;t see where is the problem. I&#39;m wondering if you could, reading the out.log, tell me where I should investigate the problem ? (kind of ? out of array definition or other ? ) I really don&#39;t see and if you could please help me, I would really appreciate it !!</div>

<div>I put the out.log in this email</div>
<div> </div>
<div>Many Thanks.</div>
<div>Best Regards.</div>
<div>John</div>