<div dir="ltr">Thank you very much for your reply, Barry.<div><br></div><div>The block matrix size is 1.35 million by 1.35 million, and the matrix can be divided into 45 blocks along each direction, so there are 45X45=2025 blocks in the matrix (size of each block is 30,000 by 30,000) . Fortunately there are only around 700 non-zeros blocks which are also sparse. <font color="#0000ff">Correspondingly, the unknown vector and right-hand-side vector (both with size 1.35million by 1) can also be divided into 45 block vectors.</font></div><div><br></div><div> Most of the blocks are similar, assume I have a block <b>A</b>, there are dozens of blocks similar to<b> A</b> by a scalar multiplication (<b>2A</b>, <b>3A</b> ...). Finally, I only need to save 45 different blocks and a few scalars for this matrix to save memory usage(the reason why 45 different blocks comes from physical concept).</div><div><br></div><div><img src="cid:ii_iy66r6kz0_159bd4d98d5b82be" style="margin-right: 0px;" width="636" height="477"></div><div><br></div><div>Is this clear to explain my problem? </div><div><br></div><div>Thank you very much!</div><div><br></div><div>Best regards, </div><div><br></div><div>Fangbo<br>​<br></div><div><br></div><div><br></div><div><br></div><div><br></div><div><br></div></div><div class="gmail_extra"><br><div class="gmail_quote">On Thu, Jan 19, 2017 at 6:19 PM, Barry Smith <span dir="ltr"><<a href="mailto:bsmith@mcs.anl.gov" target="_blank">bsmith@mcs.anl.gov</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><span class=""><br>
> On Jan 19, 2017, at 4:10 PM, Fangbo Wang <<a href="mailto:fangbowa@buffalo.edu">fangbowa@buffalo.edu</a>> wrote:<br>
><br>
> Hi,<br>
><br>
> Background:<br>
><br>
> I am using stochastic finite element to solve a solid mechanics problem with random material properties. At the end of the day, I get a linear system of equations Ax=b to solve.<br>
><br>
> The matrix A is very large with size of 1.3million by 1.3 million, and to save this matrix needs more than 100 G memory. Fortunately, matrix A has some nice features that it is a block matrix, most of the blocks inside the matrix are similar, each block is 10,000 by 10,000.<br>
><br>
><br>
> Hence, I only need to save some  blocks (in my case 45). Most of the computation  in my iterative solver is matrix-vec multiplication, that's why I want to do it using block matrices.<br>
</span>> <FIG-2-Color-online-A-<wbr>symmetric-block-Toeplitz-<wbr>matrix-Each-block-is-also-a-<wbr>symmetric.png><br>
<span class="">><br>
><br>
> ​<br>
><br>
> Current:<br>
> I tried to parallelize all my 45 block matrices in all the processors, and all the corresponding 45 block vectors in all the processors. However, the computation seems to be very slow, and no scalability at all.<br>
> I am thinking of using small groups of processors to separate the computation, like using intra-communicators and inter-communicators. Maybe this will help to reduce the communication.<br>
<br>
</span>   No, just make things excessively complex.<br>
<span class=""><br>
><br>
> Any one have some experiences on this? Is there any Petsc function to do these jobs? I am open to any suggestions.<br>
<br>
</span>   Based on your picture it looks like if the matrix was explicitly formed it would be dense? Or are your 45 "small matrices" sparse? Are there any "empty" block matrices in your diagram or are they all one of the 45 small ones?<br>
<br>
   There are two ways to order your unknowns; one with all unknowns for one "block" then all unknowns for the next block ... or interlacing the unknowns between blocks. Depending on the structure of the problem one or the other way can be significently better.<br>
<br>
   The MatNest construct may be the way to go; it will behave like forming the full matrix but for each block in the matrix you would just have a pointer to the correct small matrix so you don't store the individual matrices more than once.<br>
<br>
   Also if you get no speed up you need to verify that it is not due to the hardware or badly configured software so run the streams benchmark and make sure you have a good MPI binding <a href="http://www.mcs.anl.gov/petsc/documentation/faq.html#computers" rel="noreferrer" target="_blank">http://www.mcs.anl.gov/petsc/<wbr>documentation/faq.html#<wbr>computers</a><br>
<span class="HOEnZb"><font color="#888888"><br>
<br>
<br>
<br>
  Barry<br>
</font></span><div class="HOEnZb"><div class="h5"><br>
><br>
> Thank you very much!<br>
><br>
><br>
><br>
> Fangbo Wang<br>
><br>
> --<br>
> Fangbo Wang, PhD student<br>
> Stochastic Geomechanics Research Group<br>
> Department of Civil, Structural and Environmental Engineering<br>
> University at Buffalo<br>
> Email: <a href="mailto:fangbowa@buffalo.edu">fangbowa@buffalo.edu</a><br>
<br>
</div></div></blockquote></div><br><br clear="all"><div><br></div>-- <br><div class="gmail_signature" data-smartmail="gmail_signature"><div dir="ltr"><div><div dir="ltr"><div><font size="1" color="#9900ff">Fangbo Wang, PhD student</font></div><div><font size="1" color="#9900ff">Stochastic Geomechanics Research Group</font></div><div><span style="color:rgb(153,0,255);font-size:x-small">Department of Civil, Structural and Environmental Engineering</span></div><div><font size="1" color="#9900ff">University at Buffalo</font></div><div><font size="1" color="#9900ff">Email: <u><a href="mailto:fangbowa@buffalo.edu" target="_blank">fangbowa@buffalo.edu</a></u></font></div></div></div></div></div>
</div>