<html><head><style type="text/css"><!-- DIV {margin:0px;} --></style></head><body><div style="font-family:times new roman, new york, times, serif;font-size:12pt"><DIV>pavan,</DIV>
<DIV>sorry I can't send code and tests.&nbsp; I don't own any of those tests, they all came</DIV>
<DIV>from my customers.&nbsp;&nbsp; My company prohibit the distribution of my customer's </DIV>
<DIV>IP.&nbsp; My applicaiton is still in the stealth mode, the base code is highly guarded.</DIV>
<DIV>&nbsp;</DIV>
<DIV>If you happen to come by the San Jose area, I can show you the code, and have</DIV>
<DIV>you run our tests in my office.</DIV>
<DIV>&nbsp;</DIV>
<DIV>&nbsp;</DIV>
<DIV>&nbsp;</DIV>
<DIV>tan</DIV>
<DIV>&nbsp;</DIV>
<DIV style="FONT-FAMILY: times new roman, new york, times, serif; FONT-SIZE: 12pt"><BR>
<DIV style="FONT-FAMILY: arial, helvetica, sans-serif; FONT-SIZE: 13px"><FONT size=2 face=Tahoma>
<HR SIZE=1>
<B><SPAN style="FONT-WEIGHT: bold">From:</SPAN></B> Pavan Balaji &lt;balaji@mcs.anl.gov&gt;<BR><B><SPAN style="FONT-WEIGHT: bold">To:</SPAN></B> mpich-discuss@mcs.anl.gov<BR><B><SPAN style="FONT-WEIGHT: bold">Sent:</SPAN></B> Monday, July 27, 2009 1:35:48 PM<BR><B><SPAN style="FONT-WEIGHT: bold">Subject:</SPAN></B> Re: [mpich-discuss] thread MPI calls<BR></FONT><BR>Tan,<BR><BR>Would it be possible to send us your application, or better still, a simple benchmark that can reproduce this problem?<BR><BR>It's hard to debug such performance issues over email without actually looking through the code.<BR><BR>-- Pavan<BR><BR>On 07/27/2009 01:25 PM, chong tan wrote:<BR>&gt; <BR>&gt; Nicholas and Pavan, and D,<BR>&gt;&nbsp; Some tiny bit of info ffrom my work.&nbsp; When we run our parallizzed application,<BR>&gt; we like to see time spent in comminucation, MPICH2 that is, being 30% or less.<BR>&gt; That includes setting up the data exahnge, and process having to
 wait for other<BR>&gt; processes.&nbsp; Our application will make good number of coummunication, in the<BR>&gt; 100 Billion to few trillion, over a period of hours to months.&nbsp; The data sent between the process is as litle as 8 bytes, to few MByte.&nbsp; Most of<BR>&gt; the time, the data are small, &lt; 128 bytes.<BR>&gt;&nbsp; MPICH2 does a good job of buffering send, but that really did not help us as<BR>&gt; much as there is one recv for each send.<BR>&gt;&nbsp; Our monitoring show most recv takes around 0.6us on most of our boxes.&nbsp; We are<BR>&gt; talking about $12K boxes here, so that is not bad.<BR>&gt;&nbsp; Currently, we observes 5-10% in recv time that we hope to eliminate by parallizing<BR>&gt; the recv operations (when the main thread is working meaningful work).&nbsp; That fits our<BR>&gt; application very well as recv can be isolated easily.<BR>&gt;&nbsp; We have tried these on tests that run for hours :<BR>&gt;&nbsp; -&nbsp; non
 threaded, blocked recv&nbsp; &nbsp; &nbsp; :&nbsp; this is still the fastest solution<BR>&gt;&nbsp; -&nbsp; non thread, Irecv&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; :&nbsp; bad<BR>&gt;&nbsp; -&nbsp; non-thread, pre-launched Irecv: bad, but not too bad<BR>&gt;&nbsp; -&nbsp; thread multiple&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; : very bad<BR>&gt;&nbsp; -&nbsp; thread multiple with irecv&nbsp; &nbsp; &nbsp; &nbsp; : not as bad as very bad<BR>&gt;&nbsp; -&nbsp; thread funnel&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; : super bad<BR>&gt;&nbsp; we analyzed a few tests where the 'recv' thread could have run in parallel with the main thread<BR>&gt; nicely, and yet negative gains are observed.&nbsp; We don't have any theory why that could have p<BR>&gt; happened.<BR>&gt;&nbsp; So, we are particularly curios with what is
 happening with thread multiple ?&nbsp; We have 1<BR>&gt; thing common between thread and non-threaded-Irecv test : Wait_all, could this be the cause ?<BR>&gt;&nbsp; thanks<BR>&gt; tan<BR>&gt;&nbsp; ------------------------------------------------------------------------<BR>&gt; *From:* Pavan Balaji &lt;<A href="mailto:balaji@mcs.anl.gov" ymailto="mailto:balaji@mcs.anl.gov">balaji@mcs.anl.gov</A>&gt;<BR>&gt; *To:* <A href="mailto:mpich-discuss@mcs.anl.gov" ymailto="mailto:mpich-discuss@mcs.anl.gov">mpich-discuss@mcs.anl.gov</A><BR>&gt; *Sent:* Saturday, July 25, 2009 2:40:45 PM<BR>&gt; *Subject:* Re: [mpich-discuss] thread MPI calls<BR>&gt; <BR>&gt; Nicholas,<BR>&gt; <BR>&gt;&nbsp; From what I understand about your application, there are two approaches you can use:<BR>&gt; <BR>&gt; 1. Use no threads -- in this case, each worker posts Irecv's from all processes its expecting messages from (using MPI_ANY_SOURCE if needed) and do some loop similar
 to:<BR>&gt; <BR>&gt; till_work_is_done {<BR>&gt;&nbsp; &nbsp; compute();<BR>&gt;&nbsp; &nbsp; Waitany() or Testany()<BR>&gt; }<BR>&gt; <BR>&gt; This is the approach most master-worker applications, such as mpiBLAST, tend to use.<BR>&gt; <BR>&gt; 2. Otherwise, you can use threads as you suggested below. It is true that there is some overhead, but unless you are using very small messages (e.g., &lt; 64 bytes), and performing a lot of communication (e.g., 90% of your application is communication time), you'll not notice any overhead.<BR>&gt; <BR>&gt; In any case, we are working on some enhanced designs that will minimize threading overheads even in such rare cases (some of them are experimentally included in the mpich2-1.1.x series).<BR>&gt; <BR>&gt; -- Pavan<BR>&gt; <BR>&gt; On 07/25/2009 01:38 PM, Nicolas Rosner wrote:<BR>&gt;&nbsp; &gt; Sorry to shamelessly invade Tan's, but since we're in the middle of a<BR>&gt;&nbsp; &gt; thread about threads, I
 thought I'd rephrase an old question I once<BR>&gt;&nbsp; &gt; tried to state here -- with a lot less understanding of the problem<BR>&gt;&nbsp; &gt; back then. Context:&nbsp; My app is a rather typical<BR>&gt;&nbsp; &gt; single-centralized-master, N-1-worker, pool-of-tasks setup, except<BR>&gt;&nbsp; &gt; that workers don't just consume, but may also split tasks that seem<BR>&gt;&nbsp; &gt; too hard, which ends up pushing large series of new child tasks back<BR>&gt;&nbsp; &gt; to where the parent had been obtained, and so on, recursively.<BR>&gt;&nbsp; &gt;<BR>&gt;&nbsp; &gt; Now, most task-related messages and structures don't handle the<BR>&gt;&nbsp; &gt; real/full tasks (~1 MB to 10 MB of data each), but lightweight proxy<BR>&gt;&nbsp; &gt; objects (~1 KB) that represent them -- which works fine in many<BR>&gt;&nbsp; &gt; situations where some subset of metadata suffices. However, after a<BR>&gt;&nbsp; &gt; worker gets a task assignment, at some
 point it does need the complete<BR>&gt;&nbsp; &gt; file. Conversely, when one is divided, the splitting worker needs to<BR>&gt;&nbsp; &gt; store the new files somewhere. The current approach is as follows:<BR>&gt;&nbsp; &gt;<BR>&gt;&nbsp; &gt;&nbsp; &nbsp; - all new task files produced by a worker W are stored to a local<BR>&gt;&nbsp; &gt; HD on its host<BR>&gt;&nbsp; &gt;<BR>&gt;&nbsp; &gt;&nbsp; &nbsp; - master is immediately notified about each creation (children are<BR>&gt;&nbsp; &gt; pushed back into queue,<BR>&gt;&nbsp; &gt;&nbsp; &nbsp; &nbsp; but by reference only, including a "currently located at ..." field),<BR>&gt;&nbsp; &gt;<BR>&gt;&nbsp; &gt;&nbsp; &nbsp; - when master assigns a task to some other worker Z, the message<BR>&gt;&nbsp; &gt; includes said location, and<BR>&gt;&nbsp; &gt;<BR>&gt;&nbsp; &gt;&nbsp; &nbsp; - worker Z then sends a msg to worker W requesting the task, which<BR>&gt;&nbsp; &gt; W sends as one fat MPI
 message.<BR>&gt;&nbsp; &gt;<BR>&gt;&nbsp; &gt; This achieves decent load balancing, but although a worker can't<BR>&gt;&nbsp; &gt; really do anything productive while waiting for a totally new<BR>&gt;&nbsp; &gt; datafile, it may certainly not block if it is to stay deadlock-free --<BR>&gt;&nbsp; &gt; it [or *some* component, anyway] needs to be ready to serve any<BR>&gt;&nbsp; &gt; potential incoming "full datafile requests" from other workers within<BR>&gt;&nbsp; &gt; some constant amount of delay that may not depend on its own pending<BR>&gt;&nbsp; &gt; request.<BR>&gt;&nbsp; &gt;<BR>&gt;&nbsp; &gt; So, I first tried the nonblocking approach; no good, worker + file<BR>&gt;&nbsp; &gt; server chores combined yield a giant statechart, way too complex to<BR>&gt;&nbsp; &gt; debug and maintain. Then, trying to stay away from hybrid thread+MPI<BR>&gt;&nbsp; &gt; code, I tried separating the worker and server as two different<BR>&gt;&nbsp; &gt; processes, and
 ran twice as many processes as available processors.<BR>&gt;&nbsp; &gt; Although Linux did a pretty good job scheduling them (not surprising<BR>&gt;&nbsp; &gt; since they're almost purely cpu and i/o bound, respectively), there is<BR>&gt;&nbsp; &gt; some performance penalty, plus it's messy to be keeping track of how<BR>&gt;&nbsp; &gt; mpixec deals roles to hosts, e.g. lots of rank -&gt; host mappings that<BR>&gt;&nbsp; &gt; were fine suddenly become unusable and must be avoided, etc.<BR>&gt;&nbsp; &gt;<BR>&gt;&nbsp; &gt; Eventually I gave up on my "no-hybrid" and "don't want to depend on<BR>&gt;&nbsp; &gt; thread_multiple support" wishes, got myself a pthreads tutorial and<BR>&gt;&nbsp; &gt; ended up with a worker version that uses a 2nd thread (+ possibly<BR>&gt;&nbsp; &gt; several subthreads thereof) to keep serving files regardless of main<BR>&gt;&nbsp; &gt; thread (actual worker code) status -- and with cleaner, better<BR>&gt;&nbsp; &gt; separated
 code. (Note that there is little or no interaction between<BR>&gt;&nbsp; &gt; Wi and Si once launched -- Si just needs to keep serving files that Wi<BR>&gt;&nbsp; &gt; produced earlier on but doesn't even remember, let alone care about,<BR>&gt;&nbsp; &gt; anymore. Both need MPI messaging all the time, though.)<BR>&gt;&nbsp; &gt;<BR>&gt;&nbsp; &gt; Bottom line: as scary as it looked to me to go hybrid, and despite<BR>&gt;&nbsp; &gt; several warnings from experts against it, in this particular case it<BR>&gt;&nbsp; &gt; turned out to be simpler than many of the clumsy attempts at avoiding<BR>&gt;&nbsp; &gt; it, and probably the "least ugly" approach I've found so far.<BR>&gt;&nbsp; &gt;<BR>&gt;&nbsp; &gt; Questions: Do you think this solution is OK? Any suggestions for<BR>&gt;&nbsp; &gt; alternatives or improvements?&nbsp; Am I wrong in thinking that this kind<BR>&gt;&nbsp; &gt; of need must be a common one in this field?&nbsp; How do people
 normally<BR>&gt;&nbsp; &gt; address it?&nbsp; Distributed filesystems, perhaps?&nbsp; Or something like a<BR>&gt;&nbsp; &gt; lightweight http server on each host? Shared central storage is not an<BR>&gt;&nbsp; &gt; option -- its scalability hits the ceiling way too quickly. Is the<BR>&gt;&nbsp; &gt; performance penalty that Pavan just mentioned (for M_TH_MULTIPLE) of<BR>&gt;&nbsp; &gt; considerable magnitude?&nbsp; Do you think it could be avoided, while still<BR>&gt;&nbsp; &gt; keeping the worker code reasonably isolated and unaware of the serving<BR>&gt;&nbsp; &gt; part?<BR>&gt;&nbsp; &gt;<BR>&gt;&nbsp; &gt; Thanks in advance for any comments, and in retrospective for all the<BR>&gt;&nbsp; &gt; useful info here.<BR>&gt;&nbsp; &gt;<BR>&gt;&nbsp; &gt; Sincerely<BR>&gt;&nbsp; &gt; N.<BR>&gt; <BR>&gt; -- Pavan Balaji<BR>&gt; http://www.mcs.anl.gov/~balaji<BR>&gt; <BR><BR>-- Pavan Balaji<BR><A href="http://www.mcs.anl.gov/~balaji"
 target=_blank>http://www.mcs.anl.gov/~balaji</A><BR></DIV></DIV></div><br>



      </body></html>