<div dir="ltr"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><br><br>
While that may be true, I'm curious whether it's known why the load times vary across three orders of magnitude?<br></blockquote><div><br></div><div>I can only offer speculations based on our own deployment architectures, but it should serve as an example of why these measurements are somewhat meaningless in the first place.</div><div><br></div><div>Consider a set of systems that are all on SOA-1.  Now, take one of those systems out of the current processing load because it needs an OS update while the rest continue handling the load.  A second later, the rest of the systems upgrade to SOA-2.  A long time later the OS upgrade gets finished, it gets rebooted and the name server comes on line and logs that it now has SOA-2.  This could easily be order hours later given the length of an OS upgrade and will affect the maximum time seen quite severely.  You can likely start thinking of much more challenging scenarios like systems that are entirely off for a hardware replacement, or network connectivity fix, etc that could easily sneak into order days of delay in getting a new SOA.  This delay does not matter though, as none of these "down" systems would be actually answering queries yet so there is no harm in the actual delay that is being reported.</div><div><br></div><div>Many many more scenarios are likely as well, of course.  Routing outages that cause no user degradations can technically cause reported load-time slips, for example.</div></div><span class="gmail_signature_prefix">-- </span><br><div dir="ltr" class="gmail_signature"><div dir="ltr">Wes Hardaker<div>USC/ISI</div></div></div></div>