<div dir="ltr"><div class="gmail_extra"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left-width:1px;border-left-color:rgb(204,204,204);border-left-style:solid;padding-left:1ex"><br>
Date: Wed, 22 Oct 2014 15:38:14 -0400<br>
From: Andrew Sullivan <<a href="mailto:ajs@anvilwalrusden.com">ajs@anvilwalrusden.com</a>><br>
To: <a href="mailto:dns-operations@dns-oarc.net">dns-operations@dns-oarc.net</a><br>
Subject: Re: [dns-operations] resolvers considered harmful<br>
Message-ID: <<a href="mailto:20141022193814.GI37494@mx1.yitter.info">20141022193814.GI37494@mx1.yitter.info</a>><br>
Content-Type: text/plain; charset=us-ascii<br>
<br>
On Wed, Oct 22, 2014 at 11:19:45AM -0700, David Conrad wrote:<br>
><br>
> That cost is discussed in the paper (section 5).<br>
<br>
Their model doesn't make it a "large" increase, and I think that's<br>
because of their unrealistic assumptions about actual use.  The<br>
problem is that the really popular domains on the Internet (Google is<br>
one example they do discuss) have completely different patterns than<br>
everyone else.  The mitigation technique of increasing TTLs imposes a<br>
cost on the operator of the popular domain (a cost in terms of<br>
flexibility).  The authors seem to think this is no large cost, and I<br>
disagree.<br><br>
--<br>
Andrew Sullivan<br><br></blockquote>I think one of the assumptions that is likely wrong is the cache times.  Many computers are turned off at the end of the day, which clears the cache, so the numbers should be recalculated with one day max cache time as a possible worst case.<br clear="all"><div><br></div><div>Also, the two day TTL's on top-level zones are already too long.  If I am forced to move from one DNS provider to another, being down for two days is a problem.  Anything longer is even worse.</div><div><br>-- <br>Bob Harold<br></div><div>University of Michigan </div><div><br></div></div></div></div>