&nbsp;<br><br><div><span class="gmail_quote">On 7/6/07, <b class="gmail_sendername">V Anil Kumar</b> &lt;<a href="mailto:anil@cmmacs.ernet.in">anil@cmmacs.ernet.in</a>&gt; wrote:</span><blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;">
<br>Hi,<br><br>What are the buffer sizes configured at the interface level on<br>intermediate routers? Are they also set to the BDP of the link? Also, what<br>is the buffer management scheme (RED or FIFO) on the intermediate routers?&nbsp;&nbsp;  
<br></blockquote><blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;">These parameters will also have an impact on the end-to-end throughput.</blockquote>
<div><br style="color: rgb(204, 102, 0);"><span style="color: rgb(204, 102, 0);">&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; The network is not under my administration . So , I will</span><br style="color: rgb(204, 102, 0);"><span style="color: rgb(204, 102, 0);">
&nbsp;&nbsp; probably ask my&nbsp; metwork provider to give me the result</span>.&nbsp; <br>&nbsp;&nbsp; <br></div><br><blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;">The configuration you attached shows that you could improve the throughput
<br>from 55 mbps to 95 mbps by decreasing the buffer size from 921600 to<br>175636. While your text says that you achieved 95 mbps by increasing the<br>buffer size.</blockquote><div><br>&nbsp;&nbsp;<span style="color: rgb(204, 102, 0);">
 Sorry, that was a typo . It should have been&nbsp; 1756366. (nearly 1.7 MB ). </span><br><br></div><br><blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;">
Any idea why a dedicated 100 mbps link gives an RTT of 70 msec. under no<br>load condition?<br><br>&nbsp;<span style="color: rgb(255, 102, 0);"> The two end points are very far away. It is more than 3000 kms . So, probably</span>
</blockquote><div><span style="color: rgb(255, 102, 0);">&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; that might me the reason. The RTT&nbsp; is obeying the SLA parameters that was</span><br style="color: rgb(255, 102, 0);"><span style="color: rgb(255, 102, 0);">&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; defined for this network.
</span><br style="color: rgb(255, 102, 0);"><br><br>With Thanks and Regards<br>&nbsp;zaman<br>&nbsp; &nbsp; <br></div><br><div><br>&nbsp; <br></div><br><blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;">
Anil<br><br> On Thu, 5 Jul 2007, query&nbsp;&nbsp;wrote:<br><br>&gt; Hi All,<br>&gt;<br>&gt;&nbsp;&nbsp; I was doing some Bandwidth measurement test on a 100 mbs link with a RTT<br>&gt; of about 70ms.<br>&gt;&nbsp;&nbsp; Based on that, I calculated the BDP as follows.
<br>&gt;<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; BDP = Bandwidth * RTT<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; = 13107200 bytes * .07 secs<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; = 896 Kbytes<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; = 900 Kbyes (approx)<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; = 921600 bytes<br>&gt;
<br>&gt;<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp;After that I adjusted the TCP window size as follows:<br>&gt;<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;/proc/sys/net/core/rmem_max&nbsp;&nbsp;921600<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;/proc/sys/net/core/wmem_max&nbsp;&nbsp;921600<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;/proc/sys/net/ipv4/tcp_rmem&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;4096&nbsp;&nbsp;&nbsp;&nbsp;87380&nbsp;&nbsp; 921600
<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;/proc/sys/net/ipv4/tcp_wmem&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;4096&nbsp;&nbsp;&nbsp;&nbsp;87380&nbsp;&nbsp; 921600<br>&gt;<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp;These adjustmenst I had done on a Linux host with 2.6.15 kernel. The<br>&gt; congestion<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp;control algorithm , it is using BIC
<br>&gt;<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp;The same window adjustments I had performed on the other hand on a Linux<br>&gt; host<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp;with kernel 2.6.9 . It is also using BIC for congestion control.<br>&gt;<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp;The Bandwidth Performnce test I am doing using iperf , a highly popular
<br>&gt; public<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp;domain tool for measuring TCP &amp; UDP Bandwidth Performance .<br>&gt;<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp;With the default Linux 2.6 TCP window settings , I was getting a<br>&gt; throughput of<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp;nearly 10mbs which is very low for a 100 mbs link.
<br>&gt;<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp;So , I performed the above TCP adjustmets and I found the throughput to<br>&gt; be around<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp;55 mbs which is a significant improvement . But that is not fully<br>&gt; utilsing the link<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp;as it is a dedicated link and there was no other traffic.
<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp;This , I proved with the next experiment where I reached a link<br>&gt; utilisation of<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp;little more than 95 mbs . That is very much O.K for a 100mbs link.<br>&gt;<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp;I did the following adjustments. I increased the above calculated BDP by
<br>&gt; nearly<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp;half of the value . The TCP settings now look like this.<br>&gt;<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;/proc/sys/net/core/rmem_max&nbsp;&nbsp;175636<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;/proc/sys/net/core/wmem_max&nbsp;&nbsp;175636<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;/proc/sys/net/ipv4/tcp_rmem&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;4096&nbsp;&nbsp;&nbsp;&nbsp;87380&nbsp;&nbsp; 175636
<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;/proc/sys/net/ipv4/tcp_wmem&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;4096&nbsp;&nbsp;&nbsp;&nbsp;87380&nbsp;&nbsp; 175636<br>&gt;<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp; After these settings , I find the link utilisation to be nearly 95 mbs.<br>&gt;<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp; According to many papers that I read , I found that the BDP should be
<br>&gt; equal<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp; to the product of Bandwidth * RTT .<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp; I had done that , but the link utilisation is only 50%. But when I<br>&gt; increased<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp; to a much higher value , the link utilisation is nearly around 95 %.
<br>&gt;<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp; I am confused regarding my findings.Please clarify me so that I can<br>&gt; perform<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp; the experiment correctly.<br>&gt;<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp; With Thanks in Advance<br>&gt;<br><br><br></blockquote></div>
<br>