]> pilppa.com Git - linux-2.6-omap-h63xx.git/commit
[TCP]: Saner thash_entries default with much memory.
authorJean Delvare <jdelvare@suse.de>
Tue, 30 Oct 2007 07:59:25 +0000 (00:59 -0700)
committerDavid S. Miller <davem@davemloft.net>
Tue, 30 Oct 2007 07:59:25 +0000 (00:59 -0700)
commit0ccfe61803ad24f1c0fe5e1f5ce840ff0f3d9660
tree5af62008d8e69df7866b7b3dd18db6a641e6b32f
parente08a132b0ef3cf89dfbf1dea2c6248ea624bdcd7
[TCP]: Saner thash_entries default with much memory.

On systems with a very large amount of memory, the heuristics in
alloc_large_system_hash() result in a very large TCP established hash
table: 16 millions of entries for a 128 GB ia64 system. This makes
reading from /proc/net/tcp pretty slow (well over a second) and as a
result netstat is slow on these machines. I know that /proc/net/tcp is
deprecated in favor of tcp_diag, however at the moment netstat only
knows of the former.

I am skeptical that such a large TCP established hash is often needed.
Just because a system has a lot of memory doesn't imply that it will
have several millions of concurrent TCP connections. Thus I believe
that we should put an arbitrary high limit to the size of the TCP
established hash by default. Users who really need a bigger hash can
always use the thash_entries boot parameter to get more.

I propose 2 millions of entries as the arbitrary high limit. This
makes /proc/net/tcp reasonably fast on the system in question (0.2 s)
while being still large enough for me to be confident that network
performance won't suffer.

This is just one way to limit the hash size, there are others; I am not
familiar enough with the TCP code to decide which is best. Thus, I
would welcome the proposals of alternatives.

[ 2 million is still too large, thus I've modified the limit in the
  change to be '512 * 1024'. -DaveM ]

Signed-off-by: Jean Delvare <jdelvare@suse.de>
Signed-off-by: David S. Miller <davem@davemloft.net>
net/ipv4/tcp.c