java.net.BindException:打开太多连接时无法分配请求的地址

时间:2015-08-07 11:17:15

标签: java linux

运行以下代码,只需在无限循环中连接和关闭套接字:

import java.net.InetAddress;
import java.net.InetSocketAddress;
import java.nio.channels.SocketChannel;
import java.nio.channels.spi.SelectorProvider;

public class Main {
    public static void main(String[] args) throws Exception {
        Thread.sleep(1000);
        InetAddress localhost = InetAddress.getByName("127.0.0.1");
        InetSocketAddress localhostRpcbind = new InetSocketAddress(localhost, 111);
        SelectorProvider selectorProvider = SelectorProvider.provider();
        long iterations = 0;
        while (true) {
            try {
                SocketChannel socketChannel = selectorProvider.openSocketChannel();
                socketChannel.connect(localhostRpcbind);
                socketChannel.finishConnect();
                socketChannel.close();
                iterations ++;
            } catch (Exception e) {
                System.err.println("after " + iterations + " iterations");
                e.printStackTrace(System.err);
                throw e;
            }
        }
    }
}

端口111是rpcbind的端口(在我的机器上启动并运行)。 在代码的第一轮运行中,我会得到类似的东西:

after 28239 iterations
java.net.BindException: Cannot assign requested address
    at sun.nio.ch.Net.connect0(Native Method)
    at sun.nio.ch.Net.connect(Net.java:458)
    at sun.nio.ch.Net.connect(Net.java:450)
    at sun.nio.ch.SocketChannelImpl.connect(SocketChannelImpl.java:648)
    at Main.main(Main.java:16)

后续运行将立即失败(0次迭代),直到一段时间后我再次得到第一个结果(~26-28k迭代然后失败)。

最新进展如何让这个连接/断开循环无限期地正常运行?

我在linux x64(fedora 22)上运行。

注意:是的,我知道这些代码没用,什么都不做,这是一个更大问题的SSCCE,我试图调查。

更新 - 看起来我在我的机器上遇到短暂的端口耗尽:

$ cat /proc/sys/net/ipv4/ip_local_port_range
32768   61000

所以我有~28k临时端口用于连接,这与我的错误相匹配

1 个答案:

答案 0 :(得分:3)

绑定到大约28K个不同的端口后,系统已经用完了短暂的端口来绑定你的套接字。

此问题的原因是,为了打开TCP连接,操作系统会分配一个临时端口(用于源端口)。它将套接字绑定到分配的端口。关闭TCP连接后,由于历史原因(https://en.wikipedia.org/wiki/File:Tcp_state_diagram_fixed_new.svg),连接处于TIME_WAIT状态,通常为2分钟,从我的观点来看,这个时间可以在今天的大部分时间内减少。系统......其他讨论的主题。

作为一种解决方案,您可以使用sysctl减少此超时:

将net.ipv4.netfilter.ip_conntrack_tcp_timeout_time_wait的值更改为1等较低的数字,情况会有所改善。但是,您的应用程序足够快,在不到1秒的时间内消耗~28K端口,您仍会看到此异常。

您可以调整的其他TCP参数: 增加临时端口的范围:net.ipv4.ip_local_port_range net.ipv4.tcp_tw_reuse net.ipv4.tcp_tw_recycle

请注意:http://vincent.bernat.im/en/blog/2014-tcp-time-wait-state-linux.htmlhttp://www.lognormal.com/blog/2012/09/27/linux-tcpip-tuning/