捕获与Apache Load Balancer和node / io.socket后端

时间:2018-03-24 04:08:12

标签: apache socket.io load-balancing

注意:我已解决了大部分问题,但仍然遇到了捕获断开连接的问题,如更新部分中此帖子底部所述。

注2:根据要求,我发布了更完整的设置视图。请参阅本文底部的标题。

我正在尝试在Apache中设置负载均衡器,但它不适用于socket.io。我的Apache代码如下所示:

<VirtualHost *:80>
        ServerAdmin webmaster@example.com
        ServerName jpl.example.com

        ProxyRequests off

        Header add Set-Cookie "ROUTEID=.%{BALANCER_WORKER_ROUTE}e; path=/" env=BALANCER_ROUTE_CHANGED
        <Proxy "balancer://mycluster">
                BalancerMember "http://203.0.113.22:3000" route=1
                BalancerMember "http://203.0.113.23:3000" route=2
        </Proxy>

        ProxyPass "/test/" "balancer://mycluster/"
        ProxyPassReverse "/test/" "balancer://mycluster/"    

</VirtualHost>

socket.io

的问题

我面临的问题是,在后端我有一个node.js服务器,它使用socket.io连接在subdir1 / index.html和subdir2.index.html中进行长轮询。不幸的是,socket.io喜欢只从根目录运行:

http://203.0.113.22:3000/socket.io/

如果我尝试从以下地方运行它,则无法找到它:

http://jpl.example.com/test/socket.io

服务器上的index.js文件的开头如下所示:

// Setup basic express server
var express = require('express');
var app = express();
var server = require('http').createServer(app);
var io = require('socket.io')(server);

我的/subdir1/index.html(也是从服务器加载)的一部分最初看起来像这样:

<script src="/socket.io/socket.io.js"></script>
<script>
    var socket = io.connect();
    socket.on('notification', function (data) {

但是我在通过代理访问它时遇到错误。错误是:

http://jpl.example.com/socket.io/socket.io.js 404 (Not Found)

我尝试将其更改为:

<script src="/test/socket.io/socket.io.js"></script>
<script src="http://code.jquery.com/jquery-latest.min.js"></script>
<script>
    var refresh_value = 0;
    var refresh_time = 0;
    //var socket = io.connect();
    var socket = io.connect('http://example.com/', {path: "/test/"});
    socket.on('notification', function (data) {

它不再给我一个错误,但没有迹象表明它正在与套接字进行通信。

我在这里做错了什么,我怎么能让它发挥作用?

更新

我现在主要解决了使用问题:

var socket = io.connect('http://example.com/', {path: "/test/socket.io"});

而不是:

var socket = io.connect('http://example.com/', {path: "/test/"});

最终问题:

事情现在正在发挥作用,但我仍然遇到以下问题:

在检测到客户端实际关闭页面之前大约需要一分钟。没有Proxy和Apache负载均衡器,我没有这个问题。我尝试了各种各样的事情,例如将KeepAlive设置为“no”,并使用以下内容修改此页面顶部的VirtualHost:

        <Proxy "balancer://mycluster">
                BalancerMember "http://203.0.113.22:3000" route=1 max=128 ttl=300 retry=60 connectiontimeout=5 timeout=300 ping=2
                BalancerMember "http://203.0.113.23:3000" route=2 max=128 ttl=300 retry=60 connectiontimeout=5 timeout=300 ping=2
        </Proxy>

但它仍然需要大约一分钟才能识别出客户已离开页面。我该怎么做才能解决这个问题?

我的设置的更完整视图

根据要求,为了帮助诊断问题,我发布了一个更完整的设置视图。我尽可能多地消除了尽可能多的细节:

我当前的Apache文件:

<VirtualHost *:80>
    # Admin email, Server Name (domain name), and any aliases
    ServerAdmin webmaster@example.com
    ServerName jpl.example.com

    ProxyRequests off

    Header add Set-Cookie "ROUTEID=.%{BALANCER_WORKER_ROUTE}e; path=/" env=BALANCER_ROUTE_CHANGED
    <Proxy "balancer://mycluster">
        BalancerMember "http://203.0.113.22:3000" route=1 keepalive=On smax=1 connectiontimeout=10 retry=600 timeout=900 ttl=900
        BalancerMember "http://203.0.113.23:3000" route=2 keepalive=On smax=1 connectiontimeout=10 retry=600 timeout=900 ttl=900
        ProxySet stickysession=ROUTEID
    </Proxy>

    <Proxy "balancer://myws">
        BalancerMember "ws://203.0.113.22:3000" route=1 keepalive=On smax=1 connectiontimeout=10 retry=600 timeout=900 ttl=900
        BalancerMember "ws://203.0.113.23:3000" route=2 keepalive=On smax=1 connectiontimeout=10 retry=600 timeout=900 ttl=900
        ProxySet stickysession=ROUTEID
    </Proxy>

    RewriteEngine On
    RewriteCond %{REQUEST_URI}  ^/test/socket.io                [NC]
    RewriteCond %{QUERY_STRING} transport=websocket        [NC]
    RewriteRule /(.*)           balancer://myws/$1 [P,L]

    ProxyPass "/test/" "balancer://mycluster/"
    ProxyPassReverse "/test/" "balancer://mycluster/"

</VirtualHost>

在每台服务器上,我都安装了节点。主index.js看起来像这样:

/************ Set Variables ******************/

// Setup basic express server
var express = require('express');
var app = express();
var server = require('http').createServer(app);
var io = require('socket.io')(server);
var port = process.env.PORT || 3000;
var fs                  = require('fs'),
    mysql               = require('mysql'),
    connectionsArray    = [],
    connection          = mysql.createConnection({
        host        : 'localhost',
        user        : 'myusername',
        password    : 'mypassword',
        database    : 'mydatabase',
        port        : 3306
    }),
    POLLING_INTERVAL = 5000;


server.listen(port, function () {
        console.log("-----------------------------------");
        console.log('Server listening at port %d', port);
});

// Routing
app.use(express.static(__dirname + "/public"));


/*********  Connect to DB ******************/
connection.connect(function(err) {
        if (err == null){
                console.log("Connected to Database!");
        }
        else {
                console.log( err );
                process.exit();
        }
});



/***********************  Looping *********************/

var pollingLoop = function () {

        var query = connection.query('SELECT * FROM spec_table'),
        specs = [];

        query
        .on('error', function(err) {
                console.log( err );
                updateSockets( err );
        })

        .on('result', function( spec ) {
                specs.push( spec );
        })

        .on('end',function(){
                pollingLoop2(specs);
        });

};

var pollingLoop2 = function (specs) {

        // Make the database query
        var query = connection.query('SELECT * FROM info_table'),
        infos = [];

        // set up the query listeners
        query
        .on('error', function(err) {
                console.log( err );
                updateSockets( err );
        })

        .on('result', function( info ) {
                infos.push( info );
        })

        .on('end',function(){
                if(connectionsArray.length) {
                        setTimeout( pollingLoop, POLLING_INTERVAL );
                        updateSockets({specs:specs, infos:infos});
                }
        });

};

/***************  Create new websocket ****************/
//This is where I can tell who connected and who disconnected.

io.sockets.on('connection', function ( socket ) {

        var socketId = socket.id;

        var clientIp = socket.request.connection.remoteAddress;

        var time = new Date();
        console.log(time);
        console.log("\033[32mJOINED\033[0m: "+ clientIp + " (Socket ID: " + socketId + ")");

        // start the polling loop only if at least there is one user connected
        if (!connectionsArray.length) {
                pollingLoop();
        }

        socket.on('disconnect', function () {
                var socketIndex = connectionsArray.indexOf( socket );

                var time = new Date();
                console.log(time);
                console.log("\033[31mLEFT\033[0m: "+ clientIp + " (Socket ID: " + socketId + ")");

                if (socketIndex >= 0) {
                        connectionsArray.splice( socketIndex, 1 );
                }
                console.log('    Number of connections: ' + connectionsArray.length);
        });

        connectionsArray.push( socket );
        console.log('    Number of connections: ' + connectionsArray.length);

});


/********* Function updateSockets ************/

var updateSockets = function ( data ) {

        connectionsArray.forEach(function( tmpSocket ){
                tmpSocket.volatile.emit( 'notification' , data );
        });

};

最后,在我的public / dir1 / index.html文件中,我有一些看起来像这样的东西:

//HTML code here
<script src="/test/socket.io/socket.io.js"></script>
<script>
    var socket = io.connect('', {path: "/test/socket.io"});
    socket.on('notification', function (data) {
            $.each(data.specs,function(index,spec){
                    //Other js code here
            })
    })
</script>
//More HTML code here

通过此特定设置,连接可以正常工作,但在检测到页面关闭之前需要一分多钟。此外,通过此设置,还会在控制台中记录错误:

WebSocket connection to 'ws://jpl.example.com/test/socket.io/?EIO=3&transport=websocket&sid=QE5aCExz3nAGBYcZAAAA' failed: Connection closed before receiving a handshake response
ws @ socket.io.js:5325

我做错了什么以及如何修复我的代码以便我可以在发生错误时检测到断开连接?

注意:如果我不使用子目录/ test /,它可以正常工作。

请注意:这只是URL中出现的子目录。它在任何地方的文件系统中都不存在。

此外,如果您发现我的代码中的区域可以更好地编写,我会接受提示和建议。

3 个答案:

答案 0 :(得分:2)

所以经过一些打击和试验,我能够得到一个正常的配置。需要进行更改

服务器上的基本路径

您还需要在服务器上使用基本路径来实现此流畅

var io = require('socket.io')(server, { path: '/test/socket.io'});

然后下面是我使用的更新的Apache配置

<VirtualHost *:8090>
    # Admin email, Server Name (domain name), and any aliases
    ServerAdmin webmaster@example.com

    ProxyRequests off

   #Header add Set-Cookie "ROUTEID=.%{BALANCER_WORKER_ROUTE}e; path=/" env=BALANCER_ROUTE_CHANGED
   Header add Set-Cookie "SERVERID=sticky.%{BALANCER_WORKER_ROUTE}e; path=/" env=BALANCER_ROUTE_CHANGED

    <Proxy "balancer://mycluster">
        BalancerMember "http://127.0.0.1:3001" route=1 keepalive=On smax=1 connectiontimeout=10 retry=600 timeout=900 ttl=900
        BalancerMember "http://127.0.0.1:3000" route=2 keepalive=On smax=1 connectiontimeout=10 retry=600 timeout=900 ttl=900
        ProxySet stickysession=SERVERID
    </Proxy>

    <Proxy "balancer://myws">
        BalancerMember "ws://127.0.0.1:3001" route=1 keepalive=On smax=1 connectiontimeout=10 retry=600 timeout=900 ttl=900
        BalancerMember "ws://127.0.0.1:3000" route=2 keepalive=On smax=1 connectiontimeout=10 retry=600 timeout=900 ttl=900
        ProxySet stickysession=SERVERID
    </Proxy>

    RewriteEngine On
    RewriteCond %{HTTP:Upgrade} =websocket [NC]
    RewriteRule /(.*) balancer://myws/$1 [P,L]

    RewriteCond %{HTTP:Upgrade} !=websocket [NC]
    RewriteRule /(.*)                balancer://mycluster/$1 [P,L]
    ProxyTimeout 3
</VirtualHost>

现在断开连接立即

Disconnect

答案 1 :(得分:1)

我不熟悉Apaches mod_proxy,但我认为您的问题与您的路径有关。

我设置了一个小测试以确定我是否可以提供帮助(并且有一个游戏),在我的测试中,我会将HTTP和ws流量代理到单个后端。这是你做的加上websockets。

服务器(LXD容器):

  • 10.158.250.99是代理。
  • 10.158.250.137是节点。

首先,在代理上启用apache mod:

sudo a2enmod proxy
sudo a2enmod proxy_http
sudo a2enmod proxy_wstunnel
sudo a2enmod proxy_balancer
sudo a2enmod lbmethod_byrequests

然后更改000-default.conf

sudo nano /etc/apache2/sites-available/000-default.conf

这是我在清除评论后使用的内容:

<VirtualHost *:80>
    ServerAdmin webmaster@localhost
    DocumentRoot /var/www/html

    ErrorLog ${APACHE_LOG_DIR}/error.log
    CustomLog ${APACHE_LOG_DIR}/access.log combined

    <Proxy balancer://mycluster>
        BalancerMember http://10.158.250.137:7779
    </Proxy> 

    ProxyPreserveHost On

    # web proxy - forwards to mycluser nodes
    ProxyPass /test/ balancer://mycluster/
    ProxyPassReverse /test/ balancer://mycluster/

    # ws proxy - forwards to web socket server
    ProxyPass /ws/  "ws://10.158.250.137:7778"

</VirtualHost>

以上配置正在做什么:

  • 访问代理http://10.158.250.99,它将显示默认的Apache页面。
  • 访问代理http://10.158.250.99/test/,它会将HTTP请求转发给http://10.158.250.137:7779
  • 访问代理http://10.158.250.99/ws,它将与ws://10.158.250.137:7778建立一个websocket连接并进行隧道连接。

因此,对于我的应用程序使用phptty因为它使用HTTP和WS,它使用连接到websocket http://10.158.250.99/ws的xterm.js前端在浏览器中提供tty。

这是一个完整的屏幕,使用我的LXDui电子应用程序来控制它。

enter image description here

因此,请根据我的尝试检查您的设置,看看它是否有所不同,在尝试将其应用到您的想法之前,最好先试验abit以了解其运作方式。

希望它有所帮助。

答案 2 :(得分:0)

我认为检测客户端的延迟问题已关闭页面来自您的代理apache节点的默认内核tcp keepalive配置。 我认为在您的系统中,如果检查sys.net.ipv4.tcp_keepalive_time的值,则可能在发送第一个keepalive数据包之前等待60秒,以检测客户端是否已关闭连接。 根据您的问题详细信息,mod_proxy看起来有问题,因为它似乎没有转发您正确管理的RST数据包而没有mod_proxy模块。 如果不解决mod_proxy上的正向RST数据包问题,您可能只能通过将示例中的参数tcp_keepalive_time减少到5来减少延迟,等待最多5秒才开始检查tcp连接是否已关闭。在说明连接已关闭之前,还要检查失败的keepalive探测器参数的数量,它还可能影响总延迟。这是tcp_keepalive_probes参数。