与iperf UDP性能相比,UDP吞吐量较低

时间:2017-04-27 12:40:11

标签: c sockets networking udp iperf

当通过iperf2工具测量Windows PC和基于Zynq的设备之间的UDP吞吐量时,我通过专用的1Gb以太网链路获得大约950 Mb / s的速率。但是,当在PC上使用我自己的UDP应用程序时,我只能获得大约50 Mb / s的吞吐量,这大大低于iperf测量的吞吐量。当然,在我的UDP应用程序中,我没有任何处理,只有在我调用sendto函数的循环中,使用大小为1470字节的UDP数据包。 Zynq设备上的应用由XAPP1026提供,因此它不是我的。我正在寻找iperf代码试图找出他们做的不同,但基本上,我找不到任何套接字或udp选项或他们做的任何类似的东西,以最大化UDP吞吐量。

这是主函数的代码(MAXUDP define是1470):

int main(int argc, char** argv) 
{
int sockfd;
struct sockaddr_in servaddr;
char sendline[MAXUDP];
int i;
int j;
const int tr_size = ( 200 * MB );
const int npackets = ( tr_size / MAXUDP );
const int neval = 2;
DWORD start;
DWORD end;
int optval;

WSADATA wsaData;
if(WSAStartup(MAKEWORD(2, 1), &wsaData) != 0 )
{
    printf( "Err: %d\n", WSAGetLastError() );
    exit(1);
}

bzero(&servaddr, sizeof(servaddr));
servaddr.sin_family = AF_INET;
servaddr.sin_port = htons(SERV_PORT);
servaddr.sin_addr.s_addr = inet_addr("172.16.0.215");

sockfd = Socket(AF_INET, SOCK_DGRAM, 0);
Connect(sockfd, (const SA*) &servaddr, sizeof(servaddr));

optval = 208*KB;
Setsockopt(sockfd, SOL_SOCKET, SO_SNDBUF, (const char*) &optval, sizeof optval);

prep_data(sendline, MAXUDP);

for ( i = 1; i <= neval; i++ )
{
    start = GetTickCount();
    for ( j = 0; j < npackets/neval; j++ )
        sendto(sockfd, sendline, MAXUDP, 0, NULL, NULL);
    end = GetTickCount() - start;

    printf("Time elapsed: %d sec.\n", end/1000);
    printf("Throughput: %d.%3d MB/s\n", (tr_size/neval)/end/1000, (tr_size/neval)/end - (tr_size/neval)/end/1000);
}
return 0;
}

所以,我的主要问题是如何以与iperf相同的方式最大化UDP吞吐量?

更新: 我切换到Ubuntu PC。结果不同,但仍有一些随机的事情发生。 我要做的第一件事是为eth0(ifconfig eth0 172.16.0.200 netmask 255.255.255.0)和网关地址(route add default gw 172.16.0.1)设置IP地址。当我用iperf -c 172.16.0.215 -i 5 -t 25 -u -b 1000m运行iperf时,我的速度大约为800 Mbits / sec。然而,在以相同的方式运行几次iperf之后,突然间我开始只获得大约15 Mbits / sec甚至更少。我想我需要再次设置IP,网络掩码和网关地址,以获得800 Mbits / sec。此外,我的UDP应用程序的行为方式相同。在运行用于设置IP地址的命令后,我测量957 Mbits / sec(MAXUDP设置为1470)。但经过几次迭代后,速度降至11 Mbits / sec左右。然后我再次设置IP地址,行为重复。因此,正如Kariem在他的回答中所述,问题不在于代码本身,而是在某些操作系统,netif配置相关的东西中。但是,我必须在Windows上运行我的UDP应用程序,所以我需要弄清楚那里发生了什么。如果你们对Windows中可能发生的事情有任何想法,请现在就让我吧。

2 个答案:

答案 0 :(得分:0)

您计算吞吐量的方式有误。您的大小以字节为单位设置,因此您以字节为单位计算吞吐量,而iperf以位为单位进行计算。

变化

printf("Throughput: %d.%3d MB/s\n", (tr_size/neval)/end/1000, (tr_size/neval)/end - (tr_size/neval)/end/1000);

到这个

printf("Throughput: %d.%3d MB/s\n", ((tr_size/neval)/end/1000)*8, (tr_size/neval)/end - ((tr_size/neval)/end/1000)*8);

我在我的机器上运行了一个代码版本,并且我获得了1GB的吞吐量。这是

#include <netinet/in.h>
#include <string.h>
#include <sys/time.h>
#include <cstdio>
#include <arpa/inet.h>
#include <fcntl.h>

#define MAXUDP 1470
#define SERV_PORT 5001
static inline long int getCurTimeInMs()
{
    struct timeval tp;
    gettimeofday(&tp, NULL);
    return tp.tv_sec * 1000 + tp.tv_usec / 1000;

}


int main(int argc, char** argv)
{
    int sockfd;
    struct sockaddr_in servaddr;
    char sendline[MAXUDP];
    int i;
    int j;
    const int tr_size = ( 10000 * 1024*1024 );
    const int npackets = ( tr_size / MAXUDP );
    const int neval = 2;

    int optval;

    bzero(&servaddr, sizeof(servaddr));
    servaddr.sin_family = AF_INET;
    servaddr.sin_port = htons(SERV_PORT);

        servaddr.sin_addr.s_addr = inet_addr("10.0.1.2");

    sockfd = socket(AF_INET, SOCK_DGRAM, 0);


    connect(sockfd, (const sockaddr*) &servaddr, sizeof(servaddr));


    optval = 208*1024;
    setsockopt(sockfd, SOL_SOCKET, SO_SNDBUF, (const char*) &optval, sizeof optval);
    long int start = 0, end = 0;
    for ( i = 1; i <= neval; i++ )
    {
        start = getCurTimeInMs();
        for ( j = 0; j < npackets/neval; j++ )
            sendto(sockfd, sendline, MAXUDP, 0, NULL, NULL);
        end = getCurTimeInMs() - start;

        printf("Time elapsed: %d sec.\n", end/1000);
        printf("Throughput: %d.%3d MB/s\n", (tr_size/neval)/end/1000 * 8, (tr_size/neval)/end - (tr_size/neval)/end/1000);

    }
    return 0;
}

答案 1 :(得分:0)

为什么要定义MAXUDP 1470?尝试将其设置为65535,再次测量并在此处报告。

您不应该将以太网帧大小(1500字节)与UDP数据报大小混淆。不同的东西。让IP堆栈执行必要的碎片而不是您的应用程序。这可能更有效率。