是否有可能在c ++中使用Raspberry Pi相机v4l2获得良好的FPS?

时间:2015-04-17 16:13:13

标签: c++ linux raspberry-pi v4l2 raspberry-pi2

我正在尝试使用带有Raspberry Pi相机的官方V4L2驱动程序在Raspberry Pi上流式传输视频,来自C ++ on raspbian(2015-02发布),并且我的FPS问题很少。

目前我只是创建一个窗口并将缓冲区复制到屏幕(大约需要30ms),而select()需要大约140ms(总共5-6 fps)。我也试过睡眠100毫秒,它将select()时间缩短了相似的数量(导致相同的fps)。 CPU负载约为5-15%。

我也尝试从控制台(或system())更改驱动程序fps,但它只能向下工作(例如,如果我将驱动程序fps设置为1fps,我将获得1fps但是如果我将其设置为90fps我仍然得到5-6fps,即使驱动程序确认将其设置为90fps)。 此外,当查询使用分辨率的FPS模式时,我得到90fps。

我包含了与V4L2相关的代码部分(不同部分之间省略了代码):     

//////////////////
// Open device
//////////////////
mFD = open(mDevName, O_RDWR | O_NONBLOCK, 0);
if (mFD == -1) ErrnoExit("Open device failed");

//////////////////
// Setup format
//////////////////
struct v4l2_format fmt;
memset(&fmt, 0, sizeof(fmt));
fmt.fmt.pix.pixelformat = V4L2_PIX_FMT_YUYV;
fmt.type = V4L2_BUF_TYPE_VIDEO_CAPTURE;
Xioctl(VIDIOC_G_FMT, &fmt);
mImgWidth = fmt.fmt.pix.width;
mImgHeight = fmt.fmt.pix.height;
cout << "width=" << mImgWidth << " height=" << mImgHeight << "\nbytesperline=" << fmt.fmt.pix.bytesperline << " sizeimage=" << fmt.fmt.pix.sizeimage << "\n";
// For some reason querying the format always sets pixelformat to JPEG
//  no matter the input, so set it back to YUYV
fmt.fmt.pix.pixelformat = V4L2_PIX_FMT_YUYV;
if (Xioctl(VIDIOC_S_FMT, &fmt) == -1)
{
    cout << "Set video format failed : " << strerror(errno) << "\n";
}

//////////////////
// Setup streaming
//////////////////
struct v4l2_requestbuffers req;

memset(&req, 0, sizeof(req));

req.count = 20;
req.type = V4L2_BUF_TYPE_VIDEO_CAPTURE;
req.memory = V4L2_MEMORY_MMAP;

if (-1 == Xioctl(VIDIOC_REQBUFS, &req))
{
    ErrnoExit("Reqbufs");
}
if (req.count < 2)
    throw "Not enough buffer memory !";
mNBuffers = req.count;
mBuffers = new CBuffer[mNBuffers];
if (!mBuffers) throw "Out of memory !";

for (unsigned int i = 0; i < mNBuffers; i++)
{
    struct v4l2_buffer buf;
    memset(&buf, 0, sizeof(buf));
    buf.type = V4L2_BUF_TYPE_VIDEO_CAPTURE;
    buf.memory = V4L2_MEMORY_MMAP;

    buf.index = i;

    if (-1 == Xioctl(VIDIOC_QUERYBUF, &buf))
        ErrnoExit("Querybuf");

    mBuffers[i].mLength = buf.length;
    mBuffers[i].pStart = mmap(NULL, buf.length, PROT_READ | PROT_WRITE, MAP_SHARED, mFD, buf.m.offset);

    if (mBuffers[i].pStart == MAP_FAILED)
        ErrnoExit("mmap");
}

//////////////////
// Start streaming
//////////////////
unsigned int i;
enum v4l2_buf_type type;
struct v4l2_buffer buf;

for (i = 0; i < mNBuffers; i++)
{
    memset(&buf, 0, sizeof(buf));

    buf.type = V4L2_BUF_TYPE_VIDEO_CAPTURE;
    buf.memory = V4L2_MEMORY_MMAP;
    buf.index = i;

    if (-1 == Xioctl(VIDIOC_QBUF, &buf))
        ErrnoExit("QBUF");
}
type = V4L2_BUF_TYPE_VIDEO_CAPTURE;

if (-1==Xioctl(VIDIOC_STREAMON, &type))
    ErrnoExit("STREAMON");

主循环中的最后两部分:

//////////////////
// Get frame
//////////////////
FD_ZERO(&fds);
    FD_SET(mFD, &fds);
    tv.tv_sec = 3;
    tv.tv_usec = 0;

    struct timespec t0, t1;

    clock_gettime(CLOCK_REALTIME, &t0);

    // This line takes about 140ms which I don't get
    r = select(mFD + 1, &fds, NULL, NULL, &tv);

    clock_gettime(CLOCK_REALTIME, &t1);

    cout << "select time : " << ((float)(t1.tv_sec - t0.tv_sec))*1000.0f + ((float)(t1.tv_nsec - t0.tv_nsec))/1000000.0f << "\n";

    if (-1 == r)
    {
        if (EINTR == errno)
            continue;
        ErrnoExit("select");
    }

    if (r == 0)
        throw "Select timeout\n";

    // Read the frame
    //~ struct v4l2_buffer buf;
    memset(&mCurBuf, 0, sizeof(mCurBuf));
    mCurBuf.type = V4L2_BUF_TYPE_VIDEO_CAPTURE;
    mCurBuf.memory = V4L2_MEMORY_MMAP;

    // DQBUF about 2ms
    if (-1 == Xioctl(VIDIOC_DQBUF, &mCurBuf))
    {
        if (errno == EAGAIN) continue;
        ErrnoExit("DQBUF");
    }

    clock_gettime(CLOCK_REALTIME, &mCaptureTime);

    // Manage frame in mBuffers[buf.index]
    mCurBufIndex = mCurBuf.index;

    break;
}

//////////////////
// Release frame
//////////////////
if (-1 == Xioctl(VIDIOC_QBUF, &mCurBuf))
    ErrnoExit("VIDIOC_QBUF during mainloop");

2 个答案:

答案 0 :(得分:1)

我一直在研究使用picamera的各种方法,我几乎不是专家,但看起来默认的相机设置会阻碍你。有许多模式和开关。我不知道他们是通过ioctls暴露还是如何暴露,我刚刚开始。但我不得不使用一个名为v4l-ctl的程序来为我想要的模式做好准备。深入了解该来源和一些代码提升应该可以让您实现伟大。哦,我怀疑选择调用是一个问题,它只是在等待描述符,它很慢变得可读。根据模式等,可以强制等待自动曝光等。 编辑:我打算说“默认设置”,因为你已经改变了一些。还有一些规则没有在驱动程序中编纂。

答案 1 :(得分:-1)

像素格式很重要。我遇到了类似的低fps问题,我花了一些时间使用V4L2 API在Go和C ++中使用我的程序进行测试。我发现,Rpi Cam Module与H.264 / MJPG pixelformat具有良好的相关性。我可以轻松获得640 * 480的60fps,与YUYV / RGB等非压缩格式相同。但是JPEG运行速度很慢。我只能在320 * 240时获得4fps。我还发现JPEG的电流更高(> 700mA),而H.264 / MJPG则为500mA。