直接访问用户空间页面的物理地址后,DMA / Microblaze读取不正确的数据(内核散布/收集)

时间:2015-08-18 20:56:30

标签: caching kernel fpga dma pci

我想要实现的是通过PCIe在FPGA板上的DMA内核直接访问用户空间中的内存块(不受内核的任何干扰)。

为了做到这一点,我在用户空间中使用 posix_memalign()在用户空间中分配一块内存(4M),然后通过写操作将其虚拟地址传递给内核。 p>

在内核中,我使用下面的代码获取用户空间内存块的所有页面,以便创建Scatter / Gather列表并获取每个页面的所有物理地址:

static ssize_t  posix_memory_write(struct file *file, const char __user *buffer, size_t count, loff_t *off)
{

    int repeat;
    int temporary_point;

    int buffer_mapped_pages;
    int sg_table_value;

    int buffer_dma_buffers = 0;

    u32 *u32_posix_buffer = NULL;

    int buffer_entries = count / PAGE_SIZE;

    struct page **buffer_page_array;

    dma_addr_t *dma_address_list_pointer;
    int *dma_length_list_pointer;

    struct sg_table *dma_sg_table;
    struct scatterlist *scatterlist_pointer;

    if(posix_buffer != NULL)
    {
        printk(KERN_ALERT "%s [DEBUG MESSAGE-POSIX MEMORY WRITE] Buffer's Virtual Address is 0x%016lX\n", driver_name, (unsigned long)posix_buffer);


        u32_posix_buffer = (u32 *)posix_buffer;


        for(repeat = 0; repeat < 16; repeat++)
        {
            printk(KERN_ALERT "%s [DEBUG MESSAGE-POSIX MEMORY WRITE] Buffer Data: %d\n", driver_name, u32_posix_buffer[repeat]);
        }

        buffer_page_array = kmalloc(sizeof(struct page *) * buffer_entries, GFP_KERNEL);

        down_read(&current->mm->mmap_sem);

        buffer_mapped_pages = get_user_pages(current, current->mm, (unsigned long)(posix_buffer), buffer_entries, 1, 0, buffer_page_array, NULL);


        printk(KERN_ALERT "%s [DEBUG MESSAGE-POSIX MEMORY WRITE] Buffer Mapped Pages %d\n", driver_name, buffer_mapped_pages);


        for(repeat = 0; repeat < buffer_mapped_pages; repeat++) 
        {
            if (!PageReserved(buffer_page_array[repeat]))
            {
                SetPageDirty(buffer_page_array[repeat]);
            }
            page_cache_release(buffer_page_array[repeat]);

        }

        up_read(&current->mm->mmap_sem);

        dma_sg_table = kmalloc(sizeof(struct sg_table), GFP_KERNEL);


        sg_table_value = sg_alloc_table(dma_sg_table, buffer_mapped_pages, GFP_KERNEL);


        printk(KERN_ALERT "%s [DEBUG MESSAGE-POSIX MEMORY WRITE] Scatter/Gather Table Return Value %d\n", driver_name, sg_table_value);

        scatterlist_pointer = dma_sg_table->sgl;    

        for(repeat = 0; repeat < buffer_mapped_pages; repeat++)
        {
            sg_set_page(scatterlist_pointer, buffer_page_array[repeat], PAGE_SIZE, 0);
            scatterlist_pointer = sg_next(scatterlist_pointer);
        }


        scatterlist_pointer = dma_sg_table->sgl;

        buffer_dma_buffers = dma_map_sg(&dev->dev, scatterlist_pointer, buffer_mapped_pages, DMA_BIDIRECTIONAL);


        printk(KERN_ALERT "%s [DEBUG MESSAGE-POSIX MEMORY WRITE] DMA Buffers are: %d\n", driver_name, buffer_dma_buffers);

        dma_address_list_pointer = (dma_addr_t *)kmalloc(sizeof(dma_addr_t) * buffer_dma_buffers, GFP_KERNEL);
        dma_length_list_pointer = (int *)kmalloc(sizeof(int) * buffer_dma_buffers, GFP_KERNEL);


        for(repeat = 0; repeat < buffer_dma_buffers; repeat++)
        {
            dma_address_list_pointer[repeat] = sg_dma_address(scatterlist_pointer);
            dma_length_list_pointer[repeat] = sg_dma_len(scatterlist_pointer);


            scatterlist_pointer = sg_next(scatterlist_pointer);

            printk(KERN_ALERT "%s [DEBUG MESSAGE-POSIX MEMORY WRITE] Buffer Page %d DMA Physical Address is: 0x%016lX [SIZE %d Bytes]\n", driver_name, repeat, (unsigned long)dma_address_list_pointer[repeat], dma_length_list_pointer[repeat]);

        }   


        scatterlist_pointer = dma_sg_table->sgl;

        //pci_dma_sync_sg_for_device(dev, scatterlist_pointer, buffer_dma_buffers, DMA_TO_DEVICE);


        for(repeat = 0; repeat < buffer_mapped_pages; repeat++) 
        {
            writel(dma_address_list_pointer[repeat], (u32 *)bar1_address_virtual + repeat);
        }

        temporary_point = repeat;

        for(repeat = 0; repeat < buffer_mapped_pages; repeat++) 
        {
            writel(dma_length_list_pointer[repeat], (u32 *)bar1_address_virtual + repeat + temporary_point);
        }       

        write_remote_register(bar0_address_virtual, BAR0_OFFSET_GPIO_NOTIFIER + ZERO_OFFSET, (u32) (OPERATION_SET_DMA_ADDRESS_LENGTH_ARRAY_SIZE | buffer_dma_buffers));

}

使用4M用户空间内存块,似乎可以正确获取1024个页面中每个页面的所有物理地址(页面大小为4096字节)。

然后我将这些地址写入FPGA中的BRAM存储器。

DMA内核和Microblaze处理器都使用这些地址来读取已分配先前内存块的用户空间应用程序已写入的数据。

但由于某些原因,DMA / Microblaze的读取操作不正确。

存储在用户空间内存块中的数据是连续的增加值(11,12,13,14,15,16 ......,234,235等)。

每当我从一个页面的物理地址读取时,似乎我得到了一些这样的连续值,这使我相信我得到了正确的数据。

问题在于,我为所有访问的页面获得了完全相同的连续增加值。

我的情况可能有什么问题?这可能是缓存一致性问题吗?

1 个答案:

答案 0 :(得分:0)

我维护一个名为portalmem的驱动程序,它允许用户空间通过PCIe和AXI与FPGA共享内存。 (https://github.com/cambridgehackers/connectal/blob/master/drivers/portalmem/portalmem.c

portalmem驱动程序在内核中分配内存并提供dma_buf文件描述符,以便应用程序可以mmap()它。

pcie和zynq驱动程序使用dma_buf文件描述符访问分散收集列表,以便将dma地址传递给FPGA。

我注意到的一件事是使用sg_dma_len而不是sg-&gt;长度。如果我没记错的话,至少在我们的一个配置中sg_dma_len为0,但sg-&gt; length的值正确。我们的驱动程序使用sg-&gt;长度而不是sg_dma_len()。

因为portalmem对硬件一无所知,所以可以将它与FPGA驱动程序结合使用。

另一个非常有用的调试方法是跟踪PCIe请求输出和响应返回,这样您就可以确切地看到您正在读取或写入的物理地址。您可以使用集成逻辑分析仪。我包含一个缓冲区,用于捕获最近的2K PCIe TLP(具有周期级时间戳的事务级别数据包)。这对于调试功能和性能非常有用。