我正在为Xilinx Virtex 6 PCIe定制板开发设备驱动程序。 在进行DMA写操作时(从主机到设备),会发生以下情况:
用户空间应用:
a. fill buffer with the following byte pattern (tested up to 16kB)
00 00 .. 00 (64bytes)
01 01 .. 00 (64bytes)
...
ff ff .. ff (64bytes)
00 00 .. 00 (64bytes)
01 01 .. 00 (64bytes)
etc
b. call custom ioctl to pass pointer to buffer and size
内核空间:
a. retrieve buffer (bufp) with
copy_from_user(ptdev->kbuf, bufp, cnt)
b. setup and start DMA
b1. //setup physical address
iowrite32(cpu_to_be32((u32) ptdev->kbuf_dma_addr),
ptdev->region0 + TDO_DMA_HOST_ADDR);
b2. //setup transfer size
iowrite32(cpu_to_be32( ((cnt+3)/4)*4 ),
ptdev->region0 + TDO_DMA_BYTELEN);
b3. //memory barrier to make sure kbuf is in memorry
mb();
//start dma
b4. iowrite32(cpu_to_be32(TDO_DMA_H2A | TDO_DMA_BURST_FIXED | TDO_DMA_START),
ptdev->region0 + TDO_DMA_CTL_STAT);
c. put process to sleep
wait_res = wait_event_interruptible_timeout(ptdev->dma_queue,
!(tdo_dma_busy(ptdev, &dma_stat)),
timeout);
d. check wait_res result and dma status register and return
Note that the kernel buffer is allocated once at device probe with:
ptdev->kbuf = pci_alloc_consistent(dev, ptdev->kbuf_size, --512kB
&ptdev->kbuf_dma_addr);
设备pcie TLP转储(通过Xilinx核心之后的逻辑分析仪获得):
a. TLP received (by the device)
a1. 40000001 0000000F F7C04808 37900000 (MWr corresponds to b1 above)
a1. 40000001 0000000F F7C0480C 00000FF8 (MWr corresponds to b2 above)
a1. 40000001 0000000F F7C04800 00010011 (MWr corresponds to b4 above)
b. TLP sent (by the device)
b1. 00000080 010000FF 37900000 (MRd 80h DW @ addr 37900000h)
b2. 00000080 010000FF 37900200 (MRd 80h DW @ addr 37900200h)
b3. 00000080 010000FF 37900400 (MRd 80h DW @ addr 37900400h)
b4. 00000080 010000FF 37900600 (MRd 80h DW @ addr 37900600h)
...
c. TLP received (by the device)
c1. 4A000020 00000080 01000000 00 00 .. 00 01 01 .. 01 CplD 128B
c2. 4A000020 00000080 01000000 02 02 .. 02 03 03 .. 03 CplD 128B
c3. 4A000020 00000080 01000000 04 04 .. 04 05 05 .. 05 CplD 128B
c4. 4A000020 00000080 01000000 06 06 .. 0A 0A 0A .. 0A CplD 128B <=
c5. 4A000010 00000040 01000040 07 07 .. 07 CplD 64B <=
c6. 4A000010 00000040 01000040 0B 0B .. 0B CplD 64B <=
c7. 4A000020 00000080 01000000 08 08 .. 08 09 09 .. 09 CplD 128B <=
c8. 4A000020 00000080 01000000 0C 0C .. 0C 0D 0D .. 0D CplD 128B
.. the remaining bytes are transfered correctly and
the total number of bytes (FF8h) matches the requested size
signal interrupt
现在,这种明显的存储器排序错误以高概率(0.8
编辑:请注意,上面的c4点表示内核驱动程序没有以正确的顺序填充内存(我想内存控制器用连续的内存填充TLP)。 64B是高速缓存行大小,这可能与高速缓存操作有关。
当我使用
禁用内核缓冲区上的缓存时echo "base=0xaf180000 size=0x00008000 type=uncachable" > /proc/mtrr
错误仍然发生但更少(p <0.1并且取决于传输大小)
这仅发生在基于i7-4770(Haswell)的机器上(在3台相同的机器上测试,有3块板)。 我尝试了内核2.6.32(RH6.5),库存3.10.28和库存3.13.1,结果相同。
我在基于i7-610 QM57的机器和Xeon 5400机器上尝试了代码和设备,没有任何问题。
欢迎任何想法/建议。
祝你好运
克劳迪奥
答案 0 :(得分:1)
我知道这是一个旧线程,但“错误”的原因是完成重新排序。无需按顺序回答多个未完成的读取请求。完成仅适用于相同的请求。 最重要的是:总是为请求分配相同的标签,如果请求同时处于活动状态,这是非法的。
答案 1 :(得分:1)
在提供的示例中,所有MemRd TLP都具有相同的TAG。如果您未使用此TAG收到最后一个相应的CplD,则无法使用相同的TAG。因此,如果您发送MemRd,请等到您使用此标记获得CplD并再次激活MemRd所有数据都将按顺序排列(但在这种情况下,总线利用率很低,您无法获得高带宽占用)。
另请阅读此pci_alloc_consistent uncached memory。它不喜欢您平台上的缓存问题。我最好调试设备核心。
答案 2 :(得分:0)
QM57支持PCIe 2.0
虽然我想i7-4770机器的主板支持PCIe 3.0
我怀疑PCIe 3.0主板和你的V6设备之间可能存在某种协商失败(也是PCIe 2.0)