1

我正在为 Xilinx Virtex 6 PCIe 定制板开发设备驱动程序。在进行 DMA 写入(从主机到设备)时,会发生以下情况:

用户空间应用程序:

a. fill buffer with the following byte pattern (tested up to 16kB)
    00 00 .. 00 (64bytes)
    01 01 .. 00 (64bytes)
    ...
    ff ff .. ff (64bytes)
    00 00 .. 00 (64bytes)
    01 01 .. 00 (64bytes)
    etc

b. call custom ioctl to pass pointer to buffer and size

内核空间:

a. retrieve buffer (bufp) with 
    copy_from_user(ptdev->kbuf, bufp, cnt)
b. setup and start DMA 
    b1. //setup physical address
        iowrite32(cpu_to_be32((u32) ptdev->kbuf_dma_addr),
            ptdev->region0 + TDO_DMA_HOST_ADDR);
    b2. //setup transfer size
        iowrite32(cpu_to_be32( ((cnt+3)/4)*4 ), 
            ptdev->region0 + TDO_DMA_BYTELEN);
    b3. //memory barrier to make sure kbuf is in memorry
        mb(); 
    //start dma
    b4. iowrite32(cpu_to_be32(TDO_DMA_H2A | TDO_DMA_BURST_FIXED | TDO_DMA_START),
                ptdev->region0 + TDO_DMA_CTL_STAT);
c. put process to sleep
    wait_res = wait_event_interruptible_timeout(ptdev->dma_queue, 
                            !(tdo_dma_busy(ptdev, &dma_stat)), 
                            timeout);
d. check wait_res result and dma status register and return

Note that the kernel buffer is allocated once at device probe with:
ptdev->kbuf = pci_alloc_consistent(dev, ptdev->kbuf_size, --512kB
                                &ptdev->kbuf_dma_addr);

设备 pcie TLP 转储(通过 Xilinx 内核后的逻辑分析仪获得):

a. TLP received (by the device)
 a1. 40000001 0000000F F7C04808 37900000 (MWr corresponds to b1 above)
 a1. 40000001 0000000F F7C0480C 00000FF8 (MWr corresponds to b2 above)
 a1. 40000001 0000000F F7C04800 00010011 (MWr corresponds to b4 above)

b. TLP sent (by the device)
 b1. 00000080 010000FF 37900000 (MRd 80h DW @ addr 37900000h)
 b2. 00000080 010000FF 37900200 (MRd 80h DW @ addr 37900200h)
 b3. 00000080 010000FF 37900400 (MRd 80h DW @ addr 37900400h)
 b4. 00000080 010000FF 37900600 (MRd 80h DW @ addr 37900600h)
...

c. TLP received (by the device)
 c1. 4A000020 00000080 01000000 00 00 .. 00 01 01 .. 01 CplD 128B
 c2. 4A000020 00000080 01000000 02 02 .. 02 03 03 .. 03 CplD 128B
 c3. 4A000020 00000080 01000000 04 04 .. 04 05 05 .. 05 CplD 128B 
 c4. 4A000020 00000080 01000000 06 06 .. 0A 0A 0A .. 0A CplD 128B  <= 
 c5. 4A000010 00000040 01000040 07 07 .. 07             CplD  64B  <= 
 c6. 4A000010 00000040 01000040 0B 0B .. 0B             CplD  64B  <= 
 c7. 4A000020 00000080 01000000 08 08 .. 08 09 09 .. 09 CplD 128B  <= 
 c8. 4A000020 00000080 01000000 0C 0C .. 0C 0D 0D .. 0D CplD 128B 
.. the remaining bytes are transfered correctly and 
the total number of bytes (FF8h) matches the requested size
signal interrupt

现在,这种明显的内存排序错误发生的概率很高(0.8 < p < 1),并且排序不匹配发生在传输中的不同随机点。

编辑:请注意,上面的 c4 点表明内核驱动程序没有以正确的顺序填充内存(我想内存控制器用连续内存填充 TLP)。64B 是缓存行大小,这可能与缓存操作有关。

当我禁用内核缓冲区上的缓存时,

echo "base=0xaf180000 size=0x00008000 type=uncachable" > /proc/mtrr

错误仍然发生,但很少发生(p < 0.1,取决于传输大小)

这只发生在基于 i7-4770 (Haswell) 的机器上(在 3 台相同的机器上测试,带有 3 个板)。我尝试了内核 2.6.32 (RH6.5)、stock 3.10.28 和 stock 3.13.1,结果相同。

我在基于 i7-610 QM57 的机器和 Xeon 5400 机器上尝试了代码和设备,没有任何问题。

欢迎任何想法/建议。

此致

克劳迪奥

4

3 回答 3

2

在提供的示例中,所有 MemRd TLP 都具有相同的 TAG。如果您还没有收到与此 TAG 对应的最后一个 CplD,则您不能使用相同的 TAG。因此,如果您发送 MemRd,请等到您获得带有此标签的 CplD 并再次触发 MemRd,您的所有数据都将井然有序(但在这种情况下,总线利用率会很低,并且您无法获得高带宽占用)。

还要读这个pci_alloc_consistent uncached memory。它不喜欢作为您平台上的缓存问题。我最好调试设备核心。

于 2017-01-24T12:02:25.157 回答
2

我知道这是一个旧线程,但“错误”的原因是完成重新排序。不必按顺序回答多个未完成的读取请求。完成只是为了相同的请求。最重要的是:总是为请求分配相同的标签,如果请求同时处于活动状态,则这是非法的。

于 2016-03-16T12:32:20.550 回答
1

QM57 支持 PCIe 2.0

而我想 i7-4770 机器的主板支持 PCIe 3.0

我怀疑 PCIe 3.0 主板和您的 V6 设备(PCIe 2.0 也是)之间可能存在某种协商失败

于 2014-02-07T17:02:58.030 回答