NFE_TX_RING_COUNT 587 dev/pci/if_nfe.c (caddr_t)&sc->txq.desc32[NFE_TX_RING_COUNT] - NFE_TX_RING_COUNT 608 dev/pci/if_nfe.c (caddr_t)&sc->txq.desc64[NFE_TX_RING_COUNT] - NFE_TX_RING_COUNT 865 dev/pci/if_nfe.c sc->txq.next = (sc->txq.next + 1) % NFE_TX_RING_COUNT; NFE_TX_RING_COUNT 896 dev/pci/if_nfe.c if (sc->txq.queued + map->dm_nsegs >= NFE_TX_RING_COUNT - 1) { NFE_TX_RING_COUNT 955 dev/pci/if_nfe.c sc->txq.cur = (sc->txq.cur + 1) % NFE_TX_RING_COUNT; NFE_TX_RING_COUNT 1094 dev/pci/if_nfe.c (NFE_TX_RING_COUNT - 1)); NFE_TX_RING_COUNT 1518 dev/pci/if_nfe.c error = bus_dmamap_create(sc->sc_dmat, NFE_TX_RING_COUNT * descsize, 1, NFE_TX_RING_COUNT 1519 dev/pci/if_nfe.c NFE_TX_RING_COUNT * descsize, 0, BUS_DMA_NOWAIT, &ring->map); NFE_TX_RING_COUNT 1527 dev/pci/if_nfe.c error = bus_dmamem_alloc(sc->sc_dmat, NFE_TX_RING_COUNT * descsize, NFE_TX_RING_COUNT 1536 dev/pci/if_nfe.c NFE_TX_RING_COUNT * descsize, (caddr_t *)desc, BUS_DMA_NOWAIT); NFE_TX_RING_COUNT 1544 dev/pci/if_nfe.c NFE_TX_RING_COUNT * descsize, NULL, BUS_DMA_NOWAIT); NFE_TX_RING_COUNT 1551 dev/pci/if_nfe.c bzero(*desc, NFE_TX_RING_COUNT * descsize); NFE_TX_RING_COUNT 1554 dev/pci/if_nfe.c for (i = 0; i < NFE_TX_RING_COUNT; i++) { NFE_TX_RING_COUNT 1577 dev/pci/if_nfe.c for (i = 0; i < NFE_TX_RING_COUNT; i++) { NFE_TX_RING_COUNT 1621 dev/pci/if_nfe.c NFE_TX_RING_COUNT * descsize); NFE_TX_RING_COUNT 1625 dev/pci/if_nfe.c for (i = 0; i < NFE_TX_RING_COUNT; i++) { NFE_TX_RING_COUNT 1637 dev/pci/if_nfe.c for (i = 0; i < NFE_TX_RING_COUNT; i++) { NFE_TX_RING_COUNT 31 dev/pci/if_nfereg.h #define NFE_MAX_SCATTER (NFE_TX_RING_COUNT - 2) NFE_TX_RING_COUNT 33 dev/pci/if_nfevar.h struct nfe_tx_data data[NFE_TX_RING_COUNT];