NFE_TX_RING_COUNT  587 dev/pci/if_nfe.c 	    (caddr_t)&sc->txq.desc32[NFE_TX_RING_COUNT] -
NFE_TX_RING_COUNT  608 dev/pci/if_nfe.c 	    (caddr_t)&sc->txq.desc64[NFE_TX_RING_COUNT] -
NFE_TX_RING_COUNT  865 dev/pci/if_nfe.c 		sc->txq.next = (sc->txq.next + 1) % NFE_TX_RING_COUNT;
NFE_TX_RING_COUNT  896 dev/pci/if_nfe.c 	if (sc->txq.queued + map->dm_nsegs >= NFE_TX_RING_COUNT - 1) {
NFE_TX_RING_COUNT  955 dev/pci/if_nfe.c 		sc->txq.cur = (sc->txq.cur + 1) % NFE_TX_RING_COUNT;
NFE_TX_RING_COUNT 1094 dev/pci/if_nfe.c 	    (NFE_TX_RING_COUNT - 1));
NFE_TX_RING_COUNT 1518 dev/pci/if_nfe.c 	error = bus_dmamap_create(sc->sc_dmat, NFE_TX_RING_COUNT * descsize, 1,
NFE_TX_RING_COUNT 1519 dev/pci/if_nfe.c 	    NFE_TX_RING_COUNT * descsize, 0, BUS_DMA_NOWAIT, &ring->map);
NFE_TX_RING_COUNT 1527 dev/pci/if_nfe.c 	error = bus_dmamem_alloc(sc->sc_dmat, NFE_TX_RING_COUNT * descsize,
NFE_TX_RING_COUNT 1536 dev/pci/if_nfe.c 	    NFE_TX_RING_COUNT * descsize, (caddr_t *)desc, BUS_DMA_NOWAIT);
NFE_TX_RING_COUNT 1544 dev/pci/if_nfe.c 	    NFE_TX_RING_COUNT * descsize, NULL, BUS_DMA_NOWAIT);
NFE_TX_RING_COUNT 1551 dev/pci/if_nfe.c 	bzero(*desc, NFE_TX_RING_COUNT * descsize);
NFE_TX_RING_COUNT 1554 dev/pci/if_nfe.c 	for (i = 0; i < NFE_TX_RING_COUNT; i++) {
NFE_TX_RING_COUNT 1577 dev/pci/if_nfe.c 	for (i = 0; i < NFE_TX_RING_COUNT; i++) {
NFE_TX_RING_COUNT 1621 dev/pci/if_nfe.c 		    NFE_TX_RING_COUNT * descsize);
NFE_TX_RING_COUNT 1625 dev/pci/if_nfe.c 	for (i = 0; i < NFE_TX_RING_COUNT; i++) {
NFE_TX_RING_COUNT 1637 dev/pci/if_nfe.c 	for (i = 0; i < NFE_TX_RING_COUNT; i++) {
NFE_TX_RING_COUNT   31 dev/pci/if_nfereg.h #define NFE_MAX_SCATTER		(NFE_TX_RING_COUNT - 2)
NFE_TX_RING_COUNT   33 dev/pci/if_nfevar.h 	struct nfe_tx_data	data[NFE_TX_RING_COUNT];