IWI_TX_RING_COUNT  475 dev/pci/if_iwi.c 	    sizeof (struct iwi_tx_desc) * IWI_TX_RING_COUNT, 1,
IWI_TX_RING_COUNT  476 dev/pci/if_iwi.c 	    sizeof (struct iwi_tx_desc) * IWI_TX_RING_COUNT, 0, BUS_DMA_NOWAIT,
IWI_TX_RING_COUNT  485 dev/pci/if_iwi.c 	    sizeof (struct iwi_tx_desc) * IWI_TX_RING_COUNT, PAGE_SIZE, 0,
IWI_TX_RING_COUNT  494 dev/pci/if_iwi.c 	    sizeof (struct iwi_tx_desc) * IWI_TX_RING_COUNT,
IWI_TX_RING_COUNT  503 dev/pci/if_iwi.c 	    sizeof (struct iwi_tx_desc) * IWI_TX_RING_COUNT, NULL,
IWI_TX_RING_COUNT  511 dev/pci/if_iwi.c 	bzero(ring->desc, sizeof (struct iwi_tx_desc) * IWI_TX_RING_COUNT);
IWI_TX_RING_COUNT  513 dev/pci/if_iwi.c 	for (i = 0; i < IWI_TX_RING_COUNT; i++) {
IWI_TX_RING_COUNT  537 dev/pci/if_iwi.c 	for (i = 0; i < IWI_TX_RING_COUNT; i++) {
IWI_TX_RING_COUNT  561 dev/pci/if_iwi.c 			    sizeof (struct iwi_tx_desc) * IWI_TX_RING_COUNT);
IWI_TX_RING_COUNT  567 dev/pci/if_iwi.c 	for (i = 0; i < IWI_TX_RING_COUNT; i++) {
IWI_TX_RING_COUNT 1155 dev/pci/if_iwi.c 		txq->next = (txq->next + 1) % IWI_TX_RING_COUNT;
IWI_TX_RING_COUNT 1390 dev/pci/if_iwi.c 	txq->cur = (txq->cur + 1) % IWI_TX_RING_COUNT;
IWI_TX_RING_COUNT 1412 dev/pci/if_iwi.c 		if (sc->txq[0].queued >= IWI_TX_RING_COUNT - 8) {
IWI_TX_RING_COUNT 2205 dev/pci/if_iwi.c 	CSR_WRITE_4(sc, IWI_CSR_TX1_SIZE, IWI_TX_RING_COUNT);
IWI_TX_RING_COUNT 2209 dev/pci/if_iwi.c 	CSR_WRITE_4(sc, IWI_CSR_TX2_SIZE, IWI_TX_RING_COUNT);
IWI_TX_RING_COUNT 2213 dev/pci/if_iwi.c 	CSR_WRITE_4(sc, IWI_CSR_TX3_SIZE, IWI_TX_RING_COUNT);
IWI_TX_RING_COUNT 2217 dev/pci/if_iwi.c 	CSR_WRITE_4(sc, IWI_CSR_TX4_SIZE, IWI_TX_RING_COUNT);
IWI_TX_RING_COUNT   80 dev/pci/if_iwivar.h 	struct iwi_tx_data	data[IWI_TX_RING_COUNT];