IWI_TX_RING_COUNT 475 dev/pci/if_iwi.c sizeof (struct iwi_tx_desc) * IWI_TX_RING_COUNT, 1, IWI_TX_RING_COUNT 476 dev/pci/if_iwi.c sizeof (struct iwi_tx_desc) * IWI_TX_RING_COUNT, 0, BUS_DMA_NOWAIT, IWI_TX_RING_COUNT 485 dev/pci/if_iwi.c sizeof (struct iwi_tx_desc) * IWI_TX_RING_COUNT, PAGE_SIZE, 0, IWI_TX_RING_COUNT 494 dev/pci/if_iwi.c sizeof (struct iwi_tx_desc) * IWI_TX_RING_COUNT, IWI_TX_RING_COUNT 503 dev/pci/if_iwi.c sizeof (struct iwi_tx_desc) * IWI_TX_RING_COUNT, NULL, IWI_TX_RING_COUNT 511 dev/pci/if_iwi.c bzero(ring->desc, sizeof (struct iwi_tx_desc) * IWI_TX_RING_COUNT); IWI_TX_RING_COUNT 513 dev/pci/if_iwi.c for (i = 0; i < IWI_TX_RING_COUNT; i++) { IWI_TX_RING_COUNT 537 dev/pci/if_iwi.c for (i = 0; i < IWI_TX_RING_COUNT; i++) { IWI_TX_RING_COUNT 561 dev/pci/if_iwi.c sizeof (struct iwi_tx_desc) * IWI_TX_RING_COUNT); IWI_TX_RING_COUNT 567 dev/pci/if_iwi.c for (i = 0; i < IWI_TX_RING_COUNT; i++) { IWI_TX_RING_COUNT 1155 dev/pci/if_iwi.c txq->next = (txq->next + 1) % IWI_TX_RING_COUNT; IWI_TX_RING_COUNT 1390 dev/pci/if_iwi.c txq->cur = (txq->cur + 1) % IWI_TX_RING_COUNT; IWI_TX_RING_COUNT 1412 dev/pci/if_iwi.c if (sc->txq[0].queued >= IWI_TX_RING_COUNT - 8) { IWI_TX_RING_COUNT 2205 dev/pci/if_iwi.c CSR_WRITE_4(sc, IWI_CSR_TX1_SIZE, IWI_TX_RING_COUNT); IWI_TX_RING_COUNT 2209 dev/pci/if_iwi.c CSR_WRITE_4(sc, IWI_CSR_TX2_SIZE, IWI_TX_RING_COUNT); IWI_TX_RING_COUNT 2213 dev/pci/if_iwi.c CSR_WRITE_4(sc, IWI_CSR_TX3_SIZE, IWI_TX_RING_COUNT); IWI_TX_RING_COUNT 2217 dev/pci/if_iwi.c CSR_WRITE_4(sc, IWI_CSR_TX4_SIZE, IWI_TX_RING_COUNT); IWI_TX_RING_COUNT 80 dev/pci/if_iwivar.h struct iwi_tx_data data[IWI_TX_RING_COUNT];