txidx 708 dev/ic/aic6915.c int consumer, producer, txidx; txidx 726 dev/ic/aic6915.c txidx = SF_TCD_INDEX_TO_HOST(TCD_INDEX(tcd)); txidx 730 dev/ic/aic6915.c sc->sc_dev.dv_xname, txidx); txidx 737 dev/ic/aic6915.c ds = &sc->sc_txsoft[txidx]; txidx 738 dev/ic/aic6915.c SF_CDTXDSYNC(sc, txidx, BUS_DMASYNC_POSTWRITE); txidx 2597 dev/ic/dc.c dc_encap(sc, m_head, txidx) txidx 2600 dev/ic/dc.c u_int32_t *txidx; txidx 2617 dev/ic/dc.c cur = frag = *txidx; txidx 2621 dev/ic/dc.c if (*txidx != sc->dc_cdata.dc_tx_prod && txidx 2652 dev/ic/dc.c sc->dc_ldata->dc_tx_list[*txidx].dc_ctl |= txidx 2667 dev/ic/dc.c sc->dc_ldata->dc_tx_list[*txidx].dc_status = htole32(DC_TXSTAT_OWN); txidx 2670 dev/ic/dc.c offsetof(struct dc_list_data, dc_tx_list[*txidx]), txidx 2674 dev/ic/dc.c *txidx = frag; txidx 366 dev/ic/mtd8xx.c mtd_encap(struct mtd_softc *sc, struct mbuf *m_head, u_int32_t *txidx) txidx 383 dev/ic/mtd8xx.c cur = frag = *txidx; txidx 418 dev/ic/mtd8xx.c sc->mtd_ldata->mtd_tx_list[*txidx].td_tsw = htole32(TSW_OWN); txidx 419 dev/ic/mtd8xx.c sc->mtd_ldata->mtd_tx_list[*txidx].td_tcw |= txidx 427 dev/ic/mtd8xx.c *txidx = frag; txidx 2729 dev/pci/if_bge.c bge_encap(struct bge_softc *sc, struct mbuf *m_head, u_int32_t *txidx) txidx 2745 dev/pci/if_bge.c cur = frag = *txidx; txidx 2829 dev/pci/if_bge.c *txidx = frag; txidx 1109 dev/pci/if_lge.c lge_encap(struct lge_softc *sc, struct mbuf *m_head, u_int32_t *txidx) txidx 1122 dev/pci/if_lge.c cur_tx = &sc->lge_ldata->lge_tx_list[*txidx]; txidx 1141 dev/pci/if_lge.c LGE_INC((*txidx), LGE_TX_LIST_CNT); txidx 1403 dev/pci/if_msk.c msk_encap(struct sk_if_softc *sc_if, struct mbuf *m_head, u_int32_t *txidx) txidx 1421 dev/pci/if_msk.c cur = frag = *txidx; txidx 1471 dev/pci/if_msk.c MSK_CDTXSYNC(sc_if, *txidx, txmap->dm_nsegs, txidx 1474 dev/pci/if_msk.c sc_if->sk_rdata->sk_tx_ring[*txidx].sk_opcode |= SK_Y2_TXOPC_OWN; txidx 1477 dev/pci/if_msk.c MSK_CDTXSYNC(sc_if, *txidx, 1, txidx 1486 dev/pci/if_msk.c for (idx = *txidx; idx != frag; SK_INC(idx, MSK_TX_RING_CNT)) { txidx 1493 dev/pci/if_msk.c *txidx = frag; txidx 1594 dev/pci/if_nge.c nge_encap(sc, m_head, txidx) txidx 1597 dev/pci/if_nge.c u_int32_t *txidx; txidx 1616 dev/pci/if_nge.c cur = frag = *txidx; txidx 1639 dev/pci/if_nge.c sc->nge_ldata->nge_tx_list[*txidx].nge_extsts = 0; txidx 1650 dev/pci/if_nge.c sc->nge_ldata->nge_tx_list[*txidx].nge_ctl |= NGE_CMDSTS_OWN; txidx 1652 dev/pci/if_nge.c *txidx = frag; txidx 1543 dev/pci/if_sis.c sis_encap(struct sis_softc *sc, struct mbuf *m_head, u_int32_t *txidx) txidx 1559 dev/pci/if_sis.c cur = frag = *txidx; txidx 1578 dev/pci/if_sis.c sc->sis_ldata->sis_tx_list[*txidx].sis_ctl |= SIS_CMDSTS_OWN; txidx 1580 dev/pci/if_sis.c *txidx = frag; txidx 1517 dev/pci/if_sk.c sk_encap(struct sk_if_softc *sc_if, struct mbuf *m_head, u_int32_t *txidx) txidx 1535 dev/pci/if_sk.c cur = frag = *txidx; txidx 1586 dev/pci/if_sk.c SK_CDTXSYNC(sc_if, *txidx, txmap->dm_nsegs, txidx 1589 dev/pci/if_sk.c sc_if->sk_rdata->sk_tx_ring[*txidx].sk_ctl |= txidx 1593 dev/pci/if_sk.c SK_CDTXSYNC(sc_if, *txidx, 1, BUS_DMASYNC_PREREAD|BUS_DMASYNC_PREWRITE); txidx 1601 dev/pci/if_sk.c for (idx = *txidx; idx != frag; SK_INC(idx, SK_TX_RING_CNT)) { txidx 1608 dev/pci/if_sk.c *txidx = frag; txidx 1995 dev/pci/if_ti.c ti_encap_tigon1(struct ti_softc *sc, struct mbuf *m_head, u_int32_t *txidx) txidx 2015 dev/pci/if_ti.c cur = frag = *txidx; txidx 2072 dev/pci/if_ti.c *txidx = frag; txidx 2082 dev/pci/if_ti.c ti_encap_tigon2(struct ti_softc *sc, struct mbuf *m_head, u_int32_t *txidx) txidx 2102 dev/pci/if_ti.c cur = frag = *txidx; txidx 2156 dev/pci/if_ti.c *txidx = frag;