txidx 708 dev/ic/aic6915.c int consumer, producer, txidx;
txidx 726 dev/ic/aic6915.c txidx = SF_TCD_INDEX_TO_HOST(TCD_INDEX(tcd));
txidx 730 dev/ic/aic6915.c sc->sc_dev.dv_xname, txidx);
txidx 737 dev/ic/aic6915.c ds = &sc->sc_txsoft[txidx];
txidx 738 dev/ic/aic6915.c SF_CDTXDSYNC(sc, txidx, BUS_DMASYNC_POSTWRITE);
txidx 2597 dev/ic/dc.c dc_encap(sc, m_head, txidx)
txidx 2600 dev/ic/dc.c u_int32_t *txidx;
txidx 2617 dev/ic/dc.c cur = frag = *txidx;
txidx 2621 dev/ic/dc.c if (*txidx != sc->dc_cdata.dc_tx_prod &&
txidx 2652 dev/ic/dc.c sc->dc_ldata->dc_tx_list[*txidx].dc_ctl |=
txidx 2667 dev/ic/dc.c sc->dc_ldata->dc_tx_list[*txidx].dc_status = htole32(DC_TXSTAT_OWN);
txidx 2670 dev/ic/dc.c offsetof(struct dc_list_data, dc_tx_list[*txidx]),
txidx 2674 dev/ic/dc.c *txidx = frag;
txidx 366 dev/ic/mtd8xx.c mtd_encap(struct mtd_softc *sc, struct mbuf *m_head, u_int32_t *txidx)
txidx 383 dev/ic/mtd8xx.c cur = frag = *txidx;
txidx 418 dev/ic/mtd8xx.c sc->mtd_ldata->mtd_tx_list[*txidx].td_tsw = htole32(TSW_OWN);
txidx 419 dev/ic/mtd8xx.c sc->mtd_ldata->mtd_tx_list[*txidx].td_tcw |=
txidx 427 dev/ic/mtd8xx.c *txidx = frag;
txidx 2729 dev/pci/if_bge.c bge_encap(struct bge_softc *sc, struct mbuf *m_head, u_int32_t *txidx)
txidx 2745 dev/pci/if_bge.c cur = frag = *txidx;
txidx 2829 dev/pci/if_bge.c *txidx = frag;
txidx 1109 dev/pci/if_lge.c lge_encap(struct lge_softc *sc, struct mbuf *m_head, u_int32_t *txidx)
txidx 1122 dev/pci/if_lge.c cur_tx = &sc->lge_ldata->lge_tx_list[*txidx];
txidx 1141 dev/pci/if_lge.c LGE_INC((*txidx), LGE_TX_LIST_CNT);
txidx 1403 dev/pci/if_msk.c msk_encap(struct sk_if_softc *sc_if, struct mbuf *m_head, u_int32_t *txidx)
txidx 1421 dev/pci/if_msk.c cur = frag = *txidx;
txidx 1471 dev/pci/if_msk.c MSK_CDTXSYNC(sc_if, *txidx, txmap->dm_nsegs,
txidx 1474 dev/pci/if_msk.c sc_if->sk_rdata->sk_tx_ring[*txidx].sk_opcode |= SK_Y2_TXOPC_OWN;
txidx 1477 dev/pci/if_msk.c MSK_CDTXSYNC(sc_if, *txidx, 1,
txidx 1486 dev/pci/if_msk.c for (idx = *txidx; idx != frag; SK_INC(idx, MSK_TX_RING_CNT)) {
txidx 1493 dev/pci/if_msk.c *txidx = frag;
txidx 1594 dev/pci/if_nge.c nge_encap(sc, m_head, txidx)
txidx 1597 dev/pci/if_nge.c u_int32_t *txidx;
txidx 1616 dev/pci/if_nge.c cur = frag = *txidx;
txidx 1639 dev/pci/if_nge.c sc->nge_ldata->nge_tx_list[*txidx].nge_extsts = 0;
txidx 1650 dev/pci/if_nge.c sc->nge_ldata->nge_tx_list[*txidx].nge_ctl |= NGE_CMDSTS_OWN;
txidx 1652 dev/pci/if_nge.c *txidx = frag;
txidx 1543 dev/pci/if_sis.c sis_encap(struct sis_softc *sc, struct mbuf *m_head, u_int32_t *txidx)
txidx 1559 dev/pci/if_sis.c cur = frag = *txidx;
txidx 1578 dev/pci/if_sis.c sc->sis_ldata->sis_tx_list[*txidx].sis_ctl |= SIS_CMDSTS_OWN;
txidx 1580 dev/pci/if_sis.c *txidx = frag;
txidx 1517 dev/pci/if_sk.c sk_encap(struct sk_if_softc *sc_if, struct mbuf *m_head, u_int32_t *txidx)
txidx 1535 dev/pci/if_sk.c cur = frag = *txidx;
txidx 1586 dev/pci/if_sk.c SK_CDTXSYNC(sc_if, *txidx, txmap->dm_nsegs,
txidx 1589 dev/pci/if_sk.c sc_if->sk_rdata->sk_tx_ring[*txidx].sk_ctl |=
txidx 1593 dev/pci/if_sk.c SK_CDTXSYNC(sc_if, *txidx, 1, BUS_DMASYNC_PREREAD|BUS_DMASYNC_PREWRITE);
txidx 1601 dev/pci/if_sk.c for (idx = *txidx; idx != frag; SK_INC(idx, SK_TX_RING_CNT)) {
txidx 1608 dev/pci/if_sk.c *txidx = frag;
txidx 1995 dev/pci/if_ti.c ti_encap_tigon1(struct ti_softc *sc, struct mbuf *m_head, u_int32_t *txidx)
txidx 2015 dev/pci/if_ti.c cur = frag = *txidx;
txidx 2072 dev/pci/if_ti.c *txidx = frag;
txidx 2082 dev/pci/if_ti.c ti_encap_tigon2(struct ti_softc *sc, struct mbuf *m_head, u_int32_t *txidx)
txidx 2102 dev/pci/if_ti.c cur = frag = *txidx;
txidx 2156 dev/pci/if_ti.c *txidx = frag;