Lines Matching refs:q_idx
124 u8 q_idx, struct sk_buff *skb, int err)
127 struct opa_vnic_stats *stats = &vinfo->stats[q_idx];
153 u8 q_idx, struct sk_buff *skb, int err)
156 struct opa_vnic_stats *stats = &vinfo->stats[q_idx];
205 u8 q_idx)
207 netif_stop_subqueue(vinfo->netdev, q_idx);
208 if (!hfi1_vnic_sdma_write_avail(vinfo, q_idx))
211 netif_start_subqueue(vinfo->netdev, q_idx);
218 u8 pad_len, q_idx = skb->queue_mapping;
225 v_dbg("xmit: queue %d skb len %d\n", q_idx, skb->len);
227 vinfo->stats[q_idx].tx_drop_state++;
235 vinfo->stats[q_idx].tx_dlid_zero++;
255 err = dd->process_vnic_dma_send(dd, q_idx, vinfo, skb, pbc, pad_len);
258 vinfo->stats[q_idx].netstats.tx_fifo_errors++;
260 vinfo->stats[q_idx].netstats.tx_carrier_errors++;
266 hfi1_vnic_maybe_stop_tx(vinfo, q_idx);
273 hfi1_vnic_update_tx_counters(vinfo, q_idx, skb, err);
339 u8 q_idx;
369 q_idx = packet->rcd->vnic_q_idx;
370 rxq = &vinfo->rxq[q_idx];
372 vinfo->stats[q_idx].rx_drop_state++;
378 vinfo->stats[q_idx].netstats.rx_fifo_errors++;