Lines Matching refs:odev

406 	struct net_device *odev; /* The out-going device.
621 pkt_dev->odev->dev_addr : pkt_dev->src_mac);
1200 !(pkt_dev->odev->priv_flags & IFF_TX_SKB_SHARING)))
1260 (!(pkt_dev->odev->priv_flags & IFF_TX_SKB_SHARING)))))
2050 if (pkt_dev->odev != dev)
2119 struct net_device *odev;
2123 if (pkt_dev->odev) {
2124 netdev_put(pkt_dev->odev, &pkt_dev->dev_tracker);
2125 pkt_dev->odev = NULL;
2128 odev = pktgen_dev_get_by_name(pn, pkt_dev, ifname);
2129 if (!odev) {
2134 if (odev->type != ARPHRD_ETHER && odev->type != ARPHRD_LOOPBACK) {
2137 } else if (!netif_running(odev)) {
2141 pkt_dev->odev = odev;
2142 netdev_tracker_alloc(odev, &pkt_dev->dev_tracker, GFP_KERNEL);
2146 dev_put(odev);
2157 if (!pkt_dev->odev) {
2158 pr_err("ERROR: pkt_dev->odev == NULL in setup_inject\n");
2160 "ERROR: pkt_dev->odev == NULL in setup_inject.\n");
2165 ntxq = pkt_dev->odev->real_num_tx_queues;
2183 ether_addr_copy(&(pkt_dev->hh[6]), pkt_dev->odev->dev_addr);
2214 idev = __in6_dev_get(pkt_dev->odev);
2248 in_dev = __in_dev_get_rcu(pkt_dev->odev);
2369 struct pktgen_net *pn = net_generic(dev_net(pkt_dev->odev), pg_net_id);
2413 pkt_dev->cur_queue_map = pkt_dev->cur_queue_map % pkt_dev->odev->real_num_tx_queues;
2658 struct net *net = dev_net(pkt_dev->odev);
2879 static struct sk_buff *fill_packet_ipv4(struct net_device *odev,
2907 skb = pktgen_alloc_skb(odev, pkt_dev);
2977 skb->dev = odev;
2984 } else if (odev->features & (NETIF_F_HW_CSUM | NETIF_F_IP_CSUM)) {
3007 static struct sk_buff *fill_packet_ipv6(struct net_device *odev,
3035 skb = pktgen_alloc_skb(odev, pkt_dev);
3112 skb->dev = odev;
3119 } else if (odev->features & (NETIF_F_HW_CSUM | NETIF_F_IPV6_CSUM)) {
3137 static struct sk_buff *fill_packet(struct net_device *odev,
3141 return fill_packet_ipv6(odev, pkt_dev);
3143 return fill_packet_ipv4(odev, pkt_dev);
3168 * setup odev and create initial packet.
3172 if (pkt_dev->odev) {
3465 struct net_device *odev = pkt_dev->odev;
3483 if (unlikely(!netif_running(odev) || !netif_carrier_ok(odev))) {
3502 pkt_dev->skb = fill_packet(odev, pkt_dev);
3585 txq = skb_get_tx_queue(odev, pkt_dev->skb);
3589 HARD_TX_LOCK(odev, txq, smp_processor_id());
3599 ret = netdev_start_xmit(pkt_dev->skb, odev, txq, --burst > 0);
3632 HARD_TX_UNLOCK(odev, txq);
3826 if (pkt_dev->odev->priv_flags & IFF_TX_SKB_SHARING)
3847 pkt_dev->xdst.u.dst.dev = pkt_dev->odev;
3855 netdev_put(pkt_dev->odev, &pkt_dev->dev_tracker);
3948 if (pkt_dev->odev) {
3949 netdev_put(pkt_dev->odev, &pkt_dev->dev_tracker);
3950 pkt_dev->odev = NULL;