Lines Matching refs:odev

407 	struct net_device *odev; /* The out-going device.  member
624 pkt_dev->odev->dev_addr : pkt_dev->src_mac); in pktgen_if_show()
1234 !(pkt_dev->odev->priv_flags & IFF_TX_SKB_SHARING))) in pktgen_if_write()
1293 (!(pkt_dev->odev->priv_flags & IFF_TX_SKB_SHARING))))) in pktgen_if_write()
2090 if (pkt_dev->odev != dev) in pktgen_change_name()
2159 struct net_device *odev; in pktgen_setup_dev() local
2163 if (pkt_dev->odev) { in pktgen_setup_dev()
2164 netdev_put(pkt_dev->odev, &pkt_dev->dev_tracker); in pktgen_setup_dev()
2165 pkt_dev->odev = NULL; in pktgen_setup_dev()
2168 odev = pktgen_dev_get_by_name(pn, pkt_dev, ifname); in pktgen_setup_dev()
2169 if (!odev) { in pktgen_setup_dev()
2174 if (odev->type != ARPHRD_ETHER && odev->type != ARPHRD_LOOPBACK) { in pktgen_setup_dev()
2177 } else if (!netif_running(odev)) { in pktgen_setup_dev()
2181 pkt_dev->odev = odev; in pktgen_setup_dev()
2182 netdev_tracker_alloc(odev, &pkt_dev->dev_tracker, GFP_KERNEL); in pktgen_setup_dev()
2186 dev_put(odev); in pktgen_setup_dev()
2197 if (!pkt_dev->odev) { in pktgen_setup_inject()
2205 ntxq = pkt_dev->odev->real_num_tx_queues; in pktgen_setup_inject()
2223 ether_addr_copy(&(pkt_dev->hh[6]), pkt_dev->odev->dev_addr); in pktgen_setup_inject()
2254 idev = __in6_dev_get(pkt_dev->odev); in pktgen_setup_inject()
2288 in_dev = __in_dev_get_rcu(pkt_dev->odev); in pktgen_setup_inject()
2409 struct pktgen_net *pn = net_generic(dev_net(pkt_dev->odev), pg_net_id); in get_ipsec_sa()
2454 pkt_dev->cur_queue_map = pkt_dev->cur_queue_map % pkt_dev->odev->real_num_tx_queues; in set_cur_queue_map()
2701 struct net *net = dev_net(pkt_dev->odev); in pktgen_output_ipsec()
2927 static struct sk_buff *fill_packet_ipv4(struct net_device *odev, in fill_packet_ipv4() argument
2955 skb = pktgen_alloc_skb(odev, pkt_dev); in fill_packet_ipv4()
3025 skb->dev = odev; in fill_packet_ipv4()
3032 } else if (odev->features & (NETIF_F_HW_CSUM | NETIF_F_IP_CSUM)) { in fill_packet_ipv4()
3055 static struct sk_buff *fill_packet_ipv6(struct net_device *odev, in fill_packet_ipv6() argument
3083 skb = pktgen_alloc_skb(odev, pkt_dev); in fill_packet_ipv6()
3160 skb->dev = odev; in fill_packet_ipv6()
3167 } else if (odev->features & (NETIF_F_HW_CSUM | NETIF_F_IPV6_CSUM)) { in fill_packet_ipv6()
3185 static struct sk_buff *fill_packet(struct net_device *odev, in fill_packet() argument
3189 return fill_packet_ipv6(odev, pkt_dev); in fill_packet()
3191 return fill_packet_ipv4(odev, pkt_dev); in fill_packet()
3220 if (pkt_dev->odev) { in pktgen_run()
3514 struct net_device *odev = pkt_dev->odev; in pktgen_xmit() local
3532 if (unlikely(!netif_running(odev) || !netif_carrier_ok(odev))) { in pktgen_xmit()
3551 pkt_dev->skb = fill_packet(odev, pkt_dev); in pktgen_xmit()
3634 txq = skb_get_tx_queue(odev, pkt_dev->skb); in pktgen_xmit()
3638 HARD_TX_LOCK(odev, txq, smp_processor_id()); in pktgen_xmit()
3648 ret = netdev_start_xmit(pkt_dev->skb, odev, txq, --burst > 0); in pktgen_xmit()
3681 HARD_TX_UNLOCK(odev, txq); in pktgen_xmit()
3876 if (pkt_dev->odev->priv_flags & IFF_TX_SKB_SHARING) in pktgen_add_device()
3897 pkt_dev->xdst.u.dst.dev = pkt_dev->odev; in pktgen_add_device()
3905 netdev_put(pkt_dev->odev, &pkt_dev->dev_tracker); in pktgen_add_device()
3995 if (pkt_dev->odev) { in pktgen_remove_device()
3996 netdev_put(pkt_dev->odev, &pkt_dev->dev_tracker); in pktgen_remove_device()
3997 pkt_dev->odev = NULL; in pktgen_remove_device()