Home
last modified time | relevance | path

Searched refs:netmem (Results 1 – 10 of 10) sorted by relevance

/include/net/
A Dnetmem.h198 return __netmem_to_page(netmem); in netmem_to_page()
203 if (netmem_is_net_iov(netmem)) in netmem_to_net_iov()
236 if (netmem_is_net_iov(netmem)) in netmem_ref_count()
244 if (netmem_is_net_iov(netmem)) in netmem_pfn_trace()
337 if (netmem_is_net_iov(netmem)) in netmem_is_pref_nid()
346 if (netmem_is_net_iov(netmem)) in netmem_compound_head()
347 return netmem; in netmem_compound_head()
370 if (netmem_is_net_iov(netmem)) in netmem_address()
373 return __netmem_address(netmem); in netmem_address()
385 if (netmem_is_net_iov(netmem)) in netmem_is_pfmemalloc()
[all …]
A Dxdp.h169 void xdp_return_frag(netmem_ref netmem, const struct xdp_buff *xdp);
190 static inline bool __xdp_buff_add_frag(struct xdp_buff *xdp, netmem_ref netmem, in __xdp_buff_add_frag() argument
211 if (try_coalesce && netmem == skb_frag_netmem(prev) && in __xdp_buff_add_frag()
215 xdp_return_frag(netmem, xdp); in __xdp_buff_add_frag()
220 __skb_fill_netmem_desc_noacc(sinfo, nr_frags++, netmem, in __xdp_buff_add_frag()
244 static inline bool xdp_buff_add_frag(struct xdp_buff *xdp, netmem_ref netmem, in xdp_buff_add_frag() argument
247 if (!__xdp_buff_add_frag(xdp, netmem, offset, size, truesize, true)) in xdp_buff_add_frag()
250 if (unlikely(netmem_is_pfmemalloc(netmem))) in xdp_buff_add_frag()
409 void __xdp_return(netmem_ref netmem, enum xdp_mem_type mem_type,
/include/trace/events/
A Dpage_pool.h45 netmem_ref netmem, u32 release),
47 TP_ARGS(pool, netmem, release),
51 __field(unsigned long, netmem)
58 __entry->netmem = (__force unsigned long)netmem;
60 __entry->pfn = netmem_pfn_trace(netmem);
64 __entry->pool, (void *)__entry->netmem,
71 netmem_ref netmem, u32 hold),
73 TP_ARGS(pool, netmem, hold),
77 __field(unsigned long, netmem)
84 __entry->netmem = (__force unsigned long)netmem;
[all …]
/include/net/page_pool/
A Dhelpers.h123 netmem_ref netmem; in page_pool_alloc_netmem() local
132 if (unlikely(!netmem)) in page_pool_alloc_netmem()
144 return netmem; in page_pool_alloc_netmem()
328 return page_pool_unref_netmem(netmem, 1) == 0; in page_pool_unref_and_test()
332 netmem_ref netmem, in page_pool_put_netmem() argument
340 if (!page_pool_unref_and_test(netmem)) in page_pool_put_netmem()
370 netmem_ref netmem, in page_pool_put_full_netmem() argument
406 netmem_ref netmem) in page_pool_recycle_direct_netmem() argument
408 page_pool_put_full_netmem(pool, netmem, true); in page_pool_recycle_direct_netmem()
430 dma_addr_t ret = netmem_get_dma_addr(netmem); in page_pool_get_dma_addr_netmem()
[all …]
A Dmemory_provider.h14 bool (*release_netmem)(struct page_pool *pool, netmem_ref netmem);
46 netmem_ref netmem) in net_mp_netmem_place_in_cache() argument
48 pool->alloc.cache[pool->alloc.count++] = netmem; in net_mp_netmem_place_in_cache()
A Dtypes.h94 void (*init_callback)(netmem_ref netmem, void *arg);
291 void page_pool_put_unrefed_netmem(struct page_pool *pool, netmem_ref netmem,
/include/linux/
A Dskbuff_ref.h35 bool napi_pp_put_page(netmem_ref netmem);
37 static inline void skb_page_unref(netmem_ref netmem, bool recycle) in skb_page_unref() argument
40 if (recycle && napi_pp_put_page(netmem)) in skb_page_unref()
43 put_netmem(netmem); in skb_page_unref()
A Dskbuff.h362 netmem_ref netmem; member
2504 netmem_ref netmem, int off, in skb_frag_fill_netmem_desc() argument
2507 frag->netmem = netmem; in skb_frag_fill_netmem_desc()
2520 int i, netmem_ref netmem, in __skb_fill_netmem_desc_noacc() argument
2568 if (netmem_is_net_iov(netmem)) { in __skb_fill_netmem_desc()
2573 page = netmem_to_page(netmem); in __skb_fill_netmem_desc()
3618 return netmem_is_net_iov(frag->netmem); in skb_frag_is_net_iov()
3648 return netmem_to_page(frag->netmem); in skb_frag_page()
3659 return frag->netmem; in skb_frag_netmem()
3712 fragto->netmem = fragfrom->netmem; in skb_frag_page_copy()
[all …]
/include/net/libeth/
A Drx.h45 netmem_ref netmem; member
109 buf->netmem = page_pool_dev_alloc_netmem(fq->pp, &buf->offset, in libeth_rx_alloc()
111 if (unlikely(!buf->netmem)) in libeth_rx_alloc()
114 return page_pool_get_dma_addr_netmem(buf->netmem) + buf->offset + in libeth_rx_alloc()
118 void libeth_rx_recycle_slow(netmem_ref netmem);
134 netmem_ref netmem = fqe->netmem; in libeth_rx_sync_for_cpu() local
141 libeth_rx_recycle_slow(netmem); in libeth_rx_sync_for_cpu()
145 page_pool_dma_sync_netmem_for_cpu(netmem_get_pp(netmem), netmem, in libeth_rx_sync_for_cpu()
A Dxdp.h721 netmem_ref netmem; in libeth_xdp_tx_fill_buf() local
732 netmem = skb_frag_netmem(frag); in libeth_xdp_tx_fill_buf()
734 .addr = page_pool_get_dma_addr_netmem(netmem) + in libeth_xdp_tx_fill_buf()
740 dma_sync_single_for_device(__netmem_get_pp(netmem)->p.dev, desc.addr, in libeth_xdp_tx_fill_buf()
1225 netmem_ref netmem = virt_to_netmem(data); in libeth_xdp_return_va() local
1227 page_pool_put_full_netmem(__netmem_get_pp(netmem), netmem, napi); in libeth_xdp_return_va()
1234 netmem_ref netmem = skb_frag_netmem(&sinfo->frags[i]); in libeth_xdp_return_frags() local
1236 page_pool_put_full_netmem(netmem_get_pp(netmem), netmem, napi); in libeth_xdp_return_frags()
1283 const struct page *page = __netmem_to_page(fqe->netmem); in libeth_xdp_prepare_buff()

Completed in 32 milliseconds