Searched refs:rxe (Results 1 - 25 of 26) sorted by relevance

12

/linux-master/drivers/infiniband/sw/rxe/
H A Drxe.c9 #include "rxe.h"
16 /* free resources for a rxe device all objects created for this device must
21 struct rxe_dev *rxe = container_of(ib_dev, struct rxe_dev, ib_dev); local
23 rxe_pool_cleanup(&rxe->uc_pool);
24 rxe_pool_cleanup(&rxe->pd_pool);
25 rxe_pool_cleanup(&rxe->ah_pool);
26 rxe_pool_cleanup(&rxe->srq_pool);
27 rxe_pool_cleanup(&rxe->qp_pool);
28 rxe_pool_cleanup(&rxe->cq_pool);
29 rxe_pool_cleanup(&rxe
41 rxe_init_device_param(struct rxe_dev *rxe) argument
109 rxe_init_ports(struct rxe_dev *rxe) argument
120 rxe_init_pools(struct rxe_dev *rxe) argument
133 rxe_init(struct rxe_dev *rxe) argument
153 rxe_set_mtu(struct rxe_dev *rxe, unsigned int ndev_mtu) argument
170 rxe_add(struct rxe_dev *rxe, unsigned int mtu, const char *ibdev_name) argument
180 struct rxe_dev *rxe; local
[all...]
H A Drxe_mcast.c19 * mcast packets in the rxe receive path.
22 #include "rxe.h"
25 * rxe_mcast_add - add multicast address to rxe device
26 * @rxe: rxe device object
31 static int rxe_mcast_add(struct rxe_dev *rxe, union ib_gid *mgid) argument
37 return dev_mc_add(rxe->ndev, ll_addr);
41 * rxe_mcast_del - delete multicast address from rxe device
42 * @rxe: rxe devic
47 rxe_mcast_del(struct rxe_dev *rxe, union ib_gid *mgid) argument
105 __rxe_lookup_mcg(struct rxe_dev *rxe, union ib_gid *mgid) argument
143 rxe_lookup_mcg(struct rxe_dev *rxe, union ib_gid *mgid) argument
162 __rxe_init_mcg(struct rxe_dev *rxe, union ib_gid *mgid, struct rxe_mcg *mcg) argument
188 rxe_get_mcg(struct rxe_dev *rxe, union ib_gid *mgid) argument
258 struct rxe_dev *rxe = mcg->rxe; local
297 struct rxe_dev *rxe = to_rdev(qp->ibqp.device); local
333 struct rxe_dev *rxe = mcg->rxe; local
398 struct rxe_dev *rxe = mcg->rxe; local
436 struct rxe_dev *rxe = to_rdev(ibqp->device); local
466 struct rxe_dev *rxe = to_rdev(ibqp->device); local
[all...]
H A Drxe_mmap.c12 #include "rxe.h"
20 struct rxe_dev *rxe = to_rdev(ip->context->device); local
22 spin_lock_bh(&rxe->pending_lock);
27 spin_unlock_bh(&rxe->pending_lock);
64 struct rxe_dev *rxe = to_rdev(context->device); local
75 spin_lock_bh(&rxe->pending_lock);
76 list_for_each_entry_safe(ip, pp, &rxe->pending_mmaps, pending_mmaps) {
82 rxe_dbg_dev(rxe, "mmap region is larger than the object!\n");
83 spin_unlock_bh(&rxe->pending_lock);
90 rxe_dbg_dev(rxe, "unabl
115 rxe_create_mmap_info(struct rxe_dev *rxe, u32 size, struct ib_udata *udata, void *obj) argument
[all...]
H A Drxe_recv.c9 #include "rxe.h"
13 static int check_type_state(struct rxe_dev *rxe, struct rxe_pkt_info *pkt, argument
75 static int check_keys(struct rxe_dev *rxe, struct rxe_pkt_info *pkt, argument
78 struct rxe_port *port = &rxe->port;
100 static int check_addr(struct rxe_dev *rxe, struct rxe_pkt_info *pkt, argument
137 struct rxe_dev *rxe = pkt->rxe; local
138 struct rxe_port *port = &rxe->port;
153 qp = rxe_pool_get_index(&rxe->qp_pool, index);
157 err = check_type_state(rxe, pk
190 rxe_rcv_mcast_pkt(struct rxe_dev *rxe, struct sk_buff *skb) argument
284 rxe_chk_dgid(struct rxe_dev *rxe, struct sk_buff *skb) argument
320 struct rxe_dev *rxe = pkt->rxe; local
[all...]
H A Drxe_net.c17 #include "rxe.h"
137 struct rxe_dev *rxe; local
141 /* takes a reference on rxe->ib_dev
144 rxe = rxe_get_dev_from_net(ndev);
145 if (!rxe && is_vlan_dev(ndev))
146 rxe = rxe_get_dev_from_net(vlan_dev_real_dev(ndev));
147 if (!rxe)
151 ib_device_put(&rxe->ib_dev);
156 pkt->rxe = rxe;
420 struct rxe_dev *rxe = to_rdev(qp->ibqp.device); local
459 rxe_init_packet(struct rxe_dev *rxe, struct rxe_av *av, int paylen, struct rxe_pkt_info *pkt) argument
518 rxe_parent_name(struct rxe_dev *rxe, unsigned int port_num) argument
526 struct rxe_dev *rxe = NULL; local
543 rxe_port_event(struct rxe_dev *rxe, enum ib_event_type event) argument
556 rxe_port_up(struct rxe_dev *rxe) argument
568 rxe_port_down(struct rxe_dev *rxe) argument
580 rxe_set_port_state(struct rxe_dev *rxe) argument
593 struct rxe_dev *rxe = rxe_get_dev_from_net(ndev); local
[all...]
H A Drxe_verbs.c11 #include "rxe.h"
22 struct rxe_dev *rxe = to_rdev(ibdev); local
26 rxe_dbg_dev(rxe, "malformed udata\n");
31 memcpy(attr, &rxe->attr, sizeof(*attr));
36 rxe_err_dev(rxe, "returned err = %d\n", err);
43 struct rxe_dev *rxe = to_rdev(ibdev); local
48 rxe_dbg_dev(rxe, "bad port_num = %d\n", port_num);
52 memcpy(attr, &rxe->port.attr, sizeof(*attr));
54 mutex_lock(&rxe->usdev_lock);
60 else if (dev_get_flags(rxe
77 struct rxe_dev *rxe = to_rdev(ibdev); local
97 struct rxe_dev *rxe = to_rdev(ibdev); local
125 struct rxe_dev *rxe = to_rdev(ibdev); local
159 struct rxe_dev *rxe = to_rdev(ibdev); local
178 struct rxe_dev *rxe = to_rdev(ibdev); local
207 struct rxe_dev *rxe = to_rdev(ibuc->device); local
231 struct rxe_dev *rxe = to_rdev(ibpd->device); local
265 struct rxe_dev *rxe = to_rdev(ibah->device); local
370 struct rxe_dev *rxe = to_rdev(ibsrq->device); local
429 struct rxe_dev *rxe = to_rdev(ibsrq->device); local
530 struct rxe_dev *rxe = to_rdev(ibqp->device); local
594 struct rxe_dev *rxe = to_rdev(ibqp->device); local
1060 struct rxe_dev *rxe = to_rdev(dev); local
1113 struct rxe_dev *rxe = to_rdev(ibcq->device); local
1223 struct rxe_dev *rxe = to_rdev(ibpd->device); local
1256 struct rxe_dev *rxe = to_rdev(ibpd->device); local
1337 struct rxe_dev *rxe = to_rdev(ibpd->device); local
1408 struct rxe_dev *rxe = local
1427 struct rxe_dev *rxe = container_of(ib_dev, struct rxe_dev, ib_dev); local
1498 rxe_register_device(struct rxe_dev *rxe, const char *ibdev_name) argument
[all...]
H A Drxe_icrc.c9 #include "rxe.h"
14 * @rxe: rdma_rxe device object
18 int rxe_icrc_init(struct rxe_dev *rxe) argument
24 rxe_dbg_dev(rxe, "failed to init crc32 algorithm err: %ld\n",
29 rxe->tfm = tfm;
36 * @rxe: rdma_rxe device object
43 static __be32 rxe_crc32(struct rxe_dev *rxe, __be32 crc, void *next, size_t len) argument
48 SHASH_DESC_ON_STACK(shash, rxe->tfm);
50 shash->tfm = rxe->tfm;
54 rxe_dbg_dev(rxe, "faile
[all...]
H A Drxe_srq.c8 #include "rxe.h"
11 int rxe_srq_chk_init(struct rxe_dev *rxe, struct ib_srq_init_attr *init) argument
15 if (attr->max_wr > rxe->attr.max_srq_wr) {
16 rxe_dbg_dev(rxe, "max_wr(%d) > max_srq_wr(%d)\n",
17 attr->max_wr, rxe->attr.max_srq_wr);
22 rxe_dbg_dev(rxe, "max_wr(%d) <= 0\n", attr->max_wr);
29 if (attr->max_sge > rxe->attr.max_srq_sge) {
30 rxe_dbg_dev(rxe, "max_sge(%d) > max_srq_sge(%d)\n",
31 attr->max_sge, rxe->attr.max_srq_sge);
44 int rxe_srq_from_init(struct rxe_dev *rxe, struc argument
100 rxe_srq_chk_attr(struct rxe_dev *rxe, struct rxe_srq *srq, struct ib_srq_attr *attr, enum ib_srq_attr_mask mask) argument
151 rxe_srq_from_attr(struct rxe_dev *rxe, struct rxe_srq *srq, struct ib_srq_attr *attr, enum ib_srq_attr_mask mask, struct rxe_modify_srq_cmd *ucmd, struct ib_udata *udata) argument
[all...]
H A Drxe_cq.c7 #include "rxe.h"
11 int rxe_cq_chk_attr(struct rxe_dev *rxe, struct rxe_cq *cq, argument
17 rxe_dbg_dev(rxe, "cqe(%d) <= 0\n", cqe);
21 if (cqe > rxe->attr.max_cqe) {
22 rxe_dbg_dev(rxe, "cqe(%d) > max_cqe(%d)\n",
23 cqe, rxe->attr.max_cqe);
42 int rxe_cq_from_init(struct rxe_dev *rxe, struct rxe_cq *cq, int cqe, argument
50 cq->queue = rxe_queue_init(rxe, &cqe,
53 rxe_dbg_dev(rxe, "unable to create cq\n");
57 err = do_mmap_info(rxe, ures
[all...]
H A Drxe_loc.h21 int rxe_cq_chk_attr(struct rxe_dev *rxe, struct rxe_cq *cq,
24 int rxe_cq_from_init(struct rxe_dev *rxe, struct rxe_cq *cq, int cqe,
37 struct rxe_mcg *rxe_lookup_mcg(struct rxe_dev *rxe, union ib_gid *mgid);
62 int rxe_mr_init_user(struct rxe_dev *rxe, u64 start, u64 length,
92 struct sk_buff *rxe_init_packet(struct rxe_dev *rxe, struct rxe_av *av,
98 const char *rxe_parent_name(struct rxe_dev *rxe, unsigned int port_num);
101 int rxe_qp_chk_init(struct rxe_dev *rxe, struct ib_qp_init_attr *init);
102 int rxe_qp_from_init(struct rxe_dev *rxe, struct rxe_qp *qp, struct rxe_pd *pd,
107 int rxe_qp_chk_attr(struct rxe_dev *rxe, struct rxe_qp *qp,
152 int rxe_srq_chk_init(struct rxe_dev *rxe, struc
[all...]
H A Drxe.h42 #define rxe_dbg_dev(rxe, fmt, ...) ibdev_dbg(&(rxe)->ib_dev, \
63 #define rxe_err_dev(rxe, fmt, ...) ibdev_err_ratelimited(&(rxe)->ib_dev, \
84 #define rxe_info_dev(rxe, fmt, ...) ibdev_info_ratelimited(&(rxe)->ib_dev, \
140 void rxe_set_mtu(struct rxe_dev *rxe, unsigned int dev_mtu);
142 int rxe_add(struct rxe_dev *rxe, unsigned int mtu, const char *ibdev_name);
157 void rxe_port_up(struct rxe_dev *rxe);
158 void rxe_port_down(struct rxe_dev *rxe);
[all...]
H A Drxe_qp.c13 #include "rxe.h"
18 static int rxe_qp_chk_cap(struct rxe_dev *rxe, struct ib_qp_cap *cap, argument
21 if (cap->max_send_wr > rxe->attr.max_qp_wr) {
22 rxe_dbg_dev(rxe, "invalid send wr = %u > %d\n",
23 cap->max_send_wr, rxe->attr.max_qp_wr);
27 if (cap->max_send_sge > rxe->attr.max_send_sge) {
28 rxe_dbg_dev(rxe, "invalid send sge = %u > %d\n",
29 cap->max_send_sge, rxe->attr.max_send_sge);
34 if (cap->max_recv_wr > rxe->attr.max_qp_wr) {
35 rxe_dbg_dev(rxe, "invali
59 rxe_qp_chk_init(struct rxe_dev *rxe, struct ib_qp_init_attr *init) argument
148 rxe_qp_init_misc(struct rxe_dev *rxe, struct rxe_qp *qp, struct ib_qp_init_attr *init) argument
190 struct rxe_dev *rxe = to_rdev(qp->ibqp.device); local
235 rxe_qp_init_req(struct rxe_dev *rxe, struct rxe_qp *qp, struct ib_qp_init_attr *init, struct ib_udata *udata, struct rxe_create_qp_resp __user *uresp) argument
283 struct rxe_dev *rxe = to_rdev(qp->ibqp.device); local
324 rxe_qp_init_resp(struct rxe_dev *rxe, struct rxe_qp *qp, struct ib_qp_init_attr *init, struct ib_udata *udata, struct rxe_create_qp_resp __user *uresp) argument
349 rxe_qp_from_init(struct rxe_dev *rxe, struct rxe_qp *qp, struct rxe_pd *pd, struct ib_qp_init_attr *init, struct rxe_create_qp_resp __user *uresp, struct ib_pd *ibpd, struct ib_udata *udata) argument
439 rxe_qp_chk_attr(struct rxe_dev *rxe, struct rxe_qp *qp, struct ib_qp_attr *attr, int mask) argument
[all...]
H A Drxe_queue.c8 #include "rxe.h"
12 int do_mmap_info(struct rxe_dev *rxe, struct mminfo __user *outbuf, argument
20 ip = rxe_create_mmap_info(rxe, buf_size, udata, buf);
31 spin_lock_bh(&rxe->pending_lock);
32 list_add(&ip->pending_mmaps, &rxe->pending_mmaps);
33 spin_unlock_bh(&rxe->pending_lock);
55 struct rxe_queue *rxe_queue_init(struct rxe_dev *rxe, int *num_elem, argument
70 q->rxe = rxe;
158 new_q = rxe_queue_init(q->rxe,
[all...]
H A DMakefile5 rxe.o \
H A Drxe_av.c7 #include "rxe.h"
21 struct rxe_dev *rxe; local
28 rxe = to_rdev(ah->ibah.device);
31 rxe = to_rdev(qp->ibqp.device);
34 port = &rxe->port;
151 ah = rxe_pool_get_index(&pkt->rxe->ah_pool, ah_num);
H A Drxe_mw.c14 #include "rxe.h"
20 struct rxe_dev *rxe = to_rdev(ibmw->device); local
25 ret = rxe_add_to_pool(&rxe->mw_pool, mw);
169 struct rxe_dev *rxe = to_rdev(qp->ibqp.device); local
174 mw = rxe_pool_get_index(&rxe->mw_pool, mw_rkey >> 8);
186 mr = rxe_pool_get_index(&rxe->mr_pool, mr_lkey >> 8);
260 struct rxe_dev *rxe = to_rdev(qp->ibqp.device); local
264 mw = rxe_pool_get_index(&rxe->mw_pool, rkey >> 8);
292 struct rxe_dev *rxe = to_rdev(qp->ibqp.device); local
297 mw = rxe_pool_get_index(&rxe
[all...]
H A Drxe_pool.h32 struct rxe_dev *rxe; member in struct:rxe_pool
51 void rxe_pool_init(struct rxe_dev *rxe, struct rxe_pool *pool,
H A Drxe_comp.c9 #include "rxe.h"
138 rxe_counter_inc(SKB_TO_PKT(skb)->rxe, RXE_CNT_COMPLETER_SCHED);
230 struct rxe_dev *rxe = to_rdev(qp->ibqp.device); local
313 rxe_counter_inc(rxe, RXE_CNT_RCV_RNR);
323 rxe_counter_inc(rxe,
451 struct rxe_dev *rxe = to_rdev(qp->ibqp.device); local
471 rxe_counter_inc(rxe, RXE_CNT_RDMA_SEND);
649 struct rxe_dev *rxe = to_rdev(qp->ibqp.device); local
791 rxe_counter_inc(rxe,
800 rxe_counter_inc(rxe, RXE_CNT_RETRY_EXCEEDE
[all...]
H A Drxe_verbs.h349 struct rxe_dev *rxe; member in struct:rxe_mcg
408 static inline void rxe_counter_inc(struct rxe_dev *rxe, enum rxe_counters index) argument
410 atomic64_inc(&rxe->stats_counters[index]);
473 int rxe_register_device(struct rxe_dev *rxe, const char *ibdev_name);
H A Drxe_pool.c7 #include "rxe.h"
92 void rxe_pool_init(struct rxe_dev *rxe, struct rxe_pool *pool, argument
99 pool->rxe = rxe;
H A Drxe_queue.h37 * @QUEUE_TYPE_TO_CLIENT: Queue is written by rxe driver and
40 * Used by rxe internals only.
42 * read by rxe driver.
43 * Used by rxe internals only.
45 * read by rxe driver.
48 * @QUEUE_TYPE_TO_ULP: Queue is written by rxe driver and
63 struct rxe_dev *rxe; member in struct:rxe_queue
79 int do_mmap_info(struct rxe_dev *rxe, struct mminfo __user *outbuf,
85 struct rxe_queue *rxe_queue_init(struct rxe_dev *rxe, int *num_elem,
107 /* used by rxe, clien
[all...]
H A Drxe_mr.c9 #include "rxe.h"
129 int rxe_mr_init_user(struct rxe_dev *rxe, u64 start, u64 length, argument
139 umem = ib_umem_get(&rxe->ib_dev, start, length, access);
620 struct rxe_dev *rxe = to_rdev(pd->ibpd.device); local
623 mr = rxe_pool_get_index(&rxe->mr_pool, index);
640 struct rxe_dev *rxe = to_rdev(qp->ibqp.device); local
645 mr = rxe_pool_get_index(&rxe->mr_pool, key >> 8);
686 * the ib mr keys in sync with rxe mr keys.
H A Drxe_req.c10 #include "rxe.h"
210 * are complete. Make mandatory for the rxe driver.
406 struct rxe_dev *rxe = to_rdev(qp->ibqp.device); local
411 return rxe->port.mtu_cap;
420 struct rxe_dev *rxe = to_rdev(qp->ibqp.device); local
434 skb = rxe_init_packet(rxe, av, paylen, pkt);
669 struct rxe_dev *rxe = to_rdev(qp->ibqp.device); local
795 pkt.rxe = rxe;
H A Drxe_resp.c9 #include "rxe.h"
84 struct rxe_dev *rxe = to_rdev(qp->ibqp.device); local
93 rxe_counter_inc(rxe, RXE_CNT_OUT_OF_SEQ_REQ);
97 rxe_counter_inc(rxe, RXE_CNT_DUP_REQ);
767 struct rxe_dev *rxe = to_rdev(qp->ibqp.device); local
779 skb = rxe_init_packet(rxe, &qp->pri_av, paylen, ack);
828 struct rxe_dev *rxe = to_rdev(qp->ibqp.device); local
833 mw = rxe_pool_get_index(&rxe->mw_pool, rkey >> 8);
850 mr = rxe_pool_get_index(&rxe->mr_pool, rkey >> 8);
1058 struct rxe_dev *rxe local
1490 struct rxe_dev *rxe = to_rdev(qp->ibqp.device); local
[all...]
/linux-master/drivers/infiniband/sw/
H A DMakefile3 obj-$(CONFIG_RDMA_RXE) += rxe/

Completed in 184 milliseconds

12