/linux-master/drivers/infiniband/sw/rxe/ |
H A D | rxe.c | 9 #include "rxe.h" 16 /* free resources for a rxe device all objects created for this device must 21 struct rxe_dev *rxe = container_of(ib_dev, struct rxe_dev, ib_dev); local 23 rxe_pool_cleanup(&rxe->uc_pool); 24 rxe_pool_cleanup(&rxe->pd_pool); 25 rxe_pool_cleanup(&rxe->ah_pool); 26 rxe_pool_cleanup(&rxe->srq_pool); 27 rxe_pool_cleanup(&rxe->qp_pool); 28 rxe_pool_cleanup(&rxe->cq_pool); 29 rxe_pool_cleanup(&rxe 41 rxe_init_device_param(struct rxe_dev *rxe) argument 109 rxe_init_ports(struct rxe_dev *rxe) argument 120 rxe_init_pools(struct rxe_dev *rxe) argument 133 rxe_init(struct rxe_dev *rxe) argument 153 rxe_set_mtu(struct rxe_dev *rxe, unsigned int ndev_mtu) argument 170 rxe_add(struct rxe_dev *rxe, unsigned int mtu, const char *ibdev_name) argument 180 struct rxe_dev *rxe; local [all...] |
H A D | rxe_mcast.c | 19 * mcast packets in the rxe receive path. 22 #include "rxe.h" 25 * rxe_mcast_add - add multicast address to rxe device 26 * @rxe: rxe device object 31 static int rxe_mcast_add(struct rxe_dev *rxe, union ib_gid *mgid) argument 37 return dev_mc_add(rxe->ndev, ll_addr); 41 * rxe_mcast_del - delete multicast address from rxe device 42 * @rxe: rxe devic 47 rxe_mcast_del(struct rxe_dev *rxe, union ib_gid *mgid) argument 105 __rxe_lookup_mcg(struct rxe_dev *rxe, union ib_gid *mgid) argument 143 rxe_lookup_mcg(struct rxe_dev *rxe, union ib_gid *mgid) argument 162 __rxe_init_mcg(struct rxe_dev *rxe, union ib_gid *mgid, struct rxe_mcg *mcg) argument 188 rxe_get_mcg(struct rxe_dev *rxe, union ib_gid *mgid) argument 258 struct rxe_dev *rxe = mcg->rxe; local 297 struct rxe_dev *rxe = to_rdev(qp->ibqp.device); local 333 struct rxe_dev *rxe = mcg->rxe; local 398 struct rxe_dev *rxe = mcg->rxe; local 436 struct rxe_dev *rxe = to_rdev(ibqp->device); local 466 struct rxe_dev *rxe = to_rdev(ibqp->device); local [all...] |
H A D | rxe_mmap.c | 12 #include "rxe.h" 20 struct rxe_dev *rxe = to_rdev(ip->context->device); local 22 spin_lock_bh(&rxe->pending_lock); 27 spin_unlock_bh(&rxe->pending_lock); 64 struct rxe_dev *rxe = to_rdev(context->device); local 75 spin_lock_bh(&rxe->pending_lock); 76 list_for_each_entry_safe(ip, pp, &rxe->pending_mmaps, pending_mmaps) { 82 rxe_dbg_dev(rxe, "mmap region is larger than the object!\n"); 83 spin_unlock_bh(&rxe->pending_lock); 90 rxe_dbg_dev(rxe, "unabl 115 rxe_create_mmap_info(struct rxe_dev *rxe, u32 size, struct ib_udata *udata, void *obj) argument [all...] |
H A D | rxe_recv.c | 9 #include "rxe.h" 13 static int check_type_state(struct rxe_dev *rxe, struct rxe_pkt_info *pkt, argument 75 static int check_keys(struct rxe_dev *rxe, struct rxe_pkt_info *pkt, argument 78 struct rxe_port *port = &rxe->port; 100 static int check_addr(struct rxe_dev *rxe, struct rxe_pkt_info *pkt, argument 137 struct rxe_dev *rxe = pkt->rxe; local 138 struct rxe_port *port = &rxe->port; 153 qp = rxe_pool_get_index(&rxe->qp_pool, index); 157 err = check_type_state(rxe, pk 190 rxe_rcv_mcast_pkt(struct rxe_dev *rxe, struct sk_buff *skb) argument 284 rxe_chk_dgid(struct rxe_dev *rxe, struct sk_buff *skb) argument 320 struct rxe_dev *rxe = pkt->rxe; local [all...] |
H A D | rxe_net.c | 17 #include "rxe.h" 137 struct rxe_dev *rxe; local 141 /* takes a reference on rxe->ib_dev 144 rxe = rxe_get_dev_from_net(ndev); 145 if (!rxe && is_vlan_dev(ndev)) 146 rxe = rxe_get_dev_from_net(vlan_dev_real_dev(ndev)); 147 if (!rxe) 151 ib_device_put(&rxe->ib_dev); 156 pkt->rxe = rxe; 420 struct rxe_dev *rxe = to_rdev(qp->ibqp.device); local 459 rxe_init_packet(struct rxe_dev *rxe, struct rxe_av *av, int paylen, struct rxe_pkt_info *pkt) argument 518 rxe_parent_name(struct rxe_dev *rxe, unsigned int port_num) argument 526 struct rxe_dev *rxe = NULL; local 543 rxe_port_event(struct rxe_dev *rxe, enum ib_event_type event) argument 556 rxe_port_up(struct rxe_dev *rxe) argument 568 rxe_port_down(struct rxe_dev *rxe) argument 580 rxe_set_port_state(struct rxe_dev *rxe) argument 593 struct rxe_dev *rxe = rxe_get_dev_from_net(ndev); local [all...] |
H A D | rxe_verbs.c | 11 #include "rxe.h" 22 struct rxe_dev *rxe = to_rdev(ibdev); local 26 rxe_dbg_dev(rxe, "malformed udata\n"); 31 memcpy(attr, &rxe->attr, sizeof(*attr)); 36 rxe_err_dev(rxe, "returned err = %d\n", err); 43 struct rxe_dev *rxe = to_rdev(ibdev); local 48 rxe_dbg_dev(rxe, "bad port_num = %d\n", port_num); 52 memcpy(attr, &rxe->port.attr, sizeof(*attr)); 54 mutex_lock(&rxe->usdev_lock); 60 else if (dev_get_flags(rxe 77 struct rxe_dev *rxe = to_rdev(ibdev); local 97 struct rxe_dev *rxe = to_rdev(ibdev); local 125 struct rxe_dev *rxe = to_rdev(ibdev); local 159 struct rxe_dev *rxe = to_rdev(ibdev); local 178 struct rxe_dev *rxe = to_rdev(ibdev); local 207 struct rxe_dev *rxe = to_rdev(ibuc->device); local 231 struct rxe_dev *rxe = to_rdev(ibpd->device); local 265 struct rxe_dev *rxe = to_rdev(ibah->device); local 370 struct rxe_dev *rxe = to_rdev(ibsrq->device); local 429 struct rxe_dev *rxe = to_rdev(ibsrq->device); local 530 struct rxe_dev *rxe = to_rdev(ibqp->device); local 594 struct rxe_dev *rxe = to_rdev(ibqp->device); local 1060 struct rxe_dev *rxe = to_rdev(dev); local 1113 struct rxe_dev *rxe = to_rdev(ibcq->device); local 1223 struct rxe_dev *rxe = to_rdev(ibpd->device); local 1256 struct rxe_dev *rxe = to_rdev(ibpd->device); local 1337 struct rxe_dev *rxe = to_rdev(ibpd->device); local 1408 struct rxe_dev *rxe = local 1427 struct rxe_dev *rxe = container_of(ib_dev, struct rxe_dev, ib_dev); local 1498 rxe_register_device(struct rxe_dev *rxe, const char *ibdev_name) argument [all...] |
H A D | rxe_icrc.c | 9 #include "rxe.h" 14 * @rxe: rdma_rxe device object 18 int rxe_icrc_init(struct rxe_dev *rxe) argument 24 rxe_dbg_dev(rxe, "failed to init crc32 algorithm err: %ld\n", 29 rxe->tfm = tfm; 36 * @rxe: rdma_rxe device object 43 static __be32 rxe_crc32(struct rxe_dev *rxe, __be32 crc, void *next, size_t len) argument 48 SHASH_DESC_ON_STACK(shash, rxe->tfm); 50 shash->tfm = rxe->tfm; 54 rxe_dbg_dev(rxe, "faile [all...] |
H A D | rxe_srq.c | 8 #include "rxe.h" 11 int rxe_srq_chk_init(struct rxe_dev *rxe, struct ib_srq_init_attr *init) argument 15 if (attr->max_wr > rxe->attr.max_srq_wr) { 16 rxe_dbg_dev(rxe, "max_wr(%d) > max_srq_wr(%d)\n", 17 attr->max_wr, rxe->attr.max_srq_wr); 22 rxe_dbg_dev(rxe, "max_wr(%d) <= 0\n", attr->max_wr); 29 if (attr->max_sge > rxe->attr.max_srq_sge) { 30 rxe_dbg_dev(rxe, "max_sge(%d) > max_srq_sge(%d)\n", 31 attr->max_sge, rxe->attr.max_srq_sge); 44 int rxe_srq_from_init(struct rxe_dev *rxe, struc argument 100 rxe_srq_chk_attr(struct rxe_dev *rxe, struct rxe_srq *srq, struct ib_srq_attr *attr, enum ib_srq_attr_mask mask) argument 151 rxe_srq_from_attr(struct rxe_dev *rxe, struct rxe_srq *srq, struct ib_srq_attr *attr, enum ib_srq_attr_mask mask, struct rxe_modify_srq_cmd *ucmd, struct ib_udata *udata) argument [all...] |
H A D | rxe_cq.c | 7 #include "rxe.h" 11 int rxe_cq_chk_attr(struct rxe_dev *rxe, struct rxe_cq *cq, argument 17 rxe_dbg_dev(rxe, "cqe(%d) <= 0\n", cqe); 21 if (cqe > rxe->attr.max_cqe) { 22 rxe_dbg_dev(rxe, "cqe(%d) > max_cqe(%d)\n", 23 cqe, rxe->attr.max_cqe); 42 int rxe_cq_from_init(struct rxe_dev *rxe, struct rxe_cq *cq, int cqe, argument 50 cq->queue = rxe_queue_init(rxe, &cqe, 53 rxe_dbg_dev(rxe, "unable to create cq\n"); 57 err = do_mmap_info(rxe, ures [all...] |
H A D | rxe_loc.h | 21 int rxe_cq_chk_attr(struct rxe_dev *rxe, struct rxe_cq *cq, 24 int rxe_cq_from_init(struct rxe_dev *rxe, struct rxe_cq *cq, int cqe, 37 struct rxe_mcg *rxe_lookup_mcg(struct rxe_dev *rxe, union ib_gid *mgid); 62 int rxe_mr_init_user(struct rxe_dev *rxe, u64 start, u64 length, 92 struct sk_buff *rxe_init_packet(struct rxe_dev *rxe, struct rxe_av *av, 98 const char *rxe_parent_name(struct rxe_dev *rxe, unsigned int port_num); 101 int rxe_qp_chk_init(struct rxe_dev *rxe, struct ib_qp_init_attr *init); 102 int rxe_qp_from_init(struct rxe_dev *rxe, struct rxe_qp *qp, struct rxe_pd *pd, 107 int rxe_qp_chk_attr(struct rxe_dev *rxe, struct rxe_qp *qp, 152 int rxe_srq_chk_init(struct rxe_dev *rxe, struc [all...] |
H A D | rxe.h | 42 #define rxe_dbg_dev(rxe, fmt, ...) ibdev_dbg(&(rxe)->ib_dev, \ 63 #define rxe_err_dev(rxe, fmt, ...) ibdev_err_ratelimited(&(rxe)->ib_dev, \ 84 #define rxe_info_dev(rxe, fmt, ...) ibdev_info_ratelimited(&(rxe)->ib_dev, \ 140 void rxe_set_mtu(struct rxe_dev *rxe, unsigned int dev_mtu); 142 int rxe_add(struct rxe_dev *rxe, unsigned int mtu, const char *ibdev_name); 157 void rxe_port_up(struct rxe_dev *rxe); 158 void rxe_port_down(struct rxe_dev *rxe); [all...] |
H A D | rxe_qp.c | 13 #include "rxe.h" 18 static int rxe_qp_chk_cap(struct rxe_dev *rxe, struct ib_qp_cap *cap, argument 21 if (cap->max_send_wr > rxe->attr.max_qp_wr) { 22 rxe_dbg_dev(rxe, "invalid send wr = %u > %d\n", 23 cap->max_send_wr, rxe->attr.max_qp_wr); 27 if (cap->max_send_sge > rxe->attr.max_send_sge) { 28 rxe_dbg_dev(rxe, "invalid send sge = %u > %d\n", 29 cap->max_send_sge, rxe->attr.max_send_sge); 34 if (cap->max_recv_wr > rxe->attr.max_qp_wr) { 35 rxe_dbg_dev(rxe, "invali 59 rxe_qp_chk_init(struct rxe_dev *rxe, struct ib_qp_init_attr *init) argument 148 rxe_qp_init_misc(struct rxe_dev *rxe, struct rxe_qp *qp, struct ib_qp_init_attr *init) argument 190 struct rxe_dev *rxe = to_rdev(qp->ibqp.device); local 235 rxe_qp_init_req(struct rxe_dev *rxe, struct rxe_qp *qp, struct ib_qp_init_attr *init, struct ib_udata *udata, struct rxe_create_qp_resp __user *uresp) argument 283 struct rxe_dev *rxe = to_rdev(qp->ibqp.device); local 324 rxe_qp_init_resp(struct rxe_dev *rxe, struct rxe_qp *qp, struct ib_qp_init_attr *init, struct ib_udata *udata, struct rxe_create_qp_resp __user *uresp) argument 349 rxe_qp_from_init(struct rxe_dev *rxe, struct rxe_qp *qp, struct rxe_pd *pd, struct ib_qp_init_attr *init, struct rxe_create_qp_resp __user *uresp, struct ib_pd *ibpd, struct ib_udata *udata) argument 439 rxe_qp_chk_attr(struct rxe_dev *rxe, struct rxe_qp *qp, struct ib_qp_attr *attr, int mask) argument [all...] |
H A D | rxe_queue.c | 8 #include "rxe.h" 12 int do_mmap_info(struct rxe_dev *rxe, struct mminfo __user *outbuf, argument 20 ip = rxe_create_mmap_info(rxe, buf_size, udata, buf); 31 spin_lock_bh(&rxe->pending_lock); 32 list_add(&ip->pending_mmaps, &rxe->pending_mmaps); 33 spin_unlock_bh(&rxe->pending_lock); 55 struct rxe_queue *rxe_queue_init(struct rxe_dev *rxe, int *num_elem, argument 70 q->rxe = rxe; 158 new_q = rxe_queue_init(q->rxe, [all...] |
H A D | Makefile | 5 rxe.o \
|
H A D | rxe_av.c | 7 #include "rxe.h" 21 struct rxe_dev *rxe; local 28 rxe = to_rdev(ah->ibah.device); 31 rxe = to_rdev(qp->ibqp.device); 34 port = &rxe->port; 151 ah = rxe_pool_get_index(&pkt->rxe->ah_pool, ah_num);
|
H A D | rxe_mw.c | 14 #include "rxe.h" 20 struct rxe_dev *rxe = to_rdev(ibmw->device); local 25 ret = rxe_add_to_pool(&rxe->mw_pool, mw); 169 struct rxe_dev *rxe = to_rdev(qp->ibqp.device); local 174 mw = rxe_pool_get_index(&rxe->mw_pool, mw_rkey >> 8); 186 mr = rxe_pool_get_index(&rxe->mr_pool, mr_lkey >> 8); 260 struct rxe_dev *rxe = to_rdev(qp->ibqp.device); local 264 mw = rxe_pool_get_index(&rxe->mw_pool, rkey >> 8); 292 struct rxe_dev *rxe = to_rdev(qp->ibqp.device); local 297 mw = rxe_pool_get_index(&rxe [all...] |
H A D | rxe_pool.h | 32 struct rxe_dev *rxe; member in struct:rxe_pool 51 void rxe_pool_init(struct rxe_dev *rxe, struct rxe_pool *pool,
|
H A D | rxe_comp.c | 9 #include "rxe.h" 138 rxe_counter_inc(SKB_TO_PKT(skb)->rxe, RXE_CNT_COMPLETER_SCHED); 230 struct rxe_dev *rxe = to_rdev(qp->ibqp.device); local 313 rxe_counter_inc(rxe, RXE_CNT_RCV_RNR); 323 rxe_counter_inc(rxe, 451 struct rxe_dev *rxe = to_rdev(qp->ibqp.device); local 471 rxe_counter_inc(rxe, RXE_CNT_RDMA_SEND); 649 struct rxe_dev *rxe = to_rdev(qp->ibqp.device); local 791 rxe_counter_inc(rxe, 800 rxe_counter_inc(rxe, RXE_CNT_RETRY_EXCEEDE [all...] |
H A D | rxe_verbs.h | 349 struct rxe_dev *rxe; member in struct:rxe_mcg 408 static inline void rxe_counter_inc(struct rxe_dev *rxe, enum rxe_counters index) argument 410 atomic64_inc(&rxe->stats_counters[index]); 473 int rxe_register_device(struct rxe_dev *rxe, const char *ibdev_name);
|
H A D | rxe_pool.c | 7 #include "rxe.h" 92 void rxe_pool_init(struct rxe_dev *rxe, struct rxe_pool *pool, argument 99 pool->rxe = rxe;
|
H A D | rxe_queue.h | 37 * @QUEUE_TYPE_TO_CLIENT: Queue is written by rxe driver and 40 * Used by rxe internals only. 42 * read by rxe driver. 43 * Used by rxe internals only. 45 * read by rxe driver. 48 * @QUEUE_TYPE_TO_ULP: Queue is written by rxe driver and 63 struct rxe_dev *rxe; member in struct:rxe_queue 79 int do_mmap_info(struct rxe_dev *rxe, struct mminfo __user *outbuf, 85 struct rxe_queue *rxe_queue_init(struct rxe_dev *rxe, int *num_elem, 107 /* used by rxe, clien [all...] |
H A D | rxe_mr.c | 9 #include "rxe.h" 129 int rxe_mr_init_user(struct rxe_dev *rxe, u64 start, u64 length, argument 139 umem = ib_umem_get(&rxe->ib_dev, start, length, access); 620 struct rxe_dev *rxe = to_rdev(pd->ibpd.device); local 623 mr = rxe_pool_get_index(&rxe->mr_pool, index); 640 struct rxe_dev *rxe = to_rdev(qp->ibqp.device); local 645 mr = rxe_pool_get_index(&rxe->mr_pool, key >> 8); 686 * the ib mr keys in sync with rxe mr keys.
|
H A D | rxe_req.c | 10 #include "rxe.h" 210 * are complete. Make mandatory for the rxe driver. 406 struct rxe_dev *rxe = to_rdev(qp->ibqp.device); local 411 return rxe->port.mtu_cap; 420 struct rxe_dev *rxe = to_rdev(qp->ibqp.device); local 434 skb = rxe_init_packet(rxe, av, paylen, pkt); 669 struct rxe_dev *rxe = to_rdev(qp->ibqp.device); local 795 pkt.rxe = rxe;
|
H A D | rxe_resp.c | 9 #include "rxe.h" 84 struct rxe_dev *rxe = to_rdev(qp->ibqp.device); local 93 rxe_counter_inc(rxe, RXE_CNT_OUT_OF_SEQ_REQ); 97 rxe_counter_inc(rxe, RXE_CNT_DUP_REQ); 767 struct rxe_dev *rxe = to_rdev(qp->ibqp.device); local 779 skb = rxe_init_packet(rxe, &qp->pri_av, paylen, ack); 828 struct rxe_dev *rxe = to_rdev(qp->ibqp.device); local 833 mw = rxe_pool_get_index(&rxe->mw_pool, rkey >> 8); 850 mr = rxe_pool_get_index(&rxe->mr_pool, rkey >> 8); 1058 struct rxe_dev *rxe local 1490 struct rxe_dev *rxe = to_rdev(qp->ibqp.device); local [all...] |
/linux-master/drivers/infiniband/sw/ |
H A D | Makefile | 3 obj-$(CONFIG_RDMA_RXE) += rxe/
|