Searched refs:io_wq (Results 1 - 15 of 15) sorted by relevance

/linux-master/io_uring/
H A Dio-wq.h7 struct io_wq;
46 struct io_wq *io_wq_create(unsigned bounded, struct io_wq_data *data);
47 void io_wq_exit_start(struct io_wq *wq);
48 void io_wq_put_and_exit(struct io_wq *wq);
50 void io_wq_enqueue(struct io_wq *wq, struct io_wq_work *work);
54 int io_wq_max_workers(struct io_wq *wq, int *new_count);
64 enum io_wq_cancel io_wq_cancel_cb(struct io_wq *wq, work_cancel_fn *cancel,
H A Dio-wq.c52 struct io_wq *wq;
93 * Per io_wq state
95 struct io_wq { struct
135 static bool create_io_worker(struct io_wq *wq, int index);
137 static bool io_acct_cancel_pending_work(struct io_wq *wq,
141 static void io_wq_cancel_tw_create(struct io_wq *wq);
154 static inline struct io_wq_acct *io_get_acct(struct io_wq *wq, bool bound)
159 static inline struct io_wq_acct *io_work_get_acct(struct io_wq *wq,
170 static void io_worker_ref_put(struct io_wq *wq)
189 struct io_wq *w
[all...]
H A Dtctx.c15 static struct io_wq *io_init_wq_offload(struct io_ring_ctx *ctx,
52 WARN_ON_ONCE(tctx->io_wq);
76 tctx->io_wq = io_init_wq_offload(ctx, task);
77 if (IS_ERR(tctx->io_wq)) {
78 ret = PTR_ERR(tctx->io_wq);
110 ret = io_wq_max_workers(tctx->io_wq, limits);
180 struct io_wq *wq = tctx->io_wq;
194 tctx->io_wq = NULL;
H A Dregister.c349 if (tctx && tctx->io_wq) {
350 ret = io_wq_max_workers(tctx->io_wq, new_count);
372 if (WARN_ON_ONCE(!tctx->io_wq))
378 (void)io_wq_max_workers(tctx->io_wq, new_count);
H A Dcancel.c83 if (!tctx || !tctx->io_wq)
87 cancel_ret = io_wq_cancel_cb(tctx->io_wq, io_cancel_cb, cd, all);
H A Dio_uring.c509 BUG_ON(!tctx->io_wq);
525 io_wq_enqueue(tctx->io_wq, &req->work);
2827 if (tsk && tsk->io_uring && tsk->io_uring->io_wq)
2828 io_wq_cancel_cb(tsk->io_uring->io_wq,
2971 * io_wq will stay alive while we hold uring_lock, because it's
2974 if (!tctx || !tctx->io_wq)
2976 cret = io_wq_cancel_cb(tctx->io_wq, io_cancel_ctx_cb, ctx, true);
3005 } else if (tctx && tctx->io_wq) {
3010 cret = io_wq_cancel_cb(tctx->io_wq, io_cancel_task_cb,
3067 if (tctx->io_wq)
[all...]
/linux-master/drivers/scsi/lpfc/
H A Dlpfc_debugfs.h426 wq = phba->sli4_hba.hdwq[wqidx].io_wq;
470 wq = phba->sli4_hba.hdwq[wqidx].io_wq;
575 if (phba->sli4_hba.hdwq[wq_idx].io_wq->queue_id == qid)
579 lpfc_debug_dump_q(phba->sli4_hba.hdwq[wq_idx].io_wq);
H A Dlpfc_nvme.c2248 if (!vport->localport || !qp || !qp->io_wq)
2251 pring = qp->io_wq->pring;
2767 if (!phba->sli4_hba.hdwq[i].io_wq)
2769 pring = phba->sli4_hba.hdwq[i].io_wq->pring;
H A Dlpfc_sli4.h701 struct lpfc_queue *io_wq; /* Fast-path FCP & NVME work queue */ member in struct:lpfc_sli4_hdw_queue
H A Dlpfc_nvmet.c1103 wq = ctxp->hdwq->io_wq;
1178 wq = ctxp->hdwq->io_wq;
2113 wq = phba->sli4_hba.hdwq[qidx].io_wq;
H A Dlpfc_sli.c4655 pring = phba->sli4_hba.hdwq[i].io_wq->pring;
4690 pring = phba->sli4_hba.hdwq[i].io_wq->pring;
10659 wq = phba->sli4_hba.hdwq[piocb->hba_wqidx].io_wq;
11240 return phba->sli4_hba.hdwq[piocb->hba_wqidx].io_wq->pring;
11753 pring = phba->sli4_hba.hdwq[i].io_wq->pring;
12878 phba->sli4_hba.hdwq[iocbq->hba_wqidx].io_wq->pring;
21113 wq = phba->sli4_hba.hdwq[0].io_wq;
21356 wq = qp->io_wq;
21378 wq = qp->io_wq;
21518 txcmplq_cnt = qp->io_wq
[all...]
H A Dlpfc_debugfs.c532 txcmplq_cnt = qp->io_wq->pring->txcmplq_cnt;
3890 qp = phba->sli4_hba.hdwq[qidx].io_wq;
4481 qp = phba->sli4_hba.hdwq[qidx].io_wq;
H A Dlpfc_init.c10411 phba->sli4_hba.hdwq[idx].io_wq = qdesc;
10836 lpfc_sli4_queue_free(hdwq[idx].io_wq);
10839 hdwq[idx].io_wq = NULL;
11176 qp[qidx].io_wq,
11483 lpfc_wq_destroy(phba, qp->io_wq);
H A Dlpfc_scsi.c5558 pring_s4 = phba->sli4_hba.hdwq[iocb->hba_wqidx].io_wq->pring;
/linux-master/include/linux/
H A Dio_uring_types.h88 struct io_wq *io_wq; member in struct:io_uring_task

Completed in 783 milliseconds