Searched refs:io_wq (Results 1 - 15 of 15) sorted by relevance
/linux-master/io_uring/ |
H A D | io-wq.h | 7 struct io_wq; 46 struct io_wq *io_wq_create(unsigned bounded, struct io_wq_data *data); 47 void io_wq_exit_start(struct io_wq *wq); 48 void io_wq_put_and_exit(struct io_wq *wq); 50 void io_wq_enqueue(struct io_wq *wq, struct io_wq_work *work); 54 int io_wq_max_workers(struct io_wq *wq, int *new_count); 64 enum io_wq_cancel io_wq_cancel_cb(struct io_wq *wq, work_cancel_fn *cancel,
|
H A D | io-wq.c | 51 struct io_wq *wq; 94 * Per io_wq state 96 struct io_wq { struct 136 static bool create_io_worker(struct io_wq *wq, int index); 138 static bool io_acct_cancel_pending_work(struct io_wq *wq, 142 static void io_wq_cancel_tw_create(struct io_wq *wq); 155 static inline struct io_wq_acct *io_get_acct(struct io_wq *wq, bool bound) 160 static inline struct io_wq_acct *io_work_get_acct(struct io_wq *wq, 171 static void io_worker_ref_put(struct io_wq *wq) 190 struct io_wq *w [all...] |
H A D | tctx.c | 15 static struct io_wq *io_init_wq_offload(struct io_ring_ctx *ctx, 52 WARN_ON_ONCE(tctx->io_wq); 76 tctx->io_wq = io_init_wq_offload(ctx, task); 77 if (IS_ERR(tctx->io_wq)) { 78 ret = PTR_ERR(tctx->io_wq); 110 ret = io_wq_max_workers(tctx->io_wq, limits); 180 struct io_wq *wq = tctx->io_wq; 194 tctx->io_wq = NULL;
|
H A D | register.c | 349 if (tctx && tctx->io_wq) { 350 ret = io_wq_max_workers(tctx->io_wq, new_count); 373 if (WARN_ON_ONCE(!tctx->io_wq)) 379 (void)io_wq_max_workers(tctx->io_wq, new_count);
|
H A D | cancel.c | 83 if (!tctx || !tctx->io_wq) 87 cancel_ret = io_wq_cancel_cb(tctx->io_wq, io_cancel_cb, cd, all);
|
H A D | io_uring.c | 507 BUG_ON(!tctx->io_wq); 523 io_wq_enqueue(tctx->io_wq, &req->work); 3078 if (tsk && tsk->io_uring && tsk->io_uring->io_wq) 3079 io_wq_cancel_cb(tsk->io_uring->io_wq, 3231 * io_wq will stay alive while we hold uring_lock, because it's 3234 if (!tctx || !tctx->io_wq) 3236 cret = io_wq_cancel_cb(tctx->io_wq, io_cancel_ctx_cb, ctx, true); 3296 } else if (tctx && tctx->io_wq) { 3301 cret = io_wq_cancel_cb(tctx->io_wq, io_cancel_task_cb, 3356 if (tctx->io_wq) [all...] |
/linux-master/drivers/scsi/lpfc/ |
H A D | lpfc_debugfs.h | 426 wq = phba->sli4_hba.hdwq[wqidx].io_wq; 470 wq = phba->sli4_hba.hdwq[wqidx].io_wq; 575 if (phba->sli4_hba.hdwq[wq_idx].io_wq->queue_id == qid) 579 lpfc_debug_dump_q(phba->sli4_hba.hdwq[wq_idx].io_wq);
|
H A D | lpfc_nvme.c | 2253 if (!vport->localport || !qp || !qp->io_wq) 2256 pring = qp->io_wq->pring; 2772 if (!phba->sli4_hba.hdwq[i].io_wq) 2774 pring = phba->sli4_hba.hdwq[i].io_wq->pring;
|
H A D | lpfc_sli4.h | 701 struct lpfc_queue *io_wq; /* Fast-path FCP & NVME work queue */ member in struct:lpfc_sli4_hdw_queue
|
H A D | lpfc_nvmet.c | 1103 wq = ctxp->hdwq->io_wq; 1178 wq = ctxp->hdwq->io_wq; 2111 wq = phba->sli4_hba.hdwq[qidx].io_wq;
|
H A D | lpfc_sli.c | 4655 pring = phba->sli4_hba.hdwq[i].io_wq->pring; 4692 pring = phba->sli4_hba.hdwq[i].io_wq->pring; 10659 wq = phba->sli4_hba.hdwq[piocb->hba_wqidx].io_wq; 11240 return phba->sli4_hba.hdwq[piocb->hba_wqidx].io_wq->pring; 11753 pring = phba->sli4_hba.hdwq[i].io_wq->pring; 12878 phba->sli4_hba.hdwq[iocbq->hba_wqidx].io_wq->pring; 21132 wq = phba->sli4_hba.hdwq[0].io_wq; 21375 wq = qp->io_wq; 21397 wq = qp->io_wq; 21537 txcmplq_cnt = qp->io_wq [all...] |
H A D | lpfc_debugfs.c | 532 txcmplq_cnt = qp->io_wq->pring->txcmplq_cnt; 3890 qp = phba->sli4_hba.hdwq[qidx].io_wq; 4481 qp = phba->sli4_hba.hdwq[qidx].io_wq;
|
H A D | lpfc_init.c | 10427 phba->sli4_hba.hdwq[idx].io_wq = qdesc; 10852 lpfc_sli4_queue_free(hdwq[idx].io_wq); 10855 hdwq[idx].io_wq = NULL; 11192 qp[qidx].io_wq, 11499 lpfc_wq_destroy(phba, qp->io_wq);
|
H A D | lpfc_scsi.c | 5539 pring_s4 = phba->sli4_hba.hdwq[iocb->hba_wqidx].io_wq->pring;
|
/linux-master/include/linux/ |
H A D | io_uring_types.h | 88 struct io_wq *io_wq; member in struct:io_uring_task
|
Completed in 305 milliseconds