Lines Matching refs:sched_class

162 	if (p->sched_class == &stop_sched_class) /* trumps deadline */
168 if (p->sched_class == &idle_sched_class)
271 if (p->sched_class->task_is_throttled)
272 return p->sched_class->task_is_throttled(p, cpu);
496 * - __sched_setscheduler(): p->sched_class, p->policy, p->*prio,
797 rq->curr->sched_class->task_tick(rq, rq->curr, 1);
1221 if (p->sched_class != &fair_sched_class)
1345 if (update_load && p->sched_class == &fair_sched_class) {
1701 if (unlikely(!p->sched_class->uclamp_enabled))
1725 if (unlikely(!p->sched_class->uclamp_enabled))
2116 p->sched_class->enqueue_task(rq, p, flags);
2136 p->sched_class->dequeue_task(rq, p, flags);
2225 const struct sched_class *prev_class,
2228 if (prev_class != p->sched_class) {
2232 p->sched_class->switched_to(rq, p);
2234 p->sched_class->prio_changed(rq, p, oldprio);
2239 if (p->sched_class == rq->curr->sched_class)
2240 rq->curr->sched_class->wakeup_preempt(rq, p, flags);
2241 else if (sched_class_above(p->sched_class, rq->curr->sched_class))
2707 if (p->sched_class->find_lock_rq)
2708 lowest_rq = p->sched_class->find_lock_rq(p, rq);
2733 * sched_class::set_cpus_allowed must do the below, but is not required to
2790 p->sched_class->set_cpus_allowed(p, ctx);
3365 p->sched_class == &fair_sched_class &&
3393 if (p->sched_class->migrate_task_rq)
3394 p->sched_class->migrate_task_rq(p, new_cpu);
3637 cpu = p->sched_class->select_task_rq(p, cpu, wake_flags);
3674 stop->sched_class = &stop_sched_class;
3698 old_stop->sched_class = &rt_sched_class;
3799 if (p->sched_class->task_woken) {
3805 p->sched_class->task_woken(rq, p);
4214 * - p->sched_class
4798 p->sched_class = &rt_sched_class;
4800 p->sched_class = &fair_sched_class;
4844 if (p->sched_class->task_fork)
4845 p->sched_class->task_fork(p);
4890 * Use __set_task_cpu() to avoid calling sched_class::migrate_task_rq,
4905 if (p->sched_class->task_woken) {
4911 p->sched_class->task_woken(rq, p);
5312 if (prev->sched_class->task_dead)
5313 prev->sched_class->task_dead(prev);
5531 dest_cpu = p->sched_class->select_task_rq(p, task_cpu(p), WF_EXEC);
5604 p->sched_class->update_curr(rq);
5684 curr->sched_class->task_tick(rq, curr, 0);
5774 curr->sched_class->task_tick(rq, curr, 0);
5994 const struct sched_class *class;
6003 for_class_range(class, prev->sched_class, &idle_sched_class) {
6018 const struct sched_class *class;
6027 if (likely(!sched_class_above(prev->sched_class, &fair_sched_class) &&
6091 const struct sched_class *class;
7087 p->sched_class = &dl_sched_class;
7089 p->sched_class = &rt_sched_class;
7091 p->sched_class = &fair_sched_class;
7154 const struct sched_class *prev_class;
7211 prev_class = p->sched_class;
7323 p->sched_class->prio_changed(rq, p, old_prio);
7710 const struct sched_class *prev_class;
7888 prev_class = p->sched_class;
8563 current->sched_class->yield_task(rq);
8980 if (!curr->sched_class->yield_to_task)
8983 if (curr->sched_class != p->sched_class)
8989 yielded = curr->sched_class->yield_to_task(rq, p);
9121 if (p->sched_class->get_rr_interval)
9122 time_slice = p->sched_class->get_rr_interval(rq, p);
9323 idle->sched_class = &idle_sched_class;
9580 const struct sched_class *class;
9595 const struct sched_class *class;
10469 if (tsk->sched_class->task_change_group)
10470 tsk->sched_class->task_change_group(tsk);