/linux-master/drivers/gpu/drm/xe/ |
H A D | xe_gt.c | 355 err = xe_ggtt_init(gt_to_tile(gt)->mem.ggtt);
|
H A D | xe_device_types.h | 179 /** @mem.ggtt: Global graphics translation table */ 180 struct xe_ggtt *ggtt; member in struct:xe_tile::__anon63
|
H A D | xe_device.c | 465 err = xe_ggtt_init_early(tile->mem.ggtt);
|
H A D | xe_bo.c | 1056 xe_ggtt_remove_bo(bo->tile->mem.ggtt, bo); 1417 err = xe_ggtt_insert_bo_at(tile->mem.ggtt, bo, 1420 err = xe_ggtt_insert_bo(tile->mem.ggtt, bo);
|
H A D | xe_ggtt.c | 74 void xe_ggtt_set_pte(struct xe_ggtt *ggtt, u64 addr, u64 pte) argument 76 xe_tile_assert(ggtt->tile, !(addr & XE_PTE_MASK)); 77 xe_tile_assert(ggtt->tile, addr < ggtt->size); 79 writeq(pte, &ggtt->gsm[addr >> XE_PTE_SHIFT]); 82 static void xe_ggtt_clear(struct xe_ggtt *ggtt, u64 start, u64 size) argument 84 u16 pat_index = tile_to_xe(ggtt->tile)->pat.idx[XE_CACHE_WB]; 88 xe_tile_assert(ggtt->tile, start < end); 90 if (ggtt->scratch) 91 scratch_pte = ggtt 104 struct xe_ggtt *ggtt = arg; local 112 struct xe_ggtt *ggtt = arg; local 117 primelockdep(struct xe_ggtt *ggtt) argument 142 xe_ggtt_init_early(struct xe_ggtt *ggtt) argument 203 xe_ggtt_initial_clear(struct xe_ggtt *ggtt) argument 219 xe_ggtt_init(struct xe_ggtt *ggtt) argument 296 xe_ggtt_invalidate(struct xe_ggtt *ggtt) argument 303 xe_ggtt_printk(struct xe_ggtt *ggtt, const char *prefix) argument 323 xe_ggtt_dump_node(struct xe_ggtt *ggtt, const struct drm_mm_node *node, const char *description) argument 346 xe_ggtt_balloon(struct xe_ggtt *ggtt, u64 start, u64 end, struct drm_mm_node *node) argument 379 xe_ggtt_deballoon(struct xe_ggtt *ggtt, struct drm_mm_node *node) argument 391 xe_ggtt_insert_special_node_locked(struct xe_ggtt *ggtt, struct drm_mm_node *node, u32 size, u32 align, u32 mm_flags) argument 398 xe_ggtt_insert_special_node(struct xe_ggtt *ggtt, struct drm_mm_node *node, u32 size, u32 align) argument 411 xe_ggtt_map_bo(struct xe_ggtt *ggtt, struct xe_bo *bo) argument 426 __xe_ggtt_insert_bo_at(struct xe_ggtt *ggtt, struct xe_bo *bo, u64 start, u64 end) argument 457 xe_ggtt_insert_bo_at(struct xe_ggtt *ggtt, struct xe_bo *bo, u64 start, u64 end) argument 463 xe_ggtt_insert_bo(struct xe_ggtt *ggtt, struct xe_bo *bo) argument 468 xe_ggtt_remove_node(struct xe_ggtt *ggtt, struct drm_mm_node *node) argument 483 xe_ggtt_remove_bo(struct xe_ggtt *ggtt, struct xe_bo *bo) argument 494 xe_ggtt_dump(struct xe_ggtt *ggtt, struct drm_printer *p) argument [all...] |
H A D | xe_ggtt.h | 13 void xe_ggtt_set_pte(struct xe_ggtt *ggtt, u64 addr, u64 pte); 14 void xe_ggtt_invalidate(struct xe_ggtt *ggtt); 15 int xe_ggtt_init_early(struct xe_ggtt *ggtt); 16 int xe_ggtt_init(struct xe_ggtt *ggtt); 17 void xe_ggtt_printk(struct xe_ggtt *ggtt, const char *prefix); 19 int xe_ggtt_balloon(struct xe_ggtt *ggtt, u64 start, u64 size, struct drm_mm_node *node); 20 void xe_ggtt_deballoon(struct xe_ggtt *ggtt, struct drm_mm_node *node); 22 int xe_ggtt_insert_special_node(struct xe_ggtt *ggtt, struct drm_mm_node *node, 24 int xe_ggtt_insert_special_node_locked(struct xe_ggtt *ggtt, 27 void xe_ggtt_remove_node(struct xe_ggtt *ggtt, struc [all...] |
/linux-master/drivers/gpu/drm/i915/gt/ |
H A D | intel_workarounds.c | 3174 vma = __vm_create_scratch_for_read(&ce->engine->gt->ggtt->vm,
|
H A D | intel_gt.c | 119 gt->ggtt = to_gt(gt->i915)->ggtt; 121 gt->ggtt = i915_ggtt_create(gt->i915); 122 if (IS_ERR(gt->ggtt)) 123 return PTR_ERR(gt->ggtt); 126 list_add_tail(>->ggtt_link, >->ggtt->gt_list); 495 vma = i915_vma_instance(obj, >->ggtt->vm, NULL); 524 return i915_vm_get(>->ggtt->vm);
|
H A D | intel_engine_cs.c | 1075 if (!HAS_LLC(engine->i915) && i915_ggtt_has_aperture(engine->gt->ggtt)) 1119 vma = i915_vma_instance(obj, &engine->gt->ggtt->vm, NULL);
|
H A D | intel_reset.c | 849 for (i = 0; i < gt->ggtt->num_fences; i++) { 854 vma = READ_ONCE(gt->ggtt->fence_regs[i].vma); 861 GEM_BUG_ON(vma->fence != >->ggtt->fence_regs[i]); 920 intel_ggtt_restore_fences(gt->ggtt);
|
H A D | intel_ggtt.c | 56 static int ggtt_init_hw(struct i915_ggtt *ggtt) argument 58 struct drm_i915_private *i915 = ggtt->vm.i915; 60 i915_address_space_init(&ggtt->vm, VM_CLASS_GGTT); 62 ggtt->vm.is_ggtt = true; 65 ggtt->vm.has_read_only = IS_VALLEYVIEW(i915); 68 ggtt->vm.mm.color_adjust = i915_ggtt_color_adjust; 70 if (ggtt->mappable_end) { 71 if (!io_mapping_init_wc(&ggtt->iomap, 72 ggtt->gmadr.start, 73 ggtt 178 i915_ggtt_suspend(struct i915_ggtt *ggtt) argument 189 gen6_ggtt_invalidate(struct i915_ggtt *ggtt) argument 214 gen8_ggtt_invalidate(struct i915_ggtt *ggtt) argument 241 guc_ggtt_invalidate(struct i915_ggtt *ggtt) argument 293 should_update_ggtt_with_bind(struct i915_ggtt *ggtt) argument 300 gen8_ggtt_bind_get_ce(struct i915_ggtt *ggtt, intel_wakeref_t *wakeref) argument 332 gen8_ggtt_bind_ptes(struct i915_ggtt *ggtt, u32 offset, struct sg_table *pages, u32 num_entries, const gen8_pte_t pte) argument 445 struct i915_ggtt *ggtt = i915_vm_to_ggtt(vm); local 458 struct i915_ggtt *ggtt = i915_vm_to_ggtt(vm); local 474 struct i915_ggtt *ggtt = i915_vm_to_ggtt(vm); local 512 struct i915_ggtt *ggtt = i915_vm_to_ggtt(vm); local 543 struct i915_ggtt *ggtt = i915_vm_to_ggtt(vm); local 555 struct i915_ggtt *ggtt = i915_vm_to_ggtt(vm); local 576 struct i915_ggtt *ggtt = i915_vm_to_ggtt(vm); local 600 struct i915_ggtt *ggtt = i915_vm_to_ggtt(vm); local 620 struct i915_ggtt *ggtt = i915_vm_to_ggtt(vm); local 725 struct i915_ggtt *ggtt = i915_vm_to_ggtt(vm); local 784 ggtt_reserve_guc_top(struct i915_ggtt *ggtt) argument 805 ggtt_release_guc_top(struct i915_ggtt *ggtt) argument 811 cleanup_init_ggtt(struct i915_ggtt *ggtt) argument 819 init_ggtt(struct i915_ggtt *ggtt) argument 953 init_aliasing_ppgtt(struct i915_ggtt *ggtt) argument 1005 fini_aliasing_ppgtt(struct i915_ggtt *ggtt) argument 1036 ggtt_cleanup_hw(struct i915_ggtt *ggtt) argument 1083 struct i915_ggtt *ggtt = to_gt(i915)->ggtt; local 1098 struct i915_ggtt *ggtt = to_gt(i915)->ggtt; local 1153 ggtt_probe_common(struct i915_ggtt *ggtt, u64 size) argument 1205 struct i915_ggtt *ggtt = i915_vm_to_ggtt(vm); local 1217 gen8_gmch_probe(struct i915_ggtt *ggtt) argument 1394 gen6_gmch_probe(struct i915_ggtt *ggtt) argument 1453 ggtt_probe_hw(struct i915_ggtt *ggtt, struct intel_gt *gt) argument 1530 struct i915_ggtt *ggtt; local 1597 i915_ggtt_resume(struct i915_ggtt *ggtt) argument [all...] |
/linux-master/drivers/gpu/drm/i915/ |
H A D | i915_vma.c | 156 GEM_BUG_ON(vm == &vm->gt->ggtt->alias->vm); 1626 struct i915_ggtt *ggtt = i915_vm_to_ggtt(vm); local 1642 list_for_each_entry(gt, &ggtt->gt_list, ggtt_link) 1679 * i915_ggtt_clear_scanout - Clear scanout flag for all objects ggtt vmas 1681 * This function clears scanout flags for objects ggtt vmas. These flags are set
|
H A D | i915_driver.c | 473 /* needs to be done before ggtt probe */ 1111 i915_ggtt_suspend(to_gt(dev_priv)->ggtt); 1220 i915_ggtt_resume(to_gt(dev_priv)->ggtt);
|
H A D | i915_request.c | 1196 return to->engine->gt->ggtt == from->engine->gt->ggtt;
|
H A D | i915_perf.c | 1372 scratch = __vm_create_scratch_for_read_pinned(&ce->engine->gt->ggtt->vm, 4); 1871 vma = i915_vma_instance(bo, >->ggtt->vm, NULL); 1982 vma = i915_vma_instance(bo, >->ggtt->vm, NULL); 2248 &stream->engine->gt->ggtt->vm,
|
H A D | i915_gpu_error.c | 1092 struct i915_ggtt *ggtt = gt->ggtt; local 1093 const u64 slot = ggtt->error_capture.start; 1122 if (drm_mm_node_allocated(&ggtt->error_capture)) { 1127 mutex_lock(&ggtt->error_mutex); 1128 if (ggtt->vm.raw_insert_page) 1129 ggtt->vm.raw_insert_page(&ggtt->vm, dma, slot, 1134 ggtt->vm.insert_page(&ggtt 1210 struct i915_ggtt *ggtt = gt->_gt->ggtt; local [all...] |
H A D | i915_gem.c | 63 insert_mappable_node(struct i915_ggtt *ggtt, struct drm_mm_node *node, u32 size) argument 67 err = mutex_lock_interruptible(&ggtt->vm.mutex); 72 err = drm_mm_insert_node_in_range(&ggtt->vm.mm, node, 74 0, ggtt->mappable_end, 77 mutex_unlock(&ggtt->vm.mutex); 83 remove_mappable_node(struct i915_ggtt *ggtt, struct drm_mm_node *node) argument 85 mutex_lock(&ggtt->vm.mutex); 87 mutex_unlock(&ggtt->vm.mutex); 95 struct i915_ggtt *ggtt = to_gt(i915)->ggtt; local 308 struct i915_ggtt *ggtt = to_gt(i915)->ggtt; local 369 struct i915_ggtt *ggtt = to_gt(i915)->ggtt; local 385 struct i915_ggtt *ggtt = to_gt(i915)->ggtt; local 548 struct i915_ggtt *ggtt = to_gt(i915)->ggtt; local 911 struct i915_ggtt *ggtt = to_gt(i915)->ggtt; local [all...] |
H A D | i915_debugfs.c | 138 return "ggtt"; 345 swizzle_string(to_gt(dev_priv)->ggtt->bit_6_swizzle_x)); 347 swizzle_string(to_gt(dev_priv)->ggtt->bit_6_swizzle_y));
|
/linux-master/drivers/gpu/drm/xe/display/ |
H A D | xe_plane_initial.c | 69 u64 __iomem *gte = tile0->mem.ggtt->gsm;
|
/linux-master/drivers/gpu/drm/i915/gvt/ |
H A D | kvmgt.c | 775 aperture_va = io_mapping_map_wc(&vgpu->gvt->gt->ggtt->iomap,
|
H A D | gvt.h | 400 #define gvt_to_ggtt(gvt) ((gvt)->gt->ggtt)
|
/linux-master/drivers/gpu/drm/i915/gem/selftests/ |
H A D | i915_gem_mman.c | 324 if (!i915_ggtt_has_aperture(to_gt(i915)->ggtt)) 337 (1 + next_prime_number(to_gt(i915)->ggtt->vm.total >> PAGE_SHIFT)) << PAGE_SHIFT); 383 tile.swizzle = to_gt(i915)->ggtt->bit_6_swizzle_x; 386 tile.swizzle = to_gt(i915)->ggtt->bit_6_swizzle_y; 457 if (!i915_ggtt_has_aperture(to_gt(i915)->ggtt)) 474 (1 + next_prime_number(to_gt(i915)->ggtt->vm.total >> PAGE_SHIFT)) << PAGE_SHIFT); 503 tile.swizzle = to_gt(i915)->ggtt->bit_6_swizzle_x; 506 tile.swizzle = to_gt(i915)->ggtt->bit_6_swizzle_y; 551 vma = i915_vma_instance(obj, &engine->gt->ggtt->vm, NULL); 882 !i915_ggtt_has_aperture(to_gt(i915)->ggtt)) [all...] |
/linux-master/drivers/gpu/drm/i915/gem/ |
H A D | i915_gem_stolen.c | 88 struct i915_ggtt *ggtt = to_gt(i915)->ggtt; local 89 struct intel_uncore *uncore = ggtt->vm.gt->uncore; 113 ggtt_res = DEFINE_RES_MEM(ggtt_start, ggtt_total_entries(ggtt) * 4); 572 static void dbg_poison(struct i915_ggtt *ggtt, argument 577 if (!drm_mm_node_allocated(&ggtt->error_capture)) 580 if (ggtt->vm.bind_async_flags & I915_VMA_GLOBAL_BIND) 585 mutex_lock(&ggtt->error_mutex); 589 ggtt->vm.insert_page(&ggtt [all...] |
H A D | i915_gem_region.c | 133 !i915_ggtt_has_aperture(to_gt(mem->i915)->ggtt))
|
H A D | i915_gem_execbuffer.c | 1150 return to_gt(i915)->ggtt; 1182 struct i915_ggtt *ggtt = cache_to_ggtt(cache); local 1190 io_mapping_map_atomic_wc(&ggtt->iomap, offset); 1211 struct i915_ggtt *ggtt = cache_to_ggtt(cache); local 1213 intel_gt_flush_ggtt_writes(ggtt->vm.gt); 1217 ggtt->vm.clear_range(&ggtt->vm, 1220 mutex_lock(&ggtt->vm.mutex); 1222 mutex_unlock(&ggtt->vm.mutex); 1275 struct i915_ggtt *ggtt local [all...] |