Lines Matching defs:va_curr
1361 u32 va_curr;
1370 va_curr = virt_addr;
1374 pte_addr_l1 = hw_mmu_pte_addr_l1(l1_base_va, va_curr);
1380 u32 va_curr_orig = va_curr;
1382 pte_addr_l1 = hw_mmu_pte_addr_l1(l1_base_va, va_curr);
1403 pte_addr_l2 = hw_mmu_pte_addr_l2(l2_base_va, va_curr);
1421 /* va_curr aligned to pte_size? */
1423 va_curr & (pte_size - 1)) {
1452 if (hw_mmu_pte_clear(pte_addr_l2, va_curr, pte_size)) {
1459 va_curr += pte_size;
1485 /* va_curr aligned to pte_size? */
1488 va_curr & (pte_size - 1)) {
1515 if (!hw_mmu_pte_clear(l1_base_va, va_curr, pte_size)) {
1518 va_curr += pte_size;
1531 "%s: va_curr %x, pte_addr_l1 %x pte_addr_l2 %x rem_bytes %x,"
1532 " rem_bytes_l2 %x status %x\n", __func__, va_curr, pte_addr_l1,
1577 u32 va_curr = va;
1588 all_bits = pa_curr | va_curr;
1596 va_curr, page_size[i], map_attrs);
1598 va_curr += page_size[i];
1718 u32 va_curr;
1732 va_curr = ul_mpu_addr;
1733 page[0] = vmalloc_to_page((void *)va_curr);
1749 vmalloc_to_page((void *)(va_curr + size_curr));
1769 (va_curr - ul_mpu_addr), size_curr,
1771 va_curr += size_curr;