Lines Matching refs:pte

634 	pt_entry_t *pte;
645 pte = (pt_entry_t *) kernel_pt_lookup(
647 if (pte == NULL)
650 pte[l2pte_index(va)] =
993 pt_entry_t *ptep, pte;
1007 pte = *ptep;
1009 if ((pte & L2_S_CACHE_MASK) != pte_l2_s_cache_mode_pt) {
1014 *ptep = (pte & ~L2_S_CACHE_MASK) | pte_l2_s_cache_mode_pt;
1154 * Make sure the pte is written out to RAM.
1179 pt_entry_t *ptep, pte;
1185 pte = (*ptep & ~L2_S_CACHE_MASK) | pte_l2_s_cache_mode;
1186 if (l2pte_valid(pte)) {
1194 pte = *ptep &~ L2_S_CACHE_MASK;
1196 l2pte_valid(pte)) {
1210 *ptep = pte;
1321 * Modify pte bits for all ptes corresponding to the given physical address.
1422 /* make the pte read only */
1771 pt_entry_t *ptep, pte;
1802 pte = *ptep;
1803 if (pte == 0)
1809 if (user && (pte & L2_S_PROT_U) == 0)
1814 pa = l2pte_pa(pte);
1816 if ((ftype & VM_PROT_WRITE) && (pte & L2_S_PROT_W) == 0) {
1857 *ptep = (pte & ~L2_TYPE_MASK) | L2_S_PROTO | L2_S_PROT_W;
1861 if ((pte & L2_TYPE_MASK) == L2_TYPE_INV) {
1882 *ptep = (pte & ~L2_TYPE_MASK) | L2_S_PROTO;
1932 printf("fixup: pte 0x%x, l1pd 0x%x, last code 0x%x\n",
1933 pte, l1pd, last_fault_code);
1957 pt_entry_t *ptep, pte;
1979 pte = *ptep;
1980 pte = (pte & ~L2_S_CACHE_MASK) | pte_l2_s_cache_mode_pt;
1981 *ptep = pte;
2075 pt_entry_t *ptep, pte;
2103 pte = *ptep;
2104 if ((pte & L2_S_CACHE_MASK) != pte_l2_s_cache_mode_pt) {
2105 *ptep = (pte & ~L2_S_CACHE_MASK) |
2243 "L2 pte @ %p\n", ptep);
2555 KASSERT((vm_offset_t)m >= KERNBASE, ("Trying to access non-existent page va %x pte %x", pv->pv_va, *pt));
2650 pt_entry_t *pte;
2663 pte = &l2b->l2b_kva[l2pte_index(va)];
2664 opte = *pte;
2665 PDEBUG(1, printf("pmap_kenter: pte = %08x, opte = %08x, npte = %08x\n",
2666 (uint32_t) pte, opte, *pte));
2673 *pte = L2_S_PROTO | pa | L2_S_PROT(PTE_KERNEL,
2676 *pte |= pte_l2_s_cache_mode;
2678 *pte |= L2_S_PROT_U;
2679 PTE_SYNC(pte);
2780 pt_entry_t *pte, opte;
2789 pte = &l2b->l2b_kva[l2pte_index(va)];
2790 opte = *pte;
2812 *pte = 0;
2935 pt_entry_t *pte;
2937 if (!pmap_get_pde_pte(pmap, addr, &pde, &pte))
2939 KASSERT(pte != NULL, ("Valid mapping but no pte ?"));
2940 if (*pte == 0)
3088 pt_entry_t *ptep, pte;
3135 if ((pte = *ptep) != 0 && (pte & L2_S_PROT_W) != 0) {
3139 pg = PHYS_TO_VM_PAGE(l2pte_pa(pte));
3140 pte &= ~L2_S_PROT_W;
3141 *ptep = pte;
3188 * that the related pte can not be reclaimed.
3545 pt_entry_t *ptep, pte;
3563 if ((pte = *ptep) == 0 ||
3564 (m = PHYS_TO_VM_PAGE(l2pte_pa(pte))) == NULL ||
3615 pt_entry_t *ptep, pte;
3643 pte = ptep[l2pte_index(va)];
3644 if (pte == 0)
3646 if ((pte & L2_TYPE_MASK) == L2_TYPE_L)
3647 pa = (pte & L2_L_FRAME) | (va & L2_L_OFFSET);
3649 pa = (pte & L2_S_FRAME) | (va & L2_S_OFFSET);
3665 pt_entry_t *ptep, pte;
3707 pte = *ptep;
3709 if (pte == 0) {
3713 if (pte & L2_S_PROT_W || (prot & VM_PROT_WRITE) == 0) {
3714 if ((pte & L2_TYPE_MASK) == L2_TYPE_L)
3715 pa = (pte & L2_L_FRAME) | (va & L2_L_OFFSET);
3717 pa = (pte & L2_S_FRAME) | (va & L2_S_OFFSET);
3735 pt_entry_t *ptep, pte;
3746 pte = L2_S_PROTO | pa |
3752 pte = 0;
3756 pte = ptep[l2pte_index(va)];
3757 if (pte == 0) {
3761 if ((pte & L2_TYPE_MASK) == L2_TYPE_L)
3762 pa = (pte & L2_L_FRAME) | (va & L2_L_OFFSET);
3764 pa = (pte & L2_S_FRAME) | (va & L2_S_OFFSET);
3768 *pte2p = pte;
3873 pt_entry_t pte;
3876 pte = *ptep;
3878 if (pte == 0) {
3888 pa = l2pte_pa(pte);
3908 if (l2pte_valid(pte) && pmap_is_current(pm)) {
4024 pt_entry_t *ptep, *sptep, pte;
4044 pte = *ptep;
4045 if (!l2pte_minidata(pte)) {
4048 *ptep = pte & ~L2_B;
4565 pt_entry_t *ptep, pte;
4579 pte = *ptep;
4580 if (!l2pte_valid(pte)) {
4585 if (pte & L2_S_PROT_W)
4588 pa = l2pte_pa(pte);
4711 pt_entry_t *pte;
4733 pte = (pt_entry_t *) kernel_pt_lookup(pde[L1_IDX(va)] & L1_C_ADDR_MASK);
4735 if (pte == NULL)
4738 pte[l2pte_index(va)] =
4740 PTE_SYNC(&pte[l2pte_index(va)]);
4755 pt_entry_t *pte, f1, f2s, f2l;
4816 pte = (pt_entry_t *) kernel_pt_lookup(
4818 if (pte == NULL)
4827 pte[l2pte_index(va) + i] =
4830 PTE_SYNC(&pte[l2pte_index(va) + i]);
4842 pte[l2pte_index(va)] =
4844 PTE_SYNC(&pte[l2pte_index(va)]);