va 54 arch/i386/i386/acpi_machdep.c vaddr_t va = uvm_km_valloc(kernel_map, endpa - pgpa); va 56 arch/i386/i386/acpi_machdep.c if (va == 0) va 59 arch/i386/i386/acpi_machdep.c handle->baseva = va; va 60 arch/i386/i386/acpi_machdep.c handle->va = (u_int8_t *)(va + (u_long)(pa & PGOFSET)); va 65 arch/i386/i386/acpi_machdep.c pmap_kenter_pa(va, pgpa, VM_PROT_READ | VM_PROT_WRITE); va 66 arch/i386/i386/acpi_machdep.c va += NBPG; va 89 arch/i386/i386/acpi_machdep.c for (ptr = handle->va, i = 0; va 143 arch/i386/i386/acpi_machdep.c ebda = *(const u_int16_t *)(&handle.va[0x40e]); va 164 arch/i386/i386/acpi_machdep.c aaa->aaa_pbase = ptr - handle.va + handle.pa; va 146 arch/i386/i386/bios.c volatile u_int8_t *va; va 153 arch/i386/i386/bios.c va = ISA_HOLE_VADDR(0xffff0); va 154 arch/i386/i386/bios.c switch (va[14]) { va 166 arch/i386/i386/bios.c str, va[5], va[6], va[8], va[9], va[11], va[12]); va 197 arch/i386/i386/bios.c for (va = ISA_HOLE_VADDR(BIOS32_START); va 198 arch/i386/i386/bios.c va < (u_int8_t *)ISA_HOLE_VADDR(BIOS32_END); va += 16) { va 199 arch/i386/i386/bios.c bios32_header_t h = (bios32_header_t)va; va 207 arch/i386/i386/bios.c for (cksum = 0, i = h->length * 16; i--; cksum += va[i]) va 224 arch/i386/i386/bios.c for (va = ISA_HOLE_VADDR(SMBIOS_START); va 225 arch/i386/i386/bios.c va < (u_int8_t *)ISA_HOLE_VADDR(SMBIOS_END); va+= 16) { va 226 arch/i386/i386/bios.c struct smbhdr * sh = (struct smbhdr *)va; va 235 arch/i386/i386/bios.c for (chksum = 0; i--; chksum += va[i]) va 239 arch/i386/i386/bios.c va += 0x10; va 240 arch/i386/i386/bios.c if (va[0] != '_' && va[1] != 'D' && va[2] != 'M' && va 241 arch/i386/i386/bios.c va[3] != 'I' && va[4] != '_') va 243 arch/i386/i386/bios.c for (chksum = 0, i = 0xf; i--; chksum += va[i]); va 326 arch/i386/i386/bios.c for (str = NULL, va = ISA_HOLE_VADDR(0xc0000), va 328 arch/i386/i386/bios.c va < eva; va += 512) { va 330 arch/i386/i386/bios.c bios_romheader_t romh = (bios_romheader_t)va; va 346 arch/i386/i386/bios.c if (va + len > eva) va 349 arch/i386/i386/bios.c for (cksum = 0, i = len; i--; cksum += va[i]) va 356 arch/i386/i386/bios.c off = 0xc0000 + (va - (u_int8_t *) va 369 arch/i386/i386/bios.c va += len - 512; va 480 arch/i386/i386/bios.c vaddr_t va, sva; va 503 arch/i386/i386/bios.c sva = va = uvm_km_valloc(kernel_map, endpa); va 504 arch/i386/i386/bios.c if (va == 0) va 508 arch/i386/i386/bios.c setgdt(slot, (caddr_t)va, BIOS32_END, SDT_MEMERA, SEL_KPL, 1, 0); va 511 arch/i386/i386/bios.c va += trunc_page(BIOS32_START); va 512 arch/i386/i386/bios.c pa < endpa; pa += NBPG, va += NBPG) { va 513 arch/i386/i386/bios.c pmap_enter(pmap_kernel(), va, pa, va 689 arch/i386/i386/bios.c u_int8_t *va, *end; va 693 arch/i386/i386/bios.c va = smbios_entry.addr; va 694 arch/i386/i386/bios.c end = va + smbios_entry.len; va 704 arch/i386/i386/bios.c if ((u_int8_t *)st->hdr >= va && (u_int8_t *)st->hdr < end) { va 707 arch/i386/i386/bios.c va = (u_int8_t *)hdr + hdr->size; va 708 arch/i386/i386/bios.c for (; va + 1 < end; va++) va 709 arch/i386/i386/bios.c if (*va == NULL && *(va + 1) == NULL) va 711 arch/i386/i386/bios.c va+= 2; va 716 arch/i386/i386/bios.c for (; va + sizeof(struct smbtblhdr) < end && tcount <= va 718 arch/i386/i386/bios.c hdr = (struct smbtblhdr *)va; va 722 arch/i386/i386/bios.c st->tblhdr = va + sizeof(struct smbtblhdr); va 728 arch/i386/i386/bios.c va+= hdr->size; va 729 arch/i386/i386/bios.c for (; va + 1 < end; va++) va 730 arch/i386/i386/bios.c if (*va == NULL && *(va + 1) == NULL) va 732 arch/i386/i386/bios.c va+=2; va 741 arch/i386/i386/bios.c u_int8_t *va, *end; va 745 arch/i386/i386/bios.c va = (u_int8_t *)st->hdr + st->hdr->size; va 747 arch/i386/i386/bios.c for (i = 1; va < end && i < indx && *va; i++) va 748 arch/i386/i386/bios.c while (*va++) va 751 arch/i386/i386/bios.c if (va + len < end) { va 753 arch/i386/i386/bios.c bcopy(va, ret, len); va 69 arch/i386/i386/db_trace.c #define INKERNEL(va) (((vaddr_t)(va)) >= VM_MIN_KERNEL_ADDRESS) va 128 arch/i386/i386/gdt.c vaddr_t va; va 139 arch/i386/i386/gdt.c for (va = (vaddr_t)gdt; va < (vaddr_t)gdt + min_len; va += PAGE_SIZE) { va 143 arch/i386/i386/gdt.c pmap_kenter_pa(va, VM_PAGE_TO_PHYS(pg), va 199 arch/i386/i386/gdt.c vaddr_t va; va 206 arch/i386/i386/gdt.c for (va = (vaddr_t)(ci->ci_gdt) + old_len; va 207 arch/i386/i386/gdt.c va < (vaddr_t)(ci->ci_gdt) + new_len; va 208 arch/i386/i386/gdt.c va += PAGE_SIZE) { va 215 arch/i386/i386/gdt.c pmap_kenter_pa(va, VM_PAGE_TO_PHYS(pg), va 95 arch/i386/i386/kgdb_machdep.c kgdb_acc(vaddr_t va, size_t len) va 100 arch/i386/i386/kgdb_machdep.c last_va = va + len; va 101 arch/i386/i386/kgdb_machdep.c va &= ~PGOFSET; va 105 arch/i386/i386/kgdb_machdep.c pte = kvtopte(va); va 108 arch/i386/i386/kgdb_machdep.c va += NBPG; va 109 arch/i386/i386/kgdb_machdep.c } while (va < last_va); va 84 arch/i386/i386/lapic.c vaddr_t va = (vaddr_t)&local_apic; va 98 arch/i386/i386/lapic.c pte = kvtopte(va); va 100 arch/i386/i386/lapic.c invlpg(va); va 386 arch/i386/i386/machdep.c vaddr_t minaddr, maxaddr, va; va 394 arch/i386/i386/machdep.c va = (vaddr_t)msgbufp; va 396 arch/i386/i386/machdep.c pmap_kenter_pa(va, pa, VM_PROT_READ|VM_PROT_WRITE); va 397 arch/i386/i386/machdep.c va += PAGE_SIZE; va 2761 arch/i386/i386/machdep.c vaddr_t va; va 2766 arch/i386/i386/machdep.c va = uvm_km_zalloc(kernel_map, NBPG*2); va 2767 arch/i386/i386/machdep.c p = (void *)(va + NBPG - 7*sizeof(*idt)); va 2778 arch/i386/i386/machdep.c pte = PTE_BASE + atop(va); va 3503 arch/i386/i386/machdep.c vaddr_t va; va 3517 arch/i386/i386/machdep.c va = uvm_km_valloc(kernel_map, map_size); va 3518 arch/i386/i386/machdep.c if (va == 0) va 3521 arch/i386/i386/machdep.c *bshp = (bus_space_handle_t)(va + (bpa & PGOFSET)); va 3524 arch/i386/i386/machdep.c pa += PAGE_SIZE, va += PAGE_SIZE, map_size -= PAGE_SIZE) { va 3525 arch/i386/i386/machdep.c pmap_kenter_pa(va, pa, VM_PROT_READ | VM_PROT_WRITE); va 3527 arch/i386/i386/machdep.c pte = kvtopte(va); va 3532 arch/i386/i386/machdep.c pmap_tlb_shootpage(pmap_kernel(), va); va 3545 arch/i386/i386/machdep.c u_long va, endva; va 3560 arch/i386/i386/machdep.c va = trunc_page(bsh); va 3564 arch/i386/i386/machdep.c if (endva <= va) va 3568 arch/i386/i386/machdep.c (void) pmap_extract(pmap_kernel(), va, &bpa); va 3574 arch/i386/i386/machdep.c uvm_km_free(kernel_map, va, endva - va); va 3591 arch/i386/i386/machdep.c u_long va, endva; va 3604 arch/i386/i386/machdep.c va = trunc_page(bsh); va 3608 arch/i386/i386/machdep.c if (endva <= va) va 3612 arch/i386/i386/machdep.c (void) pmap_extract(pmap_kernel(), va, &bpa); va 3618 arch/i386/i386/machdep.c uvm_km_free(kernel_map, va, endva - va); va 3926 arch/i386/i386/machdep.c vaddr_t va; va 3931 arch/i386/i386/machdep.c va = uvm_km_valloc(kernel_map, size); va 3932 arch/i386/i386/machdep.c if (va == 0) va 3935 arch/i386/i386/machdep.c *kvap = (caddr_t)va; va 3940 arch/i386/i386/machdep.c addr += PAGE_SIZE, va += PAGE_SIZE, size -= PAGE_SIZE) { va 3943 arch/i386/i386/machdep.c pmap_enter(pmap_kernel(), va, addr, va 231 arch/i386/i386/mpbios.c vaddr_t va = uvm_km_valloc(kernel_map, endpa - pgpa); va 232 arch/i386/i386/mpbios.c vaddr_t retva = va + (pa & PGOFSET); va 237 arch/i386/i386/mpbios.c handle->baseva = va; va 242 arch/i386/i386/mpbios.c pmap_kenter_pa(va, pgpa, VM_PROT_READ); va 244 arch/i386/i386/mpbios.c pmap_enter(pmap_kernel(), va, pgpa, VM_PROT_READ, TRUE, va 247 arch/i386/i386/mpbios.c va += NBPG; va 302 arch/i386/i386/pmap.c #define VASLEW(va,id) ((va)+(id)*NPTECL*NBPG) va 305 arch/i386/i386/pmap.c #define VASLEW(va,id) (va) va 577 arch/i386/i386/pmap.c pmap_exec_account(struct pmap *pm, vaddr_t va, va 588 arch/i386/i386/pmap.c pmap_tlb_shootpage(pm, va); va 598 arch/i386/i386/pmap.c if ((opte & PG_X) && (npte & PG_X) == 0 && va == pm->pm_hiexec) { va 617 arch/i386/i386/pmap.c vaddr_t va = 0; va 626 arch/i386/i386/pmap.c va = trunc_page(ent->end - 1); va 630 arch/i386/i386/pmap.c if (va <= pm->pm_hiexec) { va 634 arch/i386/i386/pmap.c pm->pm_hiexec = va; va 641 arch/i386/i386/pmap.c setcslimit(pm, tf, pcb, va); va 694 arch/i386/i386/pmap.c pmap_kenter_pa(vaddr_t va, paddr_t pa, vm_prot_t prot) va 698 arch/i386/i386/pmap.c pte = vtopte(va); va 704 arch/i386/i386/pmap.c pmap_tlb_shootpage(pmap_kernel(), va); va 722 arch/i386/i386/pmap.c vaddr_t va, eva; va 726 arch/i386/i386/pmap.c for (va = sva; va != eva; va += PAGE_SIZE) { va 727 arch/i386/i386/pmap.c pte = kvtopte(va); va 731 arch/i386/i386/pmap.c panic("pmap_kremove: PG_PVLIST mapping for 0x%lx", va); va 1303 arch/i386/i386/pmap.c vaddr_t va, struct vm_page *ptp) va 1306 arch/i386/i386/pmap.c pve->pv_va = va; va 1322 arch/i386/i386/pmap.c pmap_remove_pv(struct vm_page *pg, struct pmap *pmap, vaddr_t va) va 1328 arch/i386/i386/pmap.c if (pve->pv_pmap == pmap && pve->pv_va == va) { /* match? */ va 1736 arch/i386/i386/pmap.c pmap_extract(struct pmap *pmap, vaddr_t va, paddr_t *pap) va 1740 arch/i386/i386/pmap.c if (pmap_valid_entry(pmap->pm_pdir[pdei(va)])) { va 1742 arch/i386/i386/pmap.c pte = ptes[atop(va)]; va 1747 arch/i386/i386/pmap.c *pap = (pte & PG_FRAME) | (va & ~PG_FRAME); va 1959 arch/i386/i386/pmap.c vaddr_t va, int flags) va 1974 arch/i386/i386/pmap.c pmap_exec_account(pmap, va, opte, 0); va 1992 arch/i386/i386/pmap.c "PG_PVLIST for 0x%lx", va); va 2000 arch/i386/i386/pmap.c "PG_PVLIST, va = 0x%lx, pa = 0x%lx", va, va 2005 arch/i386/i386/pmap.c pve = pmap_remove_pv(pg, pmap, va); va 2033 arch/i386/i386/pmap.c vaddr_t va; va 2136 arch/i386/i386/pmap.c for (va = sva ; va < eva ; va = blkendva) { va 2138 arch/i386/i386/pmap.c blkendva = i386_round_pdr(va + 1); va 2156 arch/i386/i386/pmap.c if (pdei(va) == PDSLOT_PTE) va 2160 arch/i386/i386/pmap.c if (!pmap_valid_entry(pmap->pm_pdir[pdei(va)])) va 2165 arch/i386/i386/pmap.c ptppa = (pmap->pm_pdir[pdei(va)] & PG_FRAME); va 2184 arch/i386/i386/pmap.c pmap_remove_ptes(pmap, ptp, (vaddr_t)&ptes[atop(va)], va 2185 arch/i386/i386/pmap.c va, blkendva, flags); va 2190 arch/i386/i386/pmap.c &pmap->pm_pdir[pdei(va)], 0); va 2449 arch/i386/i386/pmap.c vaddr_t va; va 2461 arch/i386/i386/pmap.c for (va = sva; va < eva; va = blockend) { va 2462 arch/i386/i386/pmap.c blockend = (va & PD_MASK) + NBPD; va 2476 arch/i386/i386/pmap.c if (pdei(va) == PDSLOT_PTE) va 2480 arch/i386/i386/pmap.c if (!pmap_valid_entry(pmap->pm_pdir[pdei(va)])) va 2484 arch/i386/i386/pmap.c if (va < VM_MAXUSER_ADDRESS) va 2486 arch/i386/i386/pmap.c else if (va < VM_MAX_ADDRESS) va 2490 arch/i386/i386/pmap.c spte = &ptes[atop(va)]; va 2493 arch/i386/i386/pmap.c for (/*null */; spte < epte ; spte++, va += PAGE_SIZE) { va 2501 arch/i386/i386/pmap.c pmap_exec_account(pmap, va, *spte, npte); va 2526 arch/i386/i386/pmap.c pmap_unwire(struct pmap *pmap, vaddr_t va) va 2530 arch/i386/i386/pmap.c if (pmap_valid_entry(pmap->pm_pdir[pdei(va)])) { va 2534 arch/i386/i386/pmap.c if (!pmap_valid_entry(ptes[atop(va)])) va 2535 arch/i386/i386/pmap.c panic("pmap_unwire: invalid (unmapped) va 0x%lx", va); va 2537 arch/i386/i386/pmap.c if ((ptes[atop(va)] & PG_W) != 0) { va 2538 arch/i386/i386/pmap.c ptes[atop(va)] &= ~PG_W; va 2544 arch/i386/i386/pmap.c "didn't change!\n", pmap, va); va 2593 arch/i386/i386/pmap.c pmap_enter(struct pmap *pmap, vaddr_t va, paddr_t pa, va 2605 arch/i386/i386/pmap.c if (va >= VM_MAX_KERNEL_ADDRESS) va 2608 arch/i386/i386/pmap.c if (va == (vaddr_t) PDP_BASE || va == (vaddr_t) APDP_BASE) va 2612 arch/i386/i386/pmap.c if (va >= VM_MIN_KERNEL_ADDRESS && va 2613 arch/i386/i386/pmap.c !pmap_valid_entry(pmap->pm_pdir[pdei(va)])) va 2628 arch/i386/i386/pmap.c ptp = pmap_get_ptp(pmap, pdei(va), FALSE); va 2637 arch/i386/i386/pmap.c opte = ptes[atop(va)]; /* old PTE */ va 2696 arch/i386/i386/pmap.c pve = pmap_remove_pv(pg, pmap, va); va 2733 arch/i386/i386/pmap.c pmap_enter_pv(pg, pve, pmap, va, ptp); va 2747 arch/i386/i386/pmap.c pmap_exec_account(pmap, va, opte, npte); va 2750 arch/i386/i386/pmap.c if (va < VM_MAXUSER_ADDRESS) va 2752 arch/i386/i386/pmap.c else if (va < VM_MAX_ADDRESS) va 2765 arch/i386/i386/pmap.c opte = i386_atomic_testset_ul(&ptes[atop(va)], npte); va 2768 arch/i386/i386/pmap.c pmap_tlb_shootpage(pmap, va); va 2938 arch/i386/i386/pmap.c pmap_tlb_shootpage(struct pmap *pm, vaddr_t va) va 2960 arch/i386/i386/pmap.c tlb_shoot_addr1 = va; va 2971 arch/i386/i386/pmap.c pmap_update_pg(va); va 2981 arch/i386/i386/pmap.c vaddr_t va; va 3010 arch/i386/i386/pmap.c for (va = sva; va < eva; va += PAGE_SIZE) va 3011 arch/i386/i386/pmap.c pmap_update_pg(va); va 3059 arch/i386/i386/pmap.c pmap_tlb_shootpage(struct pmap *pm, vaddr_t va) va 3062 arch/i386/i386/pmap.c pmap_update_pg(va); va 3069 arch/i386/i386/pmap.c vaddr_t va; va 3071 arch/i386/i386/pmap.c for (va = sva; va < eva; va += PAGE_SIZE) va 3072 arch/i386/i386/pmap.c pmap_update_pg(va); va 539 arch/i386/i386/pmapae.c #define VASLEW(va,id) ((va)+(id)*NPTECL*NBPG) va 542 arch/i386/i386/pmapae.c #define VASLEW(va,id) (va) va 734 arch/i386/i386/pmapae.c pmap_pte_set_pae(vaddr_t va, paddr_t pa, u_int32_t bits) va 736 arch/i386/i386/pmapae.c pt_entry_t pte, *ptep = vtopte(va); va 743 arch/i386/i386/pmapae.c pmap_pte_setbits_pae(vaddr_t va, u_int32_t set, u_int32_t clr) va 745 arch/i386/i386/pmapae.c pt_entry_t *ptep = vtopte(va); va 754 arch/i386/i386/pmapae.c pmap_pte_bits_pae(vaddr_t va) va 756 arch/i386/i386/pmapae.c pt_entry_t *ptep = vtopte(va); va 762 arch/i386/i386/pmapae.c pmap_pte_paddr_pae(vaddr_t va) va 764 arch/i386/i386/pmapae.c pt_entry_t *ptep = vtopte(va); va 781 arch/i386/i386/pmapae.c vaddr_t va, eva; va 789 arch/i386/i386/pmapae.c va = (vaddr_t)kpm->pm_pdir; va 790 arch/i386/i386/pmapae.c kpm->pm_pdidx[0] = (va + 0*NBPG - KERNBASE) | PG_V; va 791 arch/i386/i386/pmapae.c kpm->pm_pdidx[1] = (va + 1*NBPG - KERNBASE) | PG_V; va 792 arch/i386/i386/pmapae.c kpm->pm_pdidx[2] = (va + 2*NBPG - KERNBASE) | PG_V; va 793 arch/i386/i386/pmapae.c kpm->pm_pdidx[3] = (va + 3*NBPG - KERNBASE) | PG_V; va 801 arch/i386/i386/pmapae.c for (va = KERNBASE, eva = va + (nkpde << 22); va 802 arch/i386/i386/pmapae.c va < eva; va += PAGE_SIZE) { va 803 arch/i386/i386/pmapae.c if (!pmap_valid_entry(PDE(kpm, pdei(va)))) { va 804 arch/i386/i386/pmapae.c ptp = pae_pagealloc(&kpm->pm_obj, va, NULL, va 807 arch/i386/i386/pmapae.c PDE(kpm, pdei(va)) = ptaddr | PG_KW | PG_V; va 808 arch/i386/i386/pmapae.c pmap_pte_set_86((vaddr_t)vtopte(va), va 814 arch/i386/i386/pmapae.c bits = pmap_pte_bits_86(va) | pmap_pg_g; va 816 arch/i386/i386/pmapae.c pmap_pte_set_pae(va, pmap_pte_paddr_86(va), bits); va 1035 arch/i386/i386/pmapae.c vaddr_t va; va 1044 arch/i386/i386/pmapae.c va = (vaddr_t)pmap->pm_pdir; va 1045 arch/i386/i386/pmapae.c pmap_extract(pmap_kernel(), va + 0*NBPG, &pmap->pm_pdidx[0]); va 1046 arch/i386/i386/pmapae.c pmap_extract(pmap_kernel(), va + 1*NBPG, &pmap->pm_pdidx[1]); va 1047 arch/i386/i386/pmapae.c pmap_extract(pmap_kernel(), va + 2*NBPG, &pmap->pm_pdidx[2]); va 1048 arch/i386/i386/pmapae.c pmap_extract(pmap_kernel(), va + 3*NBPG, &pmap->pm_pdidx[3]); va 1090 arch/i386/i386/pmapae.c pmap_extract_pae(struct pmap *pmap, vaddr_t va, paddr_t *pap) va 1095 arch/i386/i386/pmapae.c if (PDE(pmap, pdei(va))) { va 1097 arch/i386/i386/pmapae.c retval = (paddr_t)(ptes[atop(va)] & PG_FRAME); va 1100 arch/i386/i386/pmapae.c *pap = retval | (va & ~PG_FRAME); va 1299 arch/i386/i386/pmapae.c vaddr_t va, int32_t *cpumaskp) va 1311 arch/i386/i386/pmapae.c pmap_exec_account(pmap, va, opte, 0); va 1318 arch/i386/i386/pmapae.c pmap_tlb_shootdown(pmap, va, opte, cpumaskp); va 1324 arch/i386/i386/pmapae.c pmap_tlb_shootdown(pmap, va, opte, cpumaskp); va 1336 arch/i386/i386/pmapae.c "PG_PVLIST for 0x%lx", va); va 1345 arch/i386/i386/pmapae.c "PG_PVLIST, va = 0x%lx, pa = 0x%lx", va, va 1352 arch/i386/i386/pmapae.c pve = pmap_remove_pv(&vm_physmem[bank].pmseg.pvhead[off], pmap, va); va 1917 arch/i386/i386/pmapae.c pmap_unwire_pae(struct pmap *pmap, vaddr_t va) va 1921 arch/i386/i386/pmapae.c if (pmap_valid_entry(PDE(pmap, pdei(va)))) { va 1925 arch/i386/i386/pmapae.c if (!pmap_valid_entry(ptes[atop(va)])) va 1926 arch/i386/i386/pmapae.c panic("pmap_unwire: invalid (unmapped) va 0x%lx", va); va 1928 arch/i386/i386/pmapae.c if ((ptes[atop(va)] & PG_W) != 0) { va 1929 arch/i386/i386/pmapae.c ptes[atop(va)] &= ~PG_W; va 1935 arch/i386/i386/pmapae.c "didn't change!\n", pmap, va); va 1966 arch/i386/i386/pmapae.c pmap_enter_pae(struct pmap *pmap, vaddr_t va, paddr_t pa, vm_prot_t prot, va 1978 arch/i386/i386/pmapae.c if (va >= VM_MAX_KERNEL_ADDRESS) va 1981 arch/i386/i386/pmapae.c if (va == (vaddr_t) PDP_BASE || va == (vaddr_t) APDP_BASE) va 1985 arch/i386/i386/pmapae.c if (va >= VM_MIN_KERNEL_ADDRESS && va 1986 arch/i386/i386/pmapae.c !pmap_valid_entry(PDE(pmap, pdei(va)))) va 2001 arch/i386/i386/pmapae.c ptp = pmap_get_ptp_pae(pmap, pdei(va), FALSE); va 2010 arch/i386/i386/pmapae.c opte = ptes[atop(va)]; /* old PTE */ va 2075 arch/i386/i386/pmapae.c pve = pmap_remove_pv(pvh, pmap, va); va 2112 arch/i386/i386/pmapae.c pmap_enter_pv(pvh, pve, pmap, va, ptp); va 2127 arch/i386/i386/pmapae.c pmap_exec_account(pmap, va, opte, npte); va 2132 arch/i386/i386/pmapae.c if (va < VM_MAXUSER_ADDRESS) va 2134 arch/i386/i386/pmapae.c else if (va < VM_MAX_ADDRESS) va 2139 arch/i386/i386/pmapae.c ptes[atop(va)] = npte; /* zap! */ va 2145 arch/i386/i386/pmapae.c pmap_tlb_shootdown(pmap, va, opte, &cpumask); va 2150 arch/i386/i386/pmapae.c pmap_update_pg(va); va 455 arch/i386/i386/trap.c vaddr_t va, fa; va 467 arch/i386/i386/trap.c va = trunc_page(fa); va 476 arch/i386/i386/trap.c if (type == T_PAGEFLT && va >= KERNBASE) va 482 arch/i386/i386/trap.c if (map == kernel_map && va == 0) { va 483 arch/i386/i386/trap.c printf("trap: bad kernel access at %lx\n", va); va 490 arch/i386/i386/trap.c rv = uvm_fault(map, va, 0, ftype); va 495 arch/i386/i386/trap.c uvm_grow(p, va); va 510 arch/i386/i386/trap.c map, va, ftype, rv); va 361 arch/i386/include/pmap.h #define pmap_proc_iflush(p,va,len) /* nothing */ va 410 arch/i386/include/pmap.h #define pmap_update_pg(va) invlpg((u_int)(va)) va 416 arch/i386/include/pmap.h #define pmap_update_2pg(va, vb) { invlpg((u_int)(va)); invlpg((u_int)(vb)); } va 62 compat/common/compat_dir.c struct vattr va; va 72 compat/common/compat_dir.c if ((error = VOP_GETATTR(vp, &va, fp->f_cred, curproc)) != 0) va 76 compat/common/compat_dir.c buflen = max(buflen, va.va_blocksize); va 320 compat/linux/linux_file.c struct vattr va; va 406 compat/linux/linux_file.c error = VOP_GETATTR(vp, &va, p->p_ucred, p); va 410 compat/linux/linux_file.c d_tty = cdevsw[major(va.va_rdev)].d_tty; va 411 compat/linux/linux_file.c if (!d_tty || (!(tp = (*d_tty)(va.va_rdev)))) va 578 compat/ossaudio/ossaudio.c struct vattr va; va 588 compat/ossaudio/ossaudio.c if (VOP_GETATTR(vp, &va, p->p_ucred, p)) va 590 compat/ossaudio/ossaudio.c if (di->done && di->dev == va.va_rdev) va 594 compat/ossaudio/ossaudio.c di->dev = va.va_rdev; va 147 dev/acpi/acpi.c memcpy(buffer, mh.va, len); va 149 dev/acpi/acpi.c memcpy(mh.va, buffer, len); va 367 dev/acpi/acpi.c rsdp = (struct acpi_rsdp *)handle.va; va 478 dev/acpi/acpi.c sc->sc_facs = (struct acpi_facs *)handle.va; va 662 dev/acpi/acpi.c hdr = (struct acpi_table_header *)handle.va; va 668 dev/acpi/acpi.c xsdt = (struct acpi_xsdt *)hrsdt.va; va 675 dev/acpi/acpi.c hdr = (struct acpi_table_header *)handle.va; va 689 dev/acpi/acpi.c hdr = (struct acpi_table_header *)handle.va; va 695 dev/acpi/acpi.c rsdt = (struct acpi_rsdt *)hrsdt.va; va 702 dev/acpi/acpi.c hdr = (struct acpi_table_header *)handle.va; va 726 dev/acpi/acpi.c memcpy(entry->q_data, handle.va, len); va 742 dev/acpi/acpi.c hdr = (struct acpi_table_header *)handle.va; va 754 dev/acpi/acpi.c memcpy((*dsdt)->q_data, handle.va, len); va 51 dev/acpi/acpivar.h u_int8_t *va; va 989 dev/ata/wd.c wddump(dev_t dev, daddr64_t blkno, caddr_t va, size_t size) va 1047 dev/ata/wd.c wd->sc_wdc_bio.databuf = va; va 1098 dev/ata/wd.c unit, va, cylin, head, sector); va 1105 dev/ata/wd.c va += min(nblks, wddumpmulti) * lp->d_secsize; va 273 dev/ccd.c struct vattr va; va 329 dev/ccd.c if ((error = VOP_GETATTR(vp, &va, p->p_ucred, p)) != 0) { va 337 dev/ccd.c ci->ci_dev = va.va_rdev; va 1293 dev/ccd.c ccddump(dev_t dev, daddr64_t blkno, caddr_t va, size_t size) va 1310 dev/ccd.c struct vattr va; va 1327 dev/ccd.c if ((error = VOP_GETATTR(vp, &va, p->p_ucred, p)) != 0) { va 1336 dev/ccd.c if (va.va_type != VBLK) { va 39 dev/firmload.c struct vattr va; va 59 dev/firmload.c error = VOP_GETATTR(nid.ni_vp, &va, p->p_ucred, p); va 62 dev/firmload.c if (nid.ni_vp->v_type != VREG || va.va_size == 0) { va 66 dev/firmload.c if (va.va_size > FIRMWARE_MAX) { va 70 dev/firmload.c ptr = malloc(va.va_size, M_DEVBUF, M_NOWAIT); va 77 dev/firmload.c iov.iov_len = va.va_size; va 81 dev/firmload.c uio.uio_resid = va.va_size; va 90 dev/firmload.c *buflen = va.va_size; va 865 dev/flash.c flashdump(dev_t dev, daddr64_t blkno, caddr_t va, size_t size) va 159 dev/ic/midway.c #define vtophys(va) alpha_XXX_dmamap((vaddr_t)(va)) va 199 dev/ic/smc91cxx.c ether_cmp(va, vb) va 200 dev/ic/smc91cxx.c void *va, *vb; va 202 dev/ic/smc91cxx.c u_int8_t *a = va; va 851 dev/ipmi.c void *va; va 854 dev/ipmi.c va = ISA_HOLE_VADDR(start); va 855 dev/ipmi.c if (memcmp(va, data, len) == 0) va 856 dev/ipmi.c return (va); va 1047 dev/isa/aha.c vaddr_t va; va 1126 dev/isa/aha.c uvm_map(kernel_map, &va, size, NULL, UVM_UNKNOWN_OFFSET, 0, va 1131 dev/isa/aha.c wmbx = (struct aha_mbx *)va; va 1134 dev/isa/aha.c pmap_kenter_pa(va, VM_PAGE_TO_PHYS(pg), va 1136 dev/isa/aha.c va += PAGE_SIZE; va 593 dev/isa/fd.c fddump(dev, blkno, va, size) va 596 dev/isa/fd.c caddr_t va; va 811 dev/isa/mcd.c mcddump(dev, blkno, va, size) va 814 dev/isa/mcd.c caddr_t va; va 231 dev/ksyms.c vaddr_t va; va 240 dev/ksyms.c va = (vaddr_t)ksym_head + off; va 242 dev/ksyms.c va = (vaddr_t)ksym_syms + off; va 245 dev/ksyms.c if (pmap_extract(pmap_kernel, va, &pa) == FALSE) va 598 dev/pci/if_lgereg.h #define vtophys(va) alpha_XXX_dmamap((vaddr_t)va) va 723 dev/pci/if_ngereg.h #define vtophys(va) alpha_XXX_dmamap((vaddr_t)va) va 542 dev/pci/if_stereg.h #define vtophys(va) alpha_XXX_dmamap((vaddr_t)va) va 600 dev/pci/if_tlreg.h #define vtophys(va) alpha_XXX_dmamap((vaddr_t)va) va 462 dev/pci/if_wbreg.h #define vtophys(va) alpha_XXX_dmamap((vaddr_t)va) va 425 dev/pci/yds.c char *va; /* KVA */ va 476 dev/pci/yds.c va = (u_int8_t*)mp; va 481 dev/pci/yds.c sc->ptbl = (u_int32_t *)(va + cb); va 487 dev/pci/yds.c sc->rbank = (struct rec_slot_ctrl_bank *)(va + cb); va 501 dev/pci/yds.c sc->pbankp[i*2] = (struct play_slot_ctrl_bank *)(va + cb); va 505 dev/pci/yds.c sc->pbankp[i*2+1] = (struct play_slot_ctrl_bank *)(va + cb); va 101 dev/raidframe/rf_copyback.c struct vattr va; va 169 dev/raidframe/rf_copyback.c if ((retcode = VOP_GETATTR(vp, &va, proc->p_ucred, proc)) != 0) va 184 dev/raidframe/rf_copyback.c raidPtr->raid_cinfo[frow][fcol].ci_dev = va.va_rdev; va 187 dev/raidframe/rf_copyback.c raidPtr->Disks[frow][fcol].dev = va.va_rdev; va 646 dev/raidframe/rf_disks.c struct vattr va; va 678 dev/raidframe/rf_disks.c if ((error = VOP_GETATTR(vp, &va, proc->p_ucred, proc)) != 0) { va 692 dev/raidframe/rf_disks.c raidPtr->raid_cinfo[row][col].ci_dev = va.va_rdev; va 696 dev/raidframe/rf_disks.c diskPtr->dev = va.va_rdev; va 613 dev/raidframe/rf_openbsdkintf.c raiddump(dev_t dev, daddr64_t blkno, caddr_t va, size_t size) va 2187 dev/raidframe/rf_openbsdkintf.c struct vattr va; va 2203 dev/raidframe/rf_openbsdkintf.c if ((error = VOP_GETATTR(vp, &va, p->p_ucred, p)) != 0) { va 2209 dev/raidframe/rf_openbsdkintf.c if (va.va_type != VBLK) { va 476 dev/raidframe/rf_reconstruct.c struct vattr va; va 610 dev/raidframe/rf_reconstruct.c VOP_GETATTR(vp, &va, proc->p_ucred, proc)) != 0) { va 629 dev/raidframe/rf_reconstruct.c raidPtr->raid_cinfo[row][col].ci_dev = va.va_rdev; va 631 dev/raidframe/rf_reconstruct.c raidPtr->Disks[row][col].dev = va.va_rdev; va 212 dev/ramdisk.c rddump(dev, blkno, va, size) va 215 dev/ramdisk.c caddr_t va; va 1008 dev/vnd.c vnddump(dev_t dev, daddr64_t blkno, caddr_t va, size_t size) va 786 kern/kern_exec.c vaddr_t va; va 792 kern/kern_exec.c va = vm_map_min(kernel_map); /* hint */ va 793 kern/kern_exec.c if ((r = uvm_map(kernel_map, &va, round_page(sz), e->e_sigobject, va 799 kern/kern_exec.c memcpy((void *)va, e->e_sigcode, sz); va 800 kern/kern_exec.c uvm_unmap(kernel_map, va, va + round_page(sz)); va 147 kern/kern_malloc.c caddr_t va, cp, savedlist; va 161 kern/kern_malloc.c if (debug_malloc(size, type, flags, (void **)&va)) va 162 kern/kern_malloc.c return (va); va 202 kern/kern_malloc.c va = (caddr_t) uvm_km_kmemalloc(kmem_map, NULL, va 206 kern/kern_malloc.c if (va == NULL) { va 223 kern/kern_malloc.c kup = btokup(va); va 242 kern/kern_malloc.c kbp->kb_next = cp = va + (npg * PAGE_SIZE) - allocsize; va 255 kern/kern_malloc.c if (cp <= va) va 264 kern/kern_malloc.c va = kbp->kb_next; va 265 kern/kern_malloc.c kbp->kb_next = ((struct freelist *)va)->next; va 267 kern/kern_malloc.c freep = (struct freelist *)va; va 282 kern/kern_malloc.c (int32_t *)&kbp->kb_next - (int32_t *)kbp, va, size, va 301 kern/kern_malloc.c end = (int32_t *)&va[copysize]; va 302 kern/kern_malloc.c for (lp = (int32_t *)va; lp < end; lp++) { va 306 kern/kern_malloc.c "Data modified on freelist: word", lp - (int32_t *)va, va 307 kern/kern_malloc.c va, size, "previous type", savedtype, *lp, WEIRD_ADDR); va 314 kern/kern_malloc.c kup = btokup(va); va 332 kern/kern_malloc.c return (va); va 160 kern/kern_malloc_debug.c vaddr_t va; va 170 kern/kern_malloc_debug.c va = trunc_page((vaddr_t)addr); va 174 kern/kern_malloc_debug.c if (md->md_va == va) va 186 kern/kern_malloc_debug.c if (md->md_va == va) va 233 kern/kern_malloc_debug.c vaddr_t va, offset; va 243 kern/kern_malloc_debug.c va = uvm_km_kmemalloc(kmem_map, NULL, PAGE_SIZE * 2, va 245 kern/kern_malloc_debug.c if (va == 0) { va 250 kern/kern_malloc_debug.c offset = va - vm_map_min(kernel_map); va 262 kern/kern_malloc_debug.c uvm_unmap(kmem_map, va, va + PAGE_SIZE * 2); va 269 kern/kern_malloc_debug.c md->md_va = va; va 288 kern/kern_malloc_debug.c vaddr_t va = (vaddr_t)addr; va 291 kern/kern_malloc_debug.c if (va >= md->md_va && va 292 kern/kern_malloc_debug.c va < md->md_va + 2 * PAGE_SIZE) va 296 kern/kern_malloc_debug.c if (va >= md->md_va + PAGE_SIZE && va 297 kern/kern_malloc_debug.c va < md->md_va + 2 * PAGE_SIZE) va 101 kern/sysv_shm.c vaddr_t va; va 174 kern/sysv_shm.c uvm_deallocate(&vm->vm_map, shmmap_s->va, size); va 203 kern/sysv_shm.c shmmap_s->va == (vaddr_t)SCARG(uap, shmaddr)) va 281 kern/sysv_shm.c shmmap_s->va = attach_va; va 70 kern/vfs_getcwd.c struct vattr va; va 82 kern/vfs_getcwd.c error = VOP_GETATTR(lvp, &va, p->p_ucred, p); va 119 kern/vfs_getcwd.c fileno = va.va_fileid; va 123 kern/vfs_getcwd.c if (dirbuflen < va.va_blocksize) va 124 kern/vfs_getcwd.c dirbuflen = va.va_blocksize; va 820 kern/vfs_subr.c struct vflush_args *va = arg; va 823 kern/vfs_subr.c if (vp == va->skipvp) { va 827 kern/vfs_subr.c if ((va->flags & SKIPSYSTEM) && (vp->v_flag & VSYSTEM)) { va 835 kern/vfs_subr.c if ((va->flags & WRITECLOSE) && va 854 kern/vfs_subr.c if (va->flags & FORCECLOSE) { va 869 kern/vfs_subr.c va->busy++; va 876 kern/vfs_subr.c struct vflush_args va; va 877 kern/vfs_subr.c va.skipvp = skipvp; va 878 kern/vfs_subr.c va.busy = 0; va 879 kern/vfs_subr.c va.flags = flags; va 881 kern/vfs_subr.c vfs_mount_foreach_vnode(mp, vflush_vnode, &va); va 883 kern/vfs_subr.c if (va.busy) va 96 kern/vfs_syscalls.c struct vattr va; va 169 kern/vfs_syscalls.c if ((error = VOP_GETATTR(vp, &va, p->p_ucred, p)) || va 170 kern/vfs_syscalls.c (va.va_uid != p->p_ucred->cr_uid && va 979 kern/vfs_syscalls.c struct vattr va; va 1033 kern/vfs_syscalls.c VATTR_NULL(&va); va 1034 kern/vfs_syscalls.c va.va_size = 0; va 1035 kern/vfs_syscalls.c if ((error = VOP_SETATTR(vp, &va, cred, p)) != 0) va 79 kern/vfs_vnops.c struct vattr va; va 95 kern/vfs_vnops.c VATTR_NULL(&va); va 96 kern/vfs_vnops.c va.va_type = VREG; va 97 kern/vfs_vnops.c va.va_mode = cmode; va 99 kern/vfs_vnops.c &ndp->ni_cnd, &va); va 150 kern/vfs_vnops.c VATTR_NULL(&va); va 151 kern/vfs_vnops.c va.va_size = 0; va 152 kern/vfs_vnops.c if ((error = VOP_SETATTR(vp, &va, cred, p)) != 0) va 347 kern/vfs_vnops.c struct vattr va; va 351 kern/vfs_vnops.c error = VOP_GETATTR(vp, &va, p->p_ucred, p); va 357 kern/vfs_vnops.c sb->st_dev = va.va_fsid; va 358 kern/vfs_vnops.c sb->st_ino = va.va_fileid; va 359 kern/vfs_vnops.c mode = va.va_mode; va 386 kern/vfs_vnops.c sb->st_nlink = va.va_nlink; va 387 kern/vfs_vnops.c sb->st_uid = va.va_uid; va 388 kern/vfs_vnops.c sb->st_gid = va.va_gid; va 389 kern/vfs_vnops.c sb->st_rdev = va.va_rdev; va 390 kern/vfs_vnops.c sb->st_size = va.va_size; va 391 kern/vfs_vnops.c sb->st_atimespec = va.va_atime; va 392 kern/vfs_vnops.c sb->st_mtimespec = va.va_mtime; va 393 kern/vfs_vnops.c sb->st_ctimespec = va.va_ctime; va 394 kern/vfs_vnops.c sb->st_blksize = va.va_blocksize; va 395 kern/vfs_vnops.c sb->st_flags = va.va_flags; va 396 kern/vfs_vnops.c sb->st_gen = va.va_gen; va 397 kern/vfs_vnops.c sb->st_blocks = va.va_bytes / S_BLKSIZE; va 654 miscfs/procfs/procfs_vnops.c struct vattr va; va 657 miscfs/procfs/procfs_vnops.c if ((error = VOP_GETATTR(ap->a_vp, &va, ap->a_cred, ap->a_p)) != 0) va 660 miscfs/procfs/procfs_vnops.c return (vaccess(va.va_mode, va.va_uid, va.va_gid, ap->a_mode, va 115 nfs/nfs_serv.c struct vattr va; va 148 nfs/nfs_serv.c getret = VOP_GETATTR(vp, &va, cred, procp); va 151 nfs/nfs_serv.c nfsm_srvpostop_attr(getret, &va); va 172 nfs/nfs_serv.c struct vattr va; va 192 nfs/nfs_serv.c error = VOP_GETATTR(vp, &va, cred, procp); va 198 nfs/nfs_serv.c nfsm_srvfillattr(&va, fp); va 216 nfs/nfs_serv.c struct vattr va, preat; va 234 nfs/nfs_serv.c VATTR_NULL(&va); va 236 nfs/nfs_serv.c va.va_vaflags |= VA_UTIMES_NULL; va 237 nfs/nfs_serv.c nfsm_srvsattr(&va); va 254 nfs/nfs_serv.c va.va_mode = nfstov_mode(sp->sa_mode); va 256 nfs/nfs_serv.c va.va_uid = fxdr_unsigned(uid_t, sp->sa_uid); va 258 nfs/nfs_serv.c va.va_gid = fxdr_unsigned(gid_t, sp->sa_gid); va 260 nfs/nfs_serv.c va.va_size = fxdr_unsigned(u_quad_t, sp->sa_size); va 263 nfs/nfs_serv.c fxdr_nfsv2time(&sp->sa_atime, &va.va_atime); va 265 nfs/nfs_serv.c va.va_atime.tv_sec = va 267 nfs/nfs_serv.c va.va_atime.tv_nsec = 0; va 271 nfs/nfs_serv.c fxdr_nfsv2time(&sp->sa_mtime, &va.va_mtime); va 282 nfs/nfs_serv.c nfsm_srvwcc_data(preat_ret, &preat, postat_ret, &va); va 294 nfs/nfs_serv.c nfsm_srvwcc_data(preat_ret, &preat, postat_ret, &va); va 303 nfs/nfs_serv.c if (va.va_size == ((u_quad_t)((quad_t) -1))) { va 316 nfs/nfs_serv.c error = VOP_SETATTR(vp, &va, cred, procp); va 317 nfs/nfs_serv.c postat_ret = VOP_GETATTR(vp, &va, cred, procp); va 324 nfs/nfs_serv.c nfsm_srvwcc_data(preat_ret, &preat, postat_ret, &va); va 328 nfs/nfs_serv.c nfsm_srvfillattr(&va, fp); va 360 nfs/nfs_serv.c struct vattr va, dirattr; va 389 nfs/nfs_serv.c error = VOP_GETATTR(vp, &va, cred, procp); va 398 nfs/nfs_serv.c nfsm_srvpostop_attr(0, &va); va 402 nfs/nfs_serv.c nfsm_srvfillattr(&va, fp); va 538 nfs/nfs_serv.c struct vattr va; va 569 nfs/nfs_serv.c getret = VOP_GETATTR(vp, &va, cred, procp); va 575 nfs/nfs_serv.c nfsm_srvpostop_attr(getret, &va); va 578 nfs/nfs_serv.c if (off >= va.va_size) va 580 nfs/nfs_serv.c else if ((off + reqlen) > va.va_size) va 581 nfs/nfs_serv.c cnt = va.va_size - off; va 644 nfs/nfs_serv.c if (error || (getret = VOP_GETATTR(vp, &va, cred, procp)) != 0){ va 650 nfs/nfs_serv.c nfsm_srvpostop_attr(getret, &va); va 656 nfs/nfs_serv.c nfsm_srvfillattr(&va, fp); va 692 nfs/nfs_serv.c struct vattr va, forat; va 761 nfs/nfs_serv.c nfsm_srvwcc_data(forat_ret, &forat, aftat_ret, &va); va 768 nfs/nfs_serv.c nfsm_srvwcc_data(forat_ret, &forat, aftat_ret, &va); va 785 nfs/nfs_serv.c nfsm_srvwcc_data(forat_ret, &forat, aftat_ret, &va); va 826 nfs/nfs_serv.c aftat_ret = VOP_GETATTR(vp, &va, cred, procp); va 833 nfs/nfs_serv.c nfsm_srvwcc_data(forat_ret, &forat, aftat_ret, &va); va 851 nfs/nfs_serv.c nfsm_srvfillattr(&va, fp); va 878 nfs/nfs_serv.c struct vattr va, forat; va 957 nfs/nfs_serv.c nfsm_srvwcc_data(forat_ret, &forat, aftat_ret, &va); va 1090 nfs/nfs_serv.c aftat_ret = VOP_GETATTR(vp, &va, cred, procp); va 1103 nfs/nfs_serv.c nfsm_srvwcc_data(forat_ret, &forat, aftat_ret, &va); va 1110 nfs/nfs_serv.c nfsm_srvwcc_data(forat_ret, &forat, aftat_ret, &va); va 1123 nfs/nfs_serv.c nfsm_srvfillattr(&va, fp); va 1239 nfs/nfs_serv.c struct vattr va, dirfor, diraft; va 1282 nfs/nfs_serv.c VATTR_NULL(&va); va 1293 nfs/nfs_serv.c nfsm_srvsattr(&va); va 1300 nfs/nfs_serv.c va.va_mode = 0; va 1303 nfs/nfs_serv.c va.va_type = VREG; va 1306 nfs/nfs_serv.c va.va_type = IFTOVT(fxdr_unsigned(u_int32_t, sp->sa_mode)); va 1307 nfs/nfs_serv.c if (va.va_type == VNON) va 1308 nfs/nfs_serv.c va.va_type = VREG; va 1309 nfs/nfs_serv.c va.va_mode = nfstov_mode(sp->sa_mode); va 1310 nfs/nfs_serv.c switch (va.va_type) { va 1314 nfs/nfs_serv.c va.va_size = (u_quad_t)tsize; va 1332 nfs/nfs_serv.c if (va.va_type == VREG || va.va_type == VSOCK) { va 1334 nfs/nfs_serv.c error = VOP_CREATE(nd.ni_dvp, &nd.ni_vp, &nd.ni_cnd, &va); va 1339 nfs/nfs_serv.c VATTR_NULL(&va); va 1340 nfs/nfs_serv.c bcopy(cverf, (caddr_t)&va.va_atime, va 1342 nfs/nfs_serv.c error = VOP_SETATTR(nd.ni_vp, &va, cred, va 1346 nfs/nfs_serv.c } else if (va.va_type == VCHR || va.va_type == VBLK || va 1347 nfs/nfs_serv.c va.va_type == VFIFO) { va 1348 nfs/nfs_serv.c if (va.va_type == VCHR && rdev == 0xffffffff) va 1349 nfs/nfs_serv.c va.va_type = VFIFO; va 1350 nfs/nfs_serv.c if (va.va_type != VFIFO && va 1359 nfs/nfs_serv.c va.va_rdev = (dev_t)rdev; va 1361 nfs/nfs_serv.c &va); va 1404 nfs/nfs_serv.c if (va.va_size != -1) { va 1408 nfs/nfs_serv.c tempsize = va.va_size; va 1409 nfs/nfs_serv.c VATTR_NULL(&va); va 1410 nfs/nfs_serv.c va.va_size = tempsize; va 1411 nfs/nfs_serv.c error = VOP_SETATTR(vp, &va, cred, va 1423 nfs/nfs_serv.c error = VOP_GETATTR(vp, &va, cred, procp); va 1428 nfs/nfs_serv.c bcmp(cverf, (caddr_t)&va.va_atime, NFSX_V3CREATEVERF)) va 1437 nfs/nfs_serv.c nfsm_srvpostop_attr(0, &va); va 1443 nfs/nfs_serv.c nfsm_srvfillattr(&va, fp); va 1477 nfs/nfs_serv.c struct vattr va, dirfor, diraft; va 1520 nfs/nfs_serv.c VATTR_NULL(&va); va 1521 nfs/nfs_serv.c nfsm_srvsattr(&va); va 1526 nfs/nfs_serv.c va.va_rdev = makedev(major, minor); va 1540 nfs/nfs_serv.c va.va_type = vtyp; va 1543 nfs/nfs_serv.c error = VOP_CREATE(nd.ni_dvp, &nd.ni_vp, &nd.ni_cnd, &va); va 1547 nfs/nfs_serv.c if (va.va_type != VFIFO && va 1555 nfs/nfs_serv.c error = VOP_MKNOD(nd.ni_dvp, &nd.ni_vp, &nd.ni_cnd, &va); va 1582 nfs/nfs_serv.c error = VOP_GETATTR(vp, &va, cred, procp); va 1590 nfs/nfs_serv.c nfsm_srvpostop_attr(0, &va); va 1985 nfs/nfs_serv.c struct vattr va, dirfor, diraft; va 2021 nfs/nfs_serv.c VATTR_NULL(&va); va 2023 nfs/nfs_serv.c nfsm_srvsattr(&va); va 2038 nfs/nfs_serv.c va.va_mode = fxdr_unsigned(u_int16_t, sp->sa_mode); va 2053 nfs/nfs_serv.c error = VOP_SYMLINK(nd.ni_dvp, &nd.ni_vp, &nd.ni_cnd, &va, pathcp); va 2069 nfs/nfs_serv.c error = VOP_GETATTR(nd.ni_vp, &va, cred, va 2088 nfs/nfs_serv.c nfsm_srvpostop_attr(0, &va); va 2126 nfs/nfs_serv.c struct vattr va, dirfor, diraft; va 2166 nfs/nfs_serv.c VATTR_NULL(&va); va 2168 nfs/nfs_serv.c nfsm_srvsattr(&va); va 2171 nfs/nfs_serv.c va.va_mode = nfstov_mode(*tl++); va 2173 nfs/nfs_serv.c va.va_type = VDIR; va 2185 nfs/nfs_serv.c error = VOP_MKDIR(nd.ni_dvp, &nd.ni_vp, &nd.ni_cnd, &va); va 2192 nfs/nfs_serv.c error = VOP_GETATTR(vp, &va, cred, procp); va 2204 nfs/nfs_serv.c nfsm_srvpostop_attr(0, &va); va 2210 nfs/nfs_serv.c nfsm_srvfillattr(&va, fp); va 2644 nfs/nfs_serv.c struct vattr va, at, *vap = &va; va 2985 nfs/nfs_vnops.c struct vattr va; va 3005 nfs/nfs_vnops.c error = VOP_GETATTR(vp, &va, ap->a_cred, ap->a_p); va 3009 nfs/nfs_vnops.c return (vaccess(va.va_mode, va.va_uid, va.va_gid, ap->a_mode, va 1645 scsi/cd.c cddump(dev_t dev, daddr64_t blkno, caddr_t va, size_t size) va 1175 scsi/sd.c sddump(dev_t dev, daddr64_t blkno, caddr_t va, size_t size) va 1260 scsi/sd.c xs->data = va; va 1271 scsi/sd.c printf("sd%d: dump addr 0x%x, blk %d\n", unit, va, blkno); va 1278 scsi/sd.c va += sectorsize * nwrt; va 2036 scsi/st.c stdump(dev, blkno, va, size) va 2039 scsi/st.c caddr_t va; va 93 sys/conf.h int (*d_dump)(dev_t dev, daddr64_t blkno, caddr_t va, va 1776 uvm/uvm_fault.c vaddr_t va; va 1788 uvm/uvm_fault.c for (va = start ; va < end ; va += PAGE_SIZE) { va 1789 uvm/uvm_fault.c rv = uvm_fault(map, va, VM_FAULT_WIRE, access_type); va 1791 uvm/uvm_fault.c if (va != start) { va 1792 uvm/uvm_fault.c uvm_fault_unwire(map, start, va); va 1829 uvm/uvm_fault.c vaddr_t va; va 1851 uvm/uvm_fault.c for (va = start; va < end ; va += PAGE_SIZE) { va 1852 uvm/uvm_fault.c if (pmap_extract(pmap, va, &pa) == FALSE) va 1858 uvm/uvm_fault.c KASSERT(va >= entry->start); va 1859 uvm/uvm_fault.c while (va >= entry->end) { va 1869 uvm/uvm_fault.c pmap_unwire(pmap, va); va 312 uvm/uvm_km.c vaddr_t va; va 315 uvm/uvm_km.c for (va = start; va < end; va += PAGE_SIZE) { va 316 uvm/uvm_km.c if (!pmap_extract(pmap_kernel(), va, &pa)) va 680 uvm/uvm_km.c vaddr_t va; va 691 uvm/uvm_km.c va = pmap_map_direct(pg); va 692 uvm/uvm_km.c if (__predict_false(va == 0)) va 694 uvm/uvm_km.c return (va); va 696 uvm/uvm_km.c vaddr_t va; va 710 uvm/uvm_km.c va = uvm_km_kmemalloc(map, obj, PAGE_SIZE, waitok ? 0 : UVM_KMF_NOWAIT); va 712 uvm/uvm_km.c return (va); va 408 uvm/uvm_loan.c uvm_loanuobj(ufi, output, flags, va) va 412 uvm/uvm_loan.c vaddr_t va; va 430 uvm/uvm_loan.c result = uobj->pgops->pgo_get(uobj, va - ufi->entry->start, va 455 uvm/uvm_loan.c result = uobj->pgops->pgo_get(uobj, va - ufi->entry->start, va 394 uvm/uvm_mmap.c struct vattr va; va 554 uvm/uvm_mmap.c VOP_GETATTR(vp, &va, p->p_ucred, p))) va 556 uvm/uvm_mmap.c if ((va.va_flags & (IMMUTABLE|APPEND)) == 0) va 904 uvm/uvm_swap.c struct vattr va; va 954 uvm/uvm_swap.c if ((error = VOP_GETATTR(vp, &va, p->p_ucred, p))) va 956 uvm/uvm_swap.c nblocks = (int)btodb(va.va_size); va 280 xfs/xfs_node-bsd.c vattr2xfs_attr(const struct vattr *va, struct xfs_attr *xa) va 283 xfs/xfs_node-bsd.c if (va->va_mode != (mode_t)VNOVAL) va 284 xfs/xfs_node-bsd.c XA_SET_MODE(xa, va->va_mode); va 285 xfs/xfs_node-bsd.c if (va->va_nlink != VNOVAL) va 286 xfs/xfs_node-bsd.c XA_SET_NLINK(xa, va->va_nlink); va 287 xfs/xfs_node-bsd.c if (va->va_size != VNOVAL) va 288 xfs/xfs_node-bsd.c XA_SET_SIZE(xa, va->va_size); va 289 xfs/xfs_node-bsd.c if (va->va_uid != VNOVAL) va 290 xfs/xfs_node-bsd.c XA_SET_UID(xa, va->va_uid); va 291 xfs/xfs_node-bsd.c if (va->va_gid != VNOVAL) va 292 xfs/xfs_node-bsd.c XA_SET_GID(xa, va->va_gid); va 293 xfs/xfs_node-bsd.c if (va->va_atime.tv_sec != VNOVAL) va 294 xfs/xfs_node-bsd.c XA_SET_ATIME(xa, va->va_atime.tv_sec); va 295 xfs/xfs_node-bsd.c if (va->va_mtime.tv_sec != VNOVAL) va 296 xfs/xfs_node-bsd.c XA_SET_MTIME(xa, va->va_mtime.tv_sec); va 297 xfs/xfs_node-bsd.c if (va->va_ctime.tv_sec != VNOVAL) va 298 xfs/xfs_node-bsd.c XA_SET_CTIME(xa, va->va_ctime.tv_sec); va 299 xfs/xfs_node-bsd.c if (va->va_fileid != VNOVAL) va 300 xfs/xfs_node-bsd.c XA_SET_FILEID(xa, va->va_fileid); va 301 xfs/xfs_node-bsd.c switch (va->va_type) { va 337 xfs/xfs_node-bsd.c xfs_attr2vattr(const struct xfs_attr *xa, struct vattr *va, int clear_node) va 340 xfs/xfs_node-bsd.c VATTR_NULL(va); va 342 xfs/xfs_node-bsd.c va->va_mode = xa->xa_mode; va 344 xfs/xfs_node-bsd.c va->va_nlink = xa->xa_nlink; va 346 xfs/xfs_node-bsd.c va->va_size = xa->xa_size; va 347 xfs/xfs_node-bsd.c va->va_bytes = va->va_size; va 350 xfs/xfs_node-bsd.c va->va_uid = xa->xa_uid; va 352 xfs/xfs_node-bsd.c va->va_gid = xa->xa_gid; va 354 xfs/xfs_node-bsd.c SET_TIMEVAL(&va->va_atime, xa->xa_atime, 0); va 357 xfs/xfs_node-bsd.c SET_TIMEVAL(&va->va_mtime, xa->xa_mtime, 0); va 360 xfs/xfs_node-bsd.c SET_TIMEVAL(&va->va_ctime, xa->xa_ctime, 0); va 363 xfs/xfs_node-bsd.c va->va_fileid = xa->xa_fileid; va 368 xfs/xfs_node-bsd.c va->va_type = VNON; va 371 xfs/xfs_node-bsd.c va->va_type = VREG; va 374 xfs/xfs_node-bsd.c va->va_type = VDIR; va 377 xfs/xfs_node-bsd.c va->va_type = VBLK; va 380 xfs/xfs_node-bsd.c va->va_type = VCHR; va 383 xfs/xfs_node-bsd.c va->va_type = VLNK; va 386 xfs/xfs_node-bsd.c va->va_type = VSOCK; va 389 xfs/xfs_node-bsd.c va->va_type = VFIFO; va 392 xfs/xfs_node-bsd.c va->va_type = VBAD; va 398 xfs/xfs_node-bsd.c va->va_flags = 0; va 399 xfs/xfs_node-bsd.c va->va_blocksize = 8192;