va                 54 arch/i386/i386/acpi_machdep.c 	vaddr_t va = uvm_km_valloc(kernel_map, endpa - pgpa);
va                 56 arch/i386/i386/acpi_machdep.c 	if (va == 0)
va                 59 arch/i386/i386/acpi_machdep.c 	handle->baseva = va;
va                 60 arch/i386/i386/acpi_machdep.c 	handle->va = (u_int8_t *)(va + (u_long)(pa & PGOFSET));
va                 65 arch/i386/i386/acpi_machdep.c 		pmap_kenter_pa(va, pgpa, VM_PROT_READ | VM_PROT_WRITE);
va                 66 arch/i386/i386/acpi_machdep.c 		va += NBPG;
va                 89 arch/i386/i386/acpi_machdep.c 	for (ptr = handle->va, i = 0;
va                143 arch/i386/i386/acpi_machdep.c 		ebda = *(const u_int16_t *)(&handle.va[0x40e]);
va                164 arch/i386/i386/acpi_machdep.c 	aaa->aaa_pbase = ptr - handle.va + handle.pa;
va                146 arch/i386/i386/bios.c 	volatile u_int8_t *va;
va                153 arch/i386/i386/bios.c 	va = ISA_HOLE_VADDR(0xffff0);
va                154 arch/i386/i386/bios.c 	switch (va[14]) {
va                166 arch/i386/i386/bios.c 	    str, va[5], va[6], va[8], va[9], va[11], va[12]);
va                197 arch/i386/i386/bios.c 		for (va = ISA_HOLE_VADDR(BIOS32_START);
va                198 arch/i386/i386/bios.c 		    va < (u_int8_t *)ISA_HOLE_VADDR(BIOS32_END); va += 16) {
va                199 arch/i386/i386/bios.c 			bios32_header_t h = (bios32_header_t)va;
va                207 arch/i386/i386/bios.c 			for (cksum = 0, i = h->length * 16; i--; cksum += va[i])
va                224 arch/i386/i386/bios.c 		for (va = ISA_HOLE_VADDR(SMBIOS_START);
va                225 arch/i386/i386/bios.c 		    va < (u_int8_t *)ISA_HOLE_VADDR(SMBIOS_END); va+= 16) {
va                226 arch/i386/i386/bios.c 			struct smbhdr * sh = (struct smbhdr *)va;
va                235 arch/i386/i386/bios.c 			for (chksum = 0; i--; chksum += va[i])
va                239 arch/i386/i386/bios.c 			va += 0x10;
va                240 arch/i386/i386/bios.c 			if (va[0] != '_' && va[1] != 'D' && va[2] != 'M' &&
va                241 arch/i386/i386/bios.c 			    va[3] != 'I' && va[4] != '_')
va                243 arch/i386/i386/bios.c 			for (chksum = 0, i = 0xf; i--; chksum += va[i]);
va                326 arch/i386/i386/bios.c 		for (str = NULL, va = ISA_HOLE_VADDR(0xc0000),
va                328 arch/i386/i386/bios.c 		    va < eva; va += 512) {
va                330 arch/i386/i386/bios.c 			bios_romheader_t romh = (bios_romheader_t)va;
va                346 arch/i386/i386/bios.c 			if (va + len > eva)
va                349 arch/i386/i386/bios.c 			for (cksum = 0, i = len; i--; cksum += va[i])
va                356 arch/i386/i386/bios.c 			off = 0xc0000 + (va - (u_int8_t *)
va                369 arch/i386/i386/bios.c 			va += len - 512;
va                480 arch/i386/i386/bios.c 	vaddr_t va, sva;
va                503 arch/i386/i386/bios.c 	sva = va = uvm_km_valloc(kernel_map, endpa);
va                504 arch/i386/i386/bios.c 	if (va == 0)
va                508 arch/i386/i386/bios.c 	setgdt(slot, (caddr_t)va, BIOS32_END, SDT_MEMERA, SEL_KPL, 1, 0);
va                511 arch/i386/i386/bios.c 	    va += trunc_page(BIOS32_START);
va                512 arch/i386/i386/bios.c 	    pa < endpa; pa += NBPG, va += NBPG) {
va                513 arch/i386/i386/bios.c 		pmap_enter(pmap_kernel(), va, pa,
va                689 arch/i386/i386/bios.c 	u_int8_t *va, *end;
va                693 arch/i386/i386/bios.c 	va = smbios_entry.addr;
va                694 arch/i386/i386/bios.c 	end = va + smbios_entry.len;
va                704 arch/i386/i386/bios.c 		if ((u_int8_t *)st->hdr >= va && (u_int8_t *)st->hdr < end) {
va                707 arch/i386/i386/bios.c 				va = (u_int8_t *)hdr + hdr->size;
va                708 arch/i386/i386/bios.c 				for (; va + 1 < end; va++)
va                709 arch/i386/i386/bios.c 					if (*va == NULL && *(va + 1) == NULL)
va                711 arch/i386/i386/bios.c 				va+= 2;
va                716 arch/i386/i386/bios.c 	for (; va + sizeof(struct smbtblhdr) < end && tcount <=
va                718 arch/i386/i386/bios.c 		hdr = (struct smbtblhdr *)va;
va                722 arch/i386/i386/bios.c 			st->tblhdr = va + sizeof(struct smbtblhdr);
va                728 arch/i386/i386/bios.c 		va+= hdr->size;
va                729 arch/i386/i386/bios.c 		for (; va + 1 < end; va++)
va                730 arch/i386/i386/bios.c 			if (*va == NULL && *(va + 1) == NULL)
va                732 arch/i386/i386/bios.c 		va+=2;
va                741 arch/i386/i386/bios.c 	u_int8_t *va, *end;
va                745 arch/i386/i386/bios.c 	va = (u_int8_t *)st->hdr + st->hdr->size;
va                747 arch/i386/i386/bios.c 	for (i = 1; va < end && i < indx && *va; i++)
va                748 arch/i386/i386/bios.c 		while (*va++)
va                751 arch/i386/i386/bios.c 		if (va + len < end) {
va                753 arch/i386/i386/bios.c 			bcopy(va, ret, len);
va                 69 arch/i386/i386/db_trace.c #define	INKERNEL(va)	(((vaddr_t)(va)) >= VM_MIN_KERNEL_ADDRESS)
va                128 arch/i386/i386/gdt.c 	vaddr_t va;
va                139 arch/i386/i386/gdt.c 	for (va = (vaddr_t)gdt; va < (vaddr_t)gdt + min_len; va += PAGE_SIZE) {
va                143 arch/i386/i386/gdt.c 		pmap_kenter_pa(va, VM_PAGE_TO_PHYS(pg),
va                199 arch/i386/i386/gdt.c 	vaddr_t va;
va                206 arch/i386/i386/gdt.c 		for (va = (vaddr_t)(ci->ci_gdt) + old_len;
va                207 arch/i386/i386/gdt.c 		     va < (vaddr_t)(ci->ci_gdt) + new_len;
va                208 arch/i386/i386/gdt.c 		     va += PAGE_SIZE) {
va                215 arch/i386/i386/gdt.c 			pmap_kenter_pa(va, VM_PAGE_TO_PHYS(pg),
va                 95 arch/i386/i386/kgdb_machdep.c kgdb_acc(vaddr_t va, size_t len)
va                100 arch/i386/i386/kgdb_machdep.c 	last_va = va + len;
va                101 arch/i386/i386/kgdb_machdep.c 	va  &= ~PGOFSET;
va                105 arch/i386/i386/kgdb_machdep.c 		pte = kvtopte(va);
va                108 arch/i386/i386/kgdb_machdep.c 		va  += NBPG;
va                109 arch/i386/i386/kgdb_machdep.c 	} while (va < last_va);
va                 84 arch/i386/i386/lapic.c 	vaddr_t va = (vaddr_t)&local_apic;
va                 98 arch/i386/i386/lapic.c 	pte = kvtopte(va);
va                100 arch/i386/i386/lapic.c 	invlpg(va);
va                386 arch/i386/i386/machdep.c 	vaddr_t minaddr, maxaddr, va;
va                394 arch/i386/i386/machdep.c 	va = (vaddr_t)msgbufp;
va                396 arch/i386/i386/machdep.c 		pmap_kenter_pa(va, pa, VM_PROT_READ|VM_PROT_WRITE);
va                397 arch/i386/i386/machdep.c 		va += PAGE_SIZE;
va               2761 arch/i386/i386/machdep.c 	vaddr_t va;
va               2766 arch/i386/i386/machdep.c 	va = uvm_km_zalloc(kernel_map, NBPG*2);
va               2767 arch/i386/i386/machdep.c 	p = (void *)(va + NBPG - 7*sizeof(*idt));
va               2778 arch/i386/i386/machdep.c 	pte = PTE_BASE + atop(va);
va               3503 arch/i386/i386/machdep.c 	vaddr_t va;
va               3517 arch/i386/i386/machdep.c 	va = uvm_km_valloc(kernel_map, map_size);
va               3518 arch/i386/i386/machdep.c 	if (va == 0)
va               3521 arch/i386/i386/machdep.c 	*bshp = (bus_space_handle_t)(va + (bpa & PGOFSET));
va               3524 arch/i386/i386/machdep.c 	    pa += PAGE_SIZE, va += PAGE_SIZE, map_size -= PAGE_SIZE) {
va               3525 arch/i386/i386/machdep.c 		pmap_kenter_pa(va, pa, VM_PROT_READ | VM_PROT_WRITE);
va               3527 arch/i386/i386/machdep.c 		pte = kvtopte(va);
va               3532 arch/i386/i386/machdep.c 		pmap_tlb_shootpage(pmap_kernel(), va);
va               3545 arch/i386/i386/machdep.c 	u_long va, endva;
va               3560 arch/i386/i386/machdep.c 		va = trunc_page(bsh);
va               3564 arch/i386/i386/machdep.c 		if (endva <= va)
va               3568 arch/i386/i386/machdep.c 		(void) pmap_extract(pmap_kernel(), va, &bpa);
va               3574 arch/i386/i386/machdep.c 		uvm_km_free(kernel_map, va, endva - va);
va               3591 arch/i386/i386/machdep.c 	u_long va, endva;
va               3604 arch/i386/i386/machdep.c 		va = trunc_page(bsh);
va               3608 arch/i386/i386/machdep.c 		if (endva <= va)
va               3612 arch/i386/i386/machdep.c 		(void) pmap_extract(pmap_kernel(), va, &bpa);
va               3618 arch/i386/i386/machdep.c 		uvm_km_free(kernel_map, va, endva - va);
va               3926 arch/i386/i386/machdep.c 	vaddr_t va;
va               3931 arch/i386/i386/machdep.c 	va = uvm_km_valloc(kernel_map, size);
va               3932 arch/i386/i386/machdep.c 	if (va == 0)
va               3935 arch/i386/i386/machdep.c 	*kvap = (caddr_t)va;
va               3940 arch/i386/i386/machdep.c 		    addr += PAGE_SIZE, va += PAGE_SIZE, size -= PAGE_SIZE) {
va               3943 arch/i386/i386/machdep.c 			pmap_enter(pmap_kernel(), va, addr,
va                231 arch/i386/i386/mpbios.c 	vaddr_t va = uvm_km_valloc(kernel_map, endpa - pgpa);
va                232 arch/i386/i386/mpbios.c 	vaddr_t retva = va + (pa & PGOFSET);
va                237 arch/i386/i386/mpbios.c 	handle->baseva = va;
va                242 arch/i386/i386/mpbios.c 		pmap_kenter_pa(va, pgpa, VM_PROT_READ);
va                244 arch/i386/i386/mpbios.c 		pmap_enter(pmap_kernel(), va, pgpa, VM_PROT_READ, TRUE,
va                247 arch/i386/i386/mpbios.c 		va += NBPG;
va                302 arch/i386/i386/pmap.c #define VASLEW(va,id) ((va)+(id)*NPTECL*NBPG)
va                305 arch/i386/i386/pmap.c #define VASLEW(va,id) (va)
va                577 arch/i386/i386/pmap.c pmap_exec_account(struct pmap *pm, vaddr_t va,
va                588 arch/i386/i386/pmap.c 		pmap_tlb_shootpage(pm, va);
va                598 arch/i386/i386/pmap.c 	if ((opte & PG_X) && (npte & PG_X) == 0 && va == pm->pm_hiexec) {
va                617 arch/i386/i386/pmap.c 	vaddr_t va = 0;
va                626 arch/i386/i386/pmap.c 			va = trunc_page(ent->end - 1);
va                630 arch/i386/i386/pmap.c 	if (va <= pm->pm_hiexec) {
va                634 arch/i386/i386/pmap.c 	pm->pm_hiexec = va;
va                641 arch/i386/i386/pmap.c 	setcslimit(pm, tf, pcb, va);
va                694 arch/i386/i386/pmap.c pmap_kenter_pa(vaddr_t va, paddr_t pa, vm_prot_t prot)
va                698 arch/i386/i386/pmap.c 	pte = vtopte(va);
va                704 arch/i386/i386/pmap.c 		pmap_tlb_shootpage(pmap_kernel(), va);
va                722 arch/i386/i386/pmap.c 	vaddr_t va, eva;
va                726 arch/i386/i386/pmap.c 	for (va = sva; va != eva; va += PAGE_SIZE) {
va                727 arch/i386/i386/pmap.c 		pte = kvtopte(va);
va                731 arch/i386/i386/pmap.c 			panic("pmap_kremove: PG_PVLIST mapping for 0x%lx", va);
va               1303 arch/i386/i386/pmap.c     vaddr_t va, struct vm_page *ptp)
va               1306 arch/i386/i386/pmap.c 	pve->pv_va = va;
va               1322 arch/i386/i386/pmap.c pmap_remove_pv(struct vm_page *pg, struct pmap *pmap, vaddr_t va)
va               1328 arch/i386/i386/pmap.c 		if (pve->pv_pmap == pmap && pve->pv_va == va) {	/* match? */
va               1736 arch/i386/i386/pmap.c pmap_extract(struct pmap *pmap, vaddr_t va, paddr_t *pap)
va               1740 arch/i386/i386/pmap.c 	if (pmap_valid_entry(pmap->pm_pdir[pdei(va)])) {
va               1742 arch/i386/i386/pmap.c 		pte = ptes[atop(va)];
va               1747 arch/i386/i386/pmap.c 			*pap = (pte & PG_FRAME) | (va & ~PG_FRAME);
va               1959 arch/i386/i386/pmap.c     vaddr_t va, int flags)
va               1974 arch/i386/i386/pmap.c 	pmap_exec_account(pmap, va, opte, 0);
va               1992 arch/i386/i386/pmap.c 			      "PG_PVLIST for 0x%lx", va);
va               2000 arch/i386/i386/pmap.c 		    "PG_PVLIST, va = 0x%lx, pa = 0x%lx", va,
va               2005 arch/i386/i386/pmap.c 	pve = pmap_remove_pv(pg, pmap, va);
va               2033 arch/i386/i386/pmap.c 	vaddr_t va;
va               2136 arch/i386/i386/pmap.c 	for (va = sva ; va < eva ; va = blkendva) {
va               2138 arch/i386/i386/pmap.c 		blkendva = i386_round_pdr(va + 1);
va               2156 arch/i386/i386/pmap.c 		if (pdei(va) == PDSLOT_PTE)
va               2160 arch/i386/i386/pmap.c 		if (!pmap_valid_entry(pmap->pm_pdir[pdei(va)]))
va               2165 arch/i386/i386/pmap.c 		ptppa = (pmap->pm_pdir[pdei(va)] & PG_FRAME);
va               2184 arch/i386/i386/pmap.c 		pmap_remove_ptes(pmap, ptp, (vaddr_t)&ptes[atop(va)],
va               2185 arch/i386/i386/pmap.c 		    va, blkendva, flags);
va               2190 arch/i386/i386/pmap.c 			    &pmap->pm_pdir[pdei(va)], 0);
va               2449 arch/i386/i386/pmap.c 	vaddr_t va;
va               2461 arch/i386/i386/pmap.c 	for (va = sva; va < eva; va = blockend) {
va               2462 arch/i386/i386/pmap.c 		blockend = (va & PD_MASK) + NBPD;
va               2476 arch/i386/i386/pmap.c 		if (pdei(va) == PDSLOT_PTE)
va               2480 arch/i386/i386/pmap.c 		if (!pmap_valid_entry(pmap->pm_pdir[pdei(va)]))
va               2484 arch/i386/i386/pmap.c 		if (va < VM_MAXUSER_ADDRESS)
va               2486 arch/i386/i386/pmap.c 		else if (va < VM_MAX_ADDRESS)
va               2490 arch/i386/i386/pmap.c 		spte = &ptes[atop(va)];
va               2493 arch/i386/i386/pmap.c 		for (/*null */; spte < epte ; spte++, va += PAGE_SIZE) {
va               2501 arch/i386/i386/pmap.c 				pmap_exec_account(pmap, va, *spte, npte);
va               2526 arch/i386/i386/pmap.c pmap_unwire(struct pmap *pmap, vaddr_t va)
va               2530 arch/i386/i386/pmap.c 	if (pmap_valid_entry(pmap->pm_pdir[pdei(va)])) {
va               2534 arch/i386/i386/pmap.c 		if (!pmap_valid_entry(ptes[atop(va)]))
va               2535 arch/i386/i386/pmap.c 			panic("pmap_unwire: invalid (unmapped) va 0x%lx", va);
va               2537 arch/i386/i386/pmap.c 		if ((ptes[atop(va)] & PG_W) != 0) {
va               2538 arch/i386/i386/pmap.c 			ptes[atop(va)] &= ~PG_W;
va               2544 arch/i386/i386/pmap.c 			       "didn't change!\n", pmap, va);
va               2593 arch/i386/i386/pmap.c pmap_enter(struct pmap *pmap, vaddr_t va, paddr_t pa,
va               2605 arch/i386/i386/pmap.c 	if (va >= VM_MAX_KERNEL_ADDRESS)
va               2608 arch/i386/i386/pmap.c 	if (va == (vaddr_t) PDP_BASE || va == (vaddr_t) APDP_BASE)
va               2612 arch/i386/i386/pmap.c 	if (va >= VM_MIN_KERNEL_ADDRESS &&
va               2613 arch/i386/i386/pmap.c 	    !pmap_valid_entry(pmap->pm_pdir[pdei(va)]))
va               2628 arch/i386/i386/pmap.c 		ptp = pmap_get_ptp(pmap, pdei(va), FALSE);
va               2637 arch/i386/i386/pmap.c 	opte = ptes[atop(va)];			/* old PTE */
va               2696 arch/i386/i386/pmap.c 			pve = pmap_remove_pv(pg, pmap, va);
va               2733 arch/i386/i386/pmap.c 		pmap_enter_pv(pg, pve, pmap, va, ptp);
va               2747 arch/i386/i386/pmap.c 	pmap_exec_account(pmap, va, opte, npte);
va               2750 arch/i386/i386/pmap.c 	if (va < VM_MAXUSER_ADDRESS)
va               2752 arch/i386/i386/pmap.c 	else if (va < VM_MAX_ADDRESS)
va               2765 arch/i386/i386/pmap.c 	opte = i386_atomic_testset_ul(&ptes[atop(va)], npte);
va               2768 arch/i386/i386/pmap.c 		pmap_tlb_shootpage(pmap, va);
va               2938 arch/i386/i386/pmap.c pmap_tlb_shootpage(struct pmap *pm, vaddr_t va)
va               2960 arch/i386/i386/pmap.c 		tlb_shoot_addr1 = va;
va               2971 arch/i386/i386/pmap.c 		pmap_update_pg(va);
va               2981 arch/i386/i386/pmap.c 	vaddr_t va;
va               3010 arch/i386/i386/pmap.c 		for (va = sva; va < eva; va += PAGE_SIZE)
va               3011 arch/i386/i386/pmap.c 			pmap_update_pg(va);
va               3059 arch/i386/i386/pmap.c pmap_tlb_shootpage(struct pmap *pm, vaddr_t va)
va               3062 arch/i386/i386/pmap.c 		pmap_update_pg(va);
va               3069 arch/i386/i386/pmap.c 	vaddr_t va;
va               3071 arch/i386/i386/pmap.c 	for (va = sva; va < eva; va += PAGE_SIZE)
va               3072 arch/i386/i386/pmap.c 		pmap_update_pg(va);	
va                539 arch/i386/i386/pmapae.c #define VASLEW(va,id) ((va)+(id)*NPTECL*NBPG)
va                542 arch/i386/i386/pmapae.c #define VASLEW(va,id) (va)
va                734 arch/i386/i386/pmapae.c pmap_pte_set_pae(vaddr_t va, paddr_t pa, u_int32_t bits)
va                736 arch/i386/i386/pmapae.c 	pt_entry_t pte, *ptep = vtopte(va);
va                743 arch/i386/i386/pmapae.c pmap_pte_setbits_pae(vaddr_t va, u_int32_t set, u_int32_t clr)
va                745 arch/i386/i386/pmapae.c 	pt_entry_t *ptep = vtopte(va);
va                754 arch/i386/i386/pmapae.c pmap_pte_bits_pae(vaddr_t va)
va                756 arch/i386/i386/pmapae.c 	pt_entry_t *ptep = vtopte(va);
va                762 arch/i386/i386/pmapae.c pmap_pte_paddr_pae(vaddr_t va)
va                764 arch/i386/i386/pmapae.c 	pt_entry_t *ptep = vtopte(va);
va                781 arch/i386/i386/pmapae.c 	vaddr_t va, eva;
va                789 arch/i386/i386/pmapae.c 	va = (vaddr_t)kpm->pm_pdir;
va                790 arch/i386/i386/pmapae.c 	kpm->pm_pdidx[0] = (va + 0*NBPG - KERNBASE) | PG_V;
va                791 arch/i386/i386/pmapae.c 	kpm->pm_pdidx[1] = (va + 1*NBPG - KERNBASE) | PG_V;
va                792 arch/i386/i386/pmapae.c 	kpm->pm_pdidx[2] = (va + 2*NBPG - KERNBASE) | PG_V;
va                793 arch/i386/i386/pmapae.c 	kpm->pm_pdidx[3] = (va + 3*NBPG - KERNBASE) | PG_V;
va                801 arch/i386/i386/pmapae.c 	for (va = KERNBASE, eva = va + (nkpde << 22);
va                802 arch/i386/i386/pmapae.c 	    va < eva; va += PAGE_SIZE) {
va                803 arch/i386/i386/pmapae.c 		if (!pmap_valid_entry(PDE(kpm, pdei(va)))) {
va                804 arch/i386/i386/pmapae.c 			ptp = pae_pagealloc(&kpm->pm_obj, va, NULL,
va                807 arch/i386/i386/pmapae.c 			PDE(kpm, pdei(va)) = ptaddr | PG_KW | PG_V;
va                808 arch/i386/i386/pmapae.c 			pmap_pte_set_86((vaddr_t)vtopte(va),
va                814 arch/i386/i386/pmapae.c 		bits = pmap_pte_bits_86(va) | pmap_pg_g;
va                816 arch/i386/i386/pmapae.c 			pmap_pte_set_pae(va, pmap_pte_paddr_86(va), bits);
va               1035 arch/i386/i386/pmapae.c 	vaddr_t va;
va               1044 arch/i386/i386/pmapae.c 	va = (vaddr_t)pmap->pm_pdir;
va               1045 arch/i386/i386/pmapae.c 	pmap_extract(pmap_kernel(), va + 0*NBPG, &pmap->pm_pdidx[0]);
va               1046 arch/i386/i386/pmapae.c 	pmap_extract(pmap_kernel(), va + 1*NBPG, &pmap->pm_pdidx[1]);
va               1047 arch/i386/i386/pmapae.c 	pmap_extract(pmap_kernel(), va + 2*NBPG, &pmap->pm_pdidx[2]);
va               1048 arch/i386/i386/pmapae.c 	pmap_extract(pmap_kernel(), va + 3*NBPG, &pmap->pm_pdidx[3]);
va               1090 arch/i386/i386/pmapae.c pmap_extract_pae(struct pmap *pmap, vaddr_t va, paddr_t *pap)
va               1095 arch/i386/i386/pmapae.c 	if (PDE(pmap, pdei(va))) {
va               1097 arch/i386/i386/pmapae.c 		retval = (paddr_t)(ptes[atop(va)] & PG_FRAME);
va               1100 arch/i386/i386/pmapae.c 			*pap = retval | (va & ~PG_FRAME);
va               1299 arch/i386/i386/pmapae.c     vaddr_t va, int32_t *cpumaskp)
va               1311 arch/i386/i386/pmapae.c 	pmap_exec_account(pmap, va, opte, 0);
va               1318 arch/i386/i386/pmapae.c 		pmap_tlb_shootdown(pmap, va, opte, cpumaskp);
va               1324 arch/i386/i386/pmapae.c 			pmap_tlb_shootdown(pmap, va, opte, cpumaskp);
va               1336 arch/i386/i386/pmapae.c 			      "PG_PVLIST for 0x%lx", va);
va               1345 arch/i386/i386/pmapae.c 		    "PG_PVLIST, va = 0x%lx, pa = 0x%lx", va,
va               1352 arch/i386/i386/pmapae.c 	pve = pmap_remove_pv(&vm_physmem[bank].pmseg.pvhead[off], pmap, va);
va               1917 arch/i386/i386/pmapae.c pmap_unwire_pae(struct pmap *pmap, vaddr_t va)
va               1921 arch/i386/i386/pmapae.c 	if (pmap_valid_entry(PDE(pmap, pdei(va)))) {
va               1925 arch/i386/i386/pmapae.c 		if (!pmap_valid_entry(ptes[atop(va)]))
va               1926 arch/i386/i386/pmapae.c 			panic("pmap_unwire: invalid (unmapped) va 0x%lx", va);
va               1928 arch/i386/i386/pmapae.c 		if ((ptes[atop(va)] & PG_W) != 0) {
va               1929 arch/i386/i386/pmapae.c 			ptes[atop(va)] &= ~PG_W;
va               1935 arch/i386/i386/pmapae.c 			       "didn't change!\n", pmap, va);
va               1966 arch/i386/i386/pmapae.c pmap_enter_pae(struct pmap *pmap, vaddr_t va, paddr_t pa, vm_prot_t prot,
va               1978 arch/i386/i386/pmapae.c 	if (va >= VM_MAX_KERNEL_ADDRESS)
va               1981 arch/i386/i386/pmapae.c 	if (va == (vaddr_t) PDP_BASE || va == (vaddr_t) APDP_BASE)
va               1985 arch/i386/i386/pmapae.c 	if (va >= VM_MIN_KERNEL_ADDRESS &&
va               1986 arch/i386/i386/pmapae.c 	    !pmap_valid_entry(PDE(pmap, pdei(va))))
va               2001 arch/i386/i386/pmapae.c 		ptp = pmap_get_ptp_pae(pmap, pdei(va), FALSE);
va               2010 arch/i386/i386/pmapae.c 	opte = ptes[atop(va)];			/* old PTE */
va               2075 arch/i386/i386/pmapae.c 			pve = pmap_remove_pv(pvh, pmap, va);
va               2112 arch/i386/i386/pmapae.c 		pmap_enter_pv(pvh, pve, pmap, va, ptp);
va               2127 arch/i386/i386/pmapae.c 	pmap_exec_account(pmap, va, opte, npte);
va               2132 arch/i386/i386/pmapae.c 	if (va < VM_MAXUSER_ADDRESS)
va               2134 arch/i386/i386/pmapae.c 	else if (va < VM_MAX_ADDRESS)
va               2139 arch/i386/i386/pmapae.c 	ptes[atop(va)] = npte;			/* zap! */
va               2145 arch/i386/i386/pmapae.c 		pmap_tlb_shootdown(pmap, va, opte, &cpumask);
va               2150 arch/i386/i386/pmapae.c 			pmap_update_pg(va);
va                455 arch/i386/i386/trap.c 		vaddr_t va, fa;
va                467 arch/i386/i386/trap.c 		va = trunc_page(fa);
va                476 arch/i386/i386/trap.c 		if (type == T_PAGEFLT && va >= KERNBASE)
va                482 arch/i386/i386/trap.c 		if (map == kernel_map && va == 0) {
va                483 arch/i386/i386/trap.c 			printf("trap: bad kernel access at %lx\n", va);
va                490 arch/i386/i386/trap.c 		rv = uvm_fault(map, va, 0, ftype);
va                495 arch/i386/i386/trap.c 				uvm_grow(p, va);
va                510 arch/i386/i386/trap.c 			    map, va, ftype, rv);
va                361 arch/i386/include/pmap.h #define pmap_proc_iflush(p,va,len)	/* nothing */
va                410 arch/i386/include/pmap.h #define pmap_update_pg(va)	invlpg((u_int)(va))
va                416 arch/i386/include/pmap.h #define pmap_update_2pg(va, vb) { invlpg((u_int)(va)); invlpg((u_int)(vb)); }
va                 62 compat/common/compat_dir.c 	struct vattr va;
va                 72 compat/common/compat_dir.c 	if ((error = VOP_GETATTR(vp, &va, fp->f_cred, curproc)) != 0)
va                 76 compat/common/compat_dir.c 	buflen = max(buflen, va.va_blocksize);
va                320 compat/linux/linux_file.c 	struct vattr va;
va                406 compat/linux/linux_file.c 		error = VOP_GETATTR(vp, &va, p->p_ucred, p);
va                410 compat/linux/linux_file.c 		d_tty = cdevsw[major(va.va_rdev)].d_tty;
va                411 compat/linux/linux_file.c 		if (!d_tty || (!(tp = (*d_tty)(va.va_rdev))))
va                578 compat/ossaudio/ossaudio.c 	struct vattr va;
va                588 compat/ossaudio/ossaudio.c 	if (VOP_GETATTR(vp, &va, p->p_ucred, p))
va                590 compat/ossaudio/ossaudio.c 	if (di->done && di->dev == va.va_rdev)
va                594 compat/ossaudio/ossaudio.c 	di->dev = va.va_rdev;
va                147 dev/acpi/acpi.c 			memcpy(buffer, mh.va, len);
va                149 dev/acpi/acpi.c 			memcpy(mh.va, buffer, len);
va                367 dev/acpi/acpi.c 	rsdp = (struct acpi_rsdp *)handle.va;
va                478 dev/acpi/acpi.c 		sc->sc_facs = (struct acpi_facs *)handle.va;
va                662 dev/acpi/acpi.c 		hdr = (struct acpi_table_header *)handle.va;
va                668 dev/acpi/acpi.c 		xsdt = (struct acpi_xsdt *)hrsdt.va;
va                675 dev/acpi/acpi.c 			hdr = (struct acpi_table_header *)handle.va;
va                689 dev/acpi/acpi.c 		hdr = (struct acpi_table_header *)handle.va;
va                695 dev/acpi/acpi.c 		rsdt = (struct acpi_rsdt *)hrsdt.va;
va                702 dev/acpi/acpi.c 			hdr = (struct acpi_table_header *)handle.va;
va                726 dev/acpi/acpi.c 		memcpy(entry->q_data, handle.va, len);
va                742 dev/acpi/acpi.c 	hdr = (struct acpi_table_header *)handle.va;
va                754 dev/acpi/acpi.c 		memcpy((*dsdt)->q_data, handle.va, len);
va                 51 dev/acpi/acpivar.h 	u_int8_t	*va;
va                989 dev/ata/wd.c   wddump(dev_t dev, daddr64_t blkno, caddr_t va, size_t size)
va               1047 dev/ata/wd.c   		wd->sc_wdc_bio.databuf = va;
va               1098 dev/ata/wd.c   		    unit, va, cylin, head, sector);
va               1105 dev/ata/wd.c   		va += min(nblks, wddumpmulti) * lp->d_secsize;
va                273 dev/ccd.c      	struct vattr va;
va                329 dev/ccd.c      		if ((error = VOP_GETATTR(vp, &va, p->p_ucred, p)) != 0) {
va                337 dev/ccd.c      		ci->ci_dev = va.va_rdev;
va               1293 dev/ccd.c      ccddump(dev_t dev, daddr64_t blkno, caddr_t va, size_t size)
va               1310 dev/ccd.c      	struct vattr va;
va               1327 dev/ccd.c      	if ((error = VOP_GETATTR(vp, &va, p->p_ucred, p)) != 0) {
va               1336 dev/ccd.c      	if (va.va_type != VBLK) {
va                 39 dev/firmload.c 	struct vattr va;
va                 59 dev/firmload.c 	error = VOP_GETATTR(nid.ni_vp, &va, p->p_ucred, p);
va                 62 dev/firmload.c 	if (nid.ni_vp->v_type != VREG || va.va_size == 0) {
va                 66 dev/firmload.c 	if (va.va_size > FIRMWARE_MAX) {
va                 70 dev/firmload.c 	ptr = malloc(va.va_size, M_DEVBUF, M_NOWAIT);
va                 77 dev/firmload.c 	iov.iov_len = va.va_size;
va                 81 dev/firmload.c 	uio.uio_resid = va.va_size;
va                 90 dev/firmload.c 		*buflen = va.va_size;
va                865 dev/flash.c    flashdump(dev_t dev, daddr64_t blkno, caddr_t va, size_t size)
va                159 dev/ic/midway.c #define	vtophys(va)	alpha_XXX_dmamap((vaddr_t)(va))
va                199 dev/ic/smc91cxx.c ether_cmp(va, vb)
va                200 dev/ic/smc91cxx.c 	void *va, *vb;
va                202 dev/ic/smc91cxx.c 	u_int8_t *a = va;
va                851 dev/ipmi.c     	void *va;
va                854 dev/ipmi.c     		va = ISA_HOLE_VADDR(start);
va                855 dev/ipmi.c     		if (memcmp(va, data, len) == 0)
va                856 dev/ipmi.c     			return (va);
va               1047 dev/isa/aha.c  	vaddr_t va;
va               1126 dev/isa/aha.c  	    uvm_map(kernel_map, &va, size, NULL, UVM_UNKNOWN_OFFSET, 0,
va               1131 dev/isa/aha.c  	wmbx = (struct aha_mbx *)va;
va               1134 dev/isa/aha.c  		pmap_kenter_pa(va, VM_PAGE_TO_PHYS(pg),
va               1136 dev/isa/aha.c  		va += PAGE_SIZE;
va                593 dev/isa/fd.c   fddump(dev, blkno, va, size)
va                596 dev/isa/fd.c   	caddr_t va;
va                811 dev/isa/mcd.c  mcddump(dev, blkno, va, size)
va                814 dev/isa/mcd.c  	caddr_t va;
va                231 dev/ksyms.c    	vaddr_t va;
va                240 dev/ksyms.c    		va = (vaddr_t)ksym_head + off;
va                242 dev/ksyms.c    		va = (vaddr_t)ksym_syms + off;
va                245 dev/ksyms.c    	if (pmap_extract(pmap_kernel, va, &pa) == FALSE)
va                598 dev/pci/if_lgereg.h #define vtophys(va)		alpha_XXX_dmamap((vaddr_t)va)
va                723 dev/pci/if_ngereg.h #define vtophys(va)		alpha_XXX_dmamap((vaddr_t)va)
va                542 dev/pci/if_stereg.h #define vtophys(va)		alpha_XXX_dmamap((vaddr_t)va)
va                600 dev/pci/if_tlreg.h #define vtophys(va)		alpha_XXX_dmamap((vaddr_t)va)
va                462 dev/pci/if_wbreg.h #define vtophys(va)		alpha_XXX_dmamap((vaddr_t)va)
va                425 dev/pci/yds.c  	char *va;		/* KVA */
va                476 dev/pci/yds.c  	va = (u_int8_t*)mp;
va                481 dev/pci/yds.c          sc->ptbl = (u_int32_t *)(va + cb);
va                487 dev/pci/yds.c          sc->rbank = (struct rec_slot_ctrl_bank *)(va + cb);
va                501 dev/pci/yds.c  		sc->pbankp[i*2] = (struct play_slot_ctrl_bank *)(va + cb);
va                505 dev/pci/yds.c                  sc->pbankp[i*2+1] = (struct play_slot_ctrl_bank *)(va + cb);
va                101 dev/raidframe/rf_copyback.c 	struct vattr va;
va                169 dev/raidframe/rf_copyback.c 		if ((retcode = VOP_GETATTR(vp, &va, proc->p_ucred, proc)) != 0)
va                184 dev/raidframe/rf_copyback.c 		raidPtr->raid_cinfo[frow][fcol].ci_dev = va.va_rdev;
va                187 dev/raidframe/rf_copyback.c 		raidPtr->Disks[frow][fcol].dev = va.va_rdev;
va                646 dev/raidframe/rf_disks.c 	struct vattr va;
va                678 dev/raidframe/rf_disks.c 		if ((error = VOP_GETATTR(vp, &va, proc->p_ucred, proc)) != 0) {
va                692 dev/raidframe/rf_disks.c 		raidPtr->raid_cinfo[row][col].ci_dev = va.va_rdev;
va                696 dev/raidframe/rf_disks.c 		diskPtr->dev = va.va_rdev;
va                613 dev/raidframe/rf_openbsdkintf.c raiddump(dev_t dev, daddr64_t blkno, caddr_t va, size_t size)
va               2187 dev/raidframe/rf_openbsdkintf.c 	struct vattr va;
va               2203 dev/raidframe/rf_openbsdkintf.c 	if ((error = VOP_GETATTR(vp, &va, p->p_ucred, p)) != 0) {
va               2209 dev/raidframe/rf_openbsdkintf.c 	if (va.va_type != VBLK) {
va                476 dev/raidframe/rf_reconstruct.c 	struct vattr va;
va                610 dev/raidframe/rf_reconstruct.c 			     VOP_GETATTR(vp, &va, proc->p_ucred, proc)) != 0) {
va                629 dev/raidframe/rf_reconstruct.c 			raidPtr->raid_cinfo[row][col].ci_dev = va.va_rdev;
va                631 dev/raidframe/rf_reconstruct.c 			raidPtr->Disks[row][col].dev = va.va_rdev;
va                212 dev/ramdisk.c  rddump(dev, blkno, va, size)
va                215 dev/ramdisk.c  	caddr_t va;
va               1008 dev/vnd.c      vnddump(dev_t dev, daddr64_t blkno, caddr_t va, size_t size)
va                786 kern/kern_exec.c 		vaddr_t va;
va                792 kern/kern_exec.c 		va = vm_map_min(kernel_map);	/* hint */
va                793 kern/kern_exec.c 		if ((r = uvm_map(kernel_map, &va, round_page(sz), e->e_sigobject,
va                799 kern/kern_exec.c 		memcpy((void *)va, e->e_sigcode, sz);
va                800 kern/kern_exec.c 		uvm_unmap(kernel_map, va, va + round_page(sz));
va                147 kern/kern_malloc.c 	caddr_t va, cp, savedlist;
va                161 kern/kern_malloc.c 	if (debug_malloc(size, type, flags, (void **)&va))
va                162 kern/kern_malloc.c 		return (va);
va                202 kern/kern_malloc.c 		va = (caddr_t) uvm_km_kmemalloc(kmem_map, NULL,
va                206 kern/kern_malloc.c 		if (va == NULL) {
va                223 kern/kern_malloc.c 		kup = btokup(va);
va                242 kern/kern_malloc.c 		kbp->kb_next = cp = va + (npg * PAGE_SIZE) - allocsize;
va                255 kern/kern_malloc.c 			if (cp <= va)
va                264 kern/kern_malloc.c 	va = kbp->kb_next;
va                265 kern/kern_malloc.c 	kbp->kb_next = ((struct freelist *)va)->next;
va                267 kern/kern_malloc.c 	freep = (struct freelist *)va;
va                282 kern/kern_malloc.c 			(int32_t *)&kbp->kb_next - (int32_t *)kbp, va, size,
va                301 kern/kern_malloc.c 	end = (int32_t *)&va[copysize];
va                302 kern/kern_malloc.c 	for (lp = (int32_t *)va; lp < end; lp++) {
va                306 kern/kern_malloc.c 			"Data modified on freelist: word", lp - (int32_t *)va,
va                307 kern/kern_malloc.c 			va, size, "previous type", savedtype, *lp, WEIRD_ADDR);
va                314 kern/kern_malloc.c 	kup = btokup(va);
va                332 kern/kern_malloc.c 	return (va);
va                160 kern/kern_malloc_debug.c 	vaddr_t va;
va                170 kern/kern_malloc_debug.c 	va = trunc_page((vaddr_t)addr);
va                174 kern/kern_malloc_debug.c 		if (md->md_va == va)
va                186 kern/kern_malloc_debug.c 			if (md->md_va == va)
va                233 kern/kern_malloc_debug.c 	vaddr_t va, offset;
va                243 kern/kern_malloc_debug.c 	va = uvm_km_kmemalloc(kmem_map, NULL, PAGE_SIZE * 2,
va                245 kern/kern_malloc_debug.c 	if (va == 0) {
va                250 kern/kern_malloc_debug.c 	offset = va - vm_map_min(kernel_map);
va                262 kern/kern_malloc_debug.c 			uvm_unmap(kmem_map, va, va + PAGE_SIZE * 2);
va                269 kern/kern_malloc_debug.c 	md->md_va = va;
va                288 kern/kern_malloc_debug.c 	vaddr_t va = (vaddr_t)addr;
va                291 kern/kern_malloc_debug.c 		if (va >= md->md_va &&
va                292 kern/kern_malloc_debug.c 		    va < md->md_va + 2 * PAGE_SIZE)
va                296 kern/kern_malloc_debug.c 		if (va >= md->md_va + PAGE_SIZE &&
va                297 kern/kern_malloc_debug.c 		    va < md->md_va + 2 * PAGE_SIZE)
va                101 kern/sysv_shm.c 	vaddr_t va;
va                174 kern/sysv_shm.c 	uvm_deallocate(&vm->vm_map, shmmap_s->va, size);
va                203 kern/sysv_shm.c 		    shmmap_s->va == (vaddr_t)SCARG(uap, shmaddr))
va                281 kern/sysv_shm.c 	shmmap_s->va = attach_va;
va                 70 kern/vfs_getcwd.c 	struct vattr va;
va                 82 kern/vfs_getcwd.c 		error = VOP_GETATTR(lvp, &va, p->p_ucred, p);
va                119 kern/vfs_getcwd.c 	fileno = va.va_fileid;
va                123 kern/vfs_getcwd.c 	if (dirbuflen < va.va_blocksize)
va                124 kern/vfs_getcwd.c 		dirbuflen = va.va_blocksize;
va                820 kern/vfs_subr.c 	struct vflush_args *va = arg;
va                823 kern/vfs_subr.c 	if (vp == va->skipvp) {
va                827 kern/vfs_subr.c 	if ((va->flags & SKIPSYSTEM) && (vp->v_flag & VSYSTEM)) {
va                835 kern/vfs_subr.c 	if ((va->flags & WRITECLOSE) &&
va                854 kern/vfs_subr.c 	if (va->flags & FORCECLOSE) {
va                869 kern/vfs_subr.c 	va->busy++;
va                876 kern/vfs_subr.c 	struct vflush_args va;
va                877 kern/vfs_subr.c 	va.skipvp = skipvp;
va                878 kern/vfs_subr.c 	va.busy = 0;
va                879 kern/vfs_subr.c 	va.flags = flags;
va                881 kern/vfs_subr.c 	vfs_mount_foreach_vnode(mp, vflush_vnode, &va);
va                883 kern/vfs_subr.c 	if (va.busy)
va                 96 kern/vfs_syscalls.c 	struct vattr va;
va                169 kern/vfs_syscalls.c 	if ((error = VOP_GETATTR(vp, &va, p->p_ucred, p)) ||
va                170 kern/vfs_syscalls.c 	    (va.va_uid != p->p_ucred->cr_uid &&
va                979 kern/vfs_syscalls.c 	struct vattr va;
va               1033 kern/vfs_syscalls.c 		VATTR_NULL(&va);
va               1034 kern/vfs_syscalls.c 		va.va_size = 0;
va               1035 kern/vfs_syscalls.c 		if ((error = VOP_SETATTR(vp, &va, cred, p)) != 0)
va                 79 kern/vfs_vnops.c 	struct vattr va;
va                 95 kern/vfs_vnops.c 			VATTR_NULL(&va);
va                 96 kern/vfs_vnops.c 			va.va_type = VREG;
va                 97 kern/vfs_vnops.c 			va.va_mode = cmode;
va                 99 kern/vfs_vnops.c 					   &ndp->ni_cnd, &va);
va                150 kern/vfs_vnops.c 		VATTR_NULL(&va);
va                151 kern/vfs_vnops.c 		va.va_size = 0;
va                152 kern/vfs_vnops.c 		if ((error = VOP_SETATTR(vp, &va, cred, p)) != 0)
va                347 kern/vfs_vnops.c 	struct vattr va;
va                351 kern/vfs_vnops.c 	error = VOP_GETATTR(vp, &va, p->p_ucred, p);
va                357 kern/vfs_vnops.c 	sb->st_dev = va.va_fsid;
va                358 kern/vfs_vnops.c 	sb->st_ino = va.va_fileid;
va                359 kern/vfs_vnops.c 	mode = va.va_mode;
va                386 kern/vfs_vnops.c 	sb->st_nlink = va.va_nlink;
va                387 kern/vfs_vnops.c 	sb->st_uid = va.va_uid;
va                388 kern/vfs_vnops.c 	sb->st_gid = va.va_gid;
va                389 kern/vfs_vnops.c 	sb->st_rdev = va.va_rdev;
va                390 kern/vfs_vnops.c 	sb->st_size = va.va_size;
va                391 kern/vfs_vnops.c 	sb->st_atimespec = va.va_atime;
va                392 kern/vfs_vnops.c 	sb->st_mtimespec = va.va_mtime;
va                393 kern/vfs_vnops.c 	sb->st_ctimespec = va.va_ctime;
va                394 kern/vfs_vnops.c 	sb->st_blksize = va.va_blocksize;
va                395 kern/vfs_vnops.c 	sb->st_flags = va.va_flags;
va                396 kern/vfs_vnops.c 	sb->st_gen = va.va_gen;
va                397 kern/vfs_vnops.c 	sb->st_blocks = va.va_bytes / S_BLKSIZE;
va                654 miscfs/procfs/procfs_vnops.c 	struct vattr va;
va                657 miscfs/procfs/procfs_vnops.c 	if ((error = VOP_GETATTR(ap->a_vp, &va, ap->a_cred, ap->a_p)) != 0)
va                660 miscfs/procfs/procfs_vnops.c 	return (vaccess(va.va_mode, va.va_uid, va.va_gid, ap->a_mode,
va                115 nfs/nfs_serv.c 	struct vattr va;
va                148 nfs/nfs_serv.c 	getret = VOP_GETATTR(vp, &va, cred, procp);
va                151 nfs/nfs_serv.c 	nfsm_srvpostop_attr(getret, &va);
va                172 nfs/nfs_serv.c 	struct vattr va;
va                192 nfs/nfs_serv.c 	error = VOP_GETATTR(vp, &va, cred, procp);
va                198 nfs/nfs_serv.c 	nfsm_srvfillattr(&va, fp);
va                216 nfs/nfs_serv.c 	struct vattr va, preat;
va                234 nfs/nfs_serv.c 	VATTR_NULL(&va);
va                236 nfs/nfs_serv.c 		va.va_vaflags |= VA_UTIMES_NULL;
va                237 nfs/nfs_serv.c 		nfsm_srvsattr(&va);
va                254 nfs/nfs_serv.c 			va.va_mode = nfstov_mode(sp->sa_mode);
va                256 nfs/nfs_serv.c 			va.va_uid = fxdr_unsigned(uid_t, sp->sa_uid);
va                258 nfs/nfs_serv.c 			va.va_gid = fxdr_unsigned(gid_t, sp->sa_gid);
va                260 nfs/nfs_serv.c 			va.va_size = fxdr_unsigned(u_quad_t, sp->sa_size);
va                263 nfs/nfs_serv.c 			fxdr_nfsv2time(&sp->sa_atime, &va.va_atime);
va                265 nfs/nfs_serv.c 			va.va_atime.tv_sec =
va                267 nfs/nfs_serv.c 			va.va_atime.tv_nsec = 0;
va                271 nfs/nfs_serv.c 			fxdr_nfsv2time(&sp->sa_mtime, &va.va_mtime);
va                282 nfs/nfs_serv.c 		nfsm_srvwcc_data(preat_ret, &preat, postat_ret, &va);
va                294 nfs/nfs_serv.c 			nfsm_srvwcc_data(preat_ret, &preat, postat_ret, &va);
va                303 nfs/nfs_serv.c 	if (va.va_size == ((u_quad_t)((quad_t) -1))) {
va                316 nfs/nfs_serv.c 	error = VOP_SETATTR(vp, &va, cred, procp);
va                317 nfs/nfs_serv.c 	postat_ret = VOP_GETATTR(vp, &va, cred, procp);
va                324 nfs/nfs_serv.c 		nfsm_srvwcc_data(preat_ret, &preat, postat_ret, &va);
va                328 nfs/nfs_serv.c 		nfsm_srvfillattr(&va, fp);
va                360 nfs/nfs_serv.c 	struct vattr va, dirattr;
va                389 nfs/nfs_serv.c 		error = VOP_GETATTR(vp, &va, cred, procp);
va                398 nfs/nfs_serv.c 		nfsm_srvpostop_attr(0, &va);
va                402 nfs/nfs_serv.c 		nfsm_srvfillattr(&va, fp);
va                538 nfs/nfs_serv.c 	struct vattr va;
va                569 nfs/nfs_serv.c 	getret = VOP_GETATTR(vp, &va, cred, procp);
va                575 nfs/nfs_serv.c 		nfsm_srvpostop_attr(getret, &va);
va                578 nfs/nfs_serv.c 	if (off >= va.va_size)
va                580 nfs/nfs_serv.c 	else if ((off + reqlen) > va.va_size)
va                581 nfs/nfs_serv.c 		cnt = va.va_size - off;
va                644 nfs/nfs_serv.c 		if (error || (getret = VOP_GETATTR(vp, &va, cred, procp)) != 0){
va                650 nfs/nfs_serv.c 			nfsm_srvpostop_attr(getret, &va);
va                656 nfs/nfs_serv.c 	nfsm_srvfillattr(&va, fp);
va                692 nfs/nfs_serv.c 	struct vattr va, forat;
va                761 nfs/nfs_serv.c 		nfsm_srvwcc_data(forat_ret, &forat, aftat_ret, &va);
va                768 nfs/nfs_serv.c 		nfsm_srvwcc_data(forat_ret, &forat, aftat_ret, &va);
va                785 nfs/nfs_serv.c 		nfsm_srvwcc_data(forat_ret, &forat, aftat_ret, &va);
va                826 nfs/nfs_serv.c 	aftat_ret = VOP_GETATTR(vp, &va, cred, procp);
va                833 nfs/nfs_serv.c 		nfsm_srvwcc_data(forat_ret, &forat, aftat_ret, &va);
va                851 nfs/nfs_serv.c 		nfsm_srvfillattr(&va, fp);
va                878 nfs/nfs_serv.c 	struct vattr va, forat;
va                957 nfs/nfs_serv.c 		    nfsm_srvwcc_data(forat_ret, &forat, aftat_ret, &va);
va               1090 nfs/nfs_serv.c 		    aftat_ret = VOP_GETATTR(vp, &va, cred, procp);
va               1103 nfs/nfs_serv.c 			    nfsm_srvwcc_data(forat_ret, &forat, aftat_ret, &va);
va               1110 nfs/nfs_serv.c 			    nfsm_srvwcc_data(forat_ret, &forat, aftat_ret, &va);
va               1123 nfs/nfs_serv.c 			    nfsm_srvfillattr(&va, fp);
va               1239 nfs/nfs_serv.c 	struct vattr va, dirfor, diraft;
va               1282 nfs/nfs_serv.c 	VATTR_NULL(&va);
va               1293 nfs/nfs_serv.c 			nfsm_srvsattr(&va);
va               1300 nfs/nfs_serv.c 				va.va_mode = 0;
va               1303 nfs/nfs_serv.c 		va.va_type = VREG;
va               1306 nfs/nfs_serv.c 		va.va_type = IFTOVT(fxdr_unsigned(u_int32_t, sp->sa_mode));
va               1307 nfs/nfs_serv.c 		if (va.va_type == VNON)
va               1308 nfs/nfs_serv.c 			va.va_type = VREG;
va               1309 nfs/nfs_serv.c 		va.va_mode = nfstov_mode(sp->sa_mode);
va               1310 nfs/nfs_serv.c 		switch (va.va_type) {
va               1314 nfs/nfs_serv.c 				va.va_size = (u_quad_t)tsize;
va               1332 nfs/nfs_serv.c 		if (va.va_type == VREG || va.va_type == VSOCK) {
va               1334 nfs/nfs_serv.c 			error = VOP_CREATE(nd.ni_dvp, &nd.ni_vp, &nd.ni_cnd, &va);
va               1339 nfs/nfs_serv.c 					VATTR_NULL(&va);
va               1340 nfs/nfs_serv.c 					bcopy(cverf, (caddr_t)&va.va_atime,
va               1342 nfs/nfs_serv.c 					error = VOP_SETATTR(nd.ni_vp, &va, cred,
va               1346 nfs/nfs_serv.c 		} else if (va.va_type == VCHR || va.va_type == VBLK ||
va               1347 nfs/nfs_serv.c 			va.va_type == VFIFO) {
va               1348 nfs/nfs_serv.c 			if (va.va_type == VCHR && rdev == 0xffffffff)
va               1349 nfs/nfs_serv.c 				va.va_type = VFIFO;
va               1350 nfs/nfs_serv.c 			if (va.va_type != VFIFO &&
va               1359 nfs/nfs_serv.c 				va.va_rdev = (dev_t)rdev;
va               1361 nfs/nfs_serv.c 			    &va);
va               1404 nfs/nfs_serv.c 		if (va.va_size != -1) {
va               1408 nfs/nfs_serv.c 				tempsize = va.va_size;
va               1409 nfs/nfs_serv.c 				VATTR_NULL(&va);
va               1410 nfs/nfs_serv.c 				va.va_size = tempsize;
va               1411 nfs/nfs_serv.c 				error = VOP_SETATTR(vp, &va, cred,
va               1423 nfs/nfs_serv.c 			error = VOP_GETATTR(vp, &va, cred, procp);
va               1428 nfs/nfs_serv.c 			bcmp(cverf, (caddr_t)&va.va_atime, NFSX_V3CREATEVERF))
va               1437 nfs/nfs_serv.c 			nfsm_srvpostop_attr(0, &va);
va               1443 nfs/nfs_serv.c 		nfsm_srvfillattr(&va, fp);
va               1477 nfs/nfs_serv.c 	struct vattr va, dirfor, diraft;
va               1520 nfs/nfs_serv.c 	VATTR_NULL(&va);
va               1521 nfs/nfs_serv.c 	nfsm_srvsattr(&va);
va               1526 nfs/nfs_serv.c 		va.va_rdev = makedev(major, minor);
va               1540 nfs/nfs_serv.c 	va.va_type = vtyp;
va               1543 nfs/nfs_serv.c 		error = VOP_CREATE(nd.ni_dvp, &nd.ni_vp, &nd.ni_cnd, &va);
va               1547 nfs/nfs_serv.c 		if (va.va_type != VFIFO &&
va               1555 nfs/nfs_serv.c 		error = VOP_MKNOD(nd.ni_dvp, &nd.ni_vp, &nd.ni_cnd, &va);
va               1582 nfs/nfs_serv.c 			error = VOP_GETATTR(vp, &va, cred, procp);
va               1590 nfs/nfs_serv.c 		nfsm_srvpostop_attr(0, &va);
va               1985 nfs/nfs_serv.c 	struct vattr va, dirfor, diraft;
va               2021 nfs/nfs_serv.c 	VATTR_NULL(&va);
va               2023 nfs/nfs_serv.c 		nfsm_srvsattr(&va);
va               2038 nfs/nfs_serv.c 		va.va_mode = fxdr_unsigned(u_int16_t, sp->sa_mode);
va               2053 nfs/nfs_serv.c 	error = VOP_SYMLINK(nd.ni_dvp, &nd.ni_vp, &nd.ni_cnd, &va, pathcp);
va               2069 nfs/nfs_serv.c 				error = VOP_GETATTR(nd.ni_vp, &va, cred,
va               2088 nfs/nfs_serv.c 			nfsm_srvpostop_attr(0, &va);
va               2126 nfs/nfs_serv.c 	struct vattr va, dirfor, diraft;
va               2166 nfs/nfs_serv.c 	VATTR_NULL(&va);
va               2168 nfs/nfs_serv.c 		nfsm_srvsattr(&va);
va               2171 nfs/nfs_serv.c 		va.va_mode = nfstov_mode(*tl++);
va               2173 nfs/nfs_serv.c 	va.va_type = VDIR;
va               2185 nfs/nfs_serv.c 	error = VOP_MKDIR(nd.ni_dvp, &nd.ni_vp, &nd.ni_cnd, &va);
va               2192 nfs/nfs_serv.c 			error = VOP_GETATTR(vp, &va, cred, procp);
va               2204 nfs/nfs_serv.c 			nfsm_srvpostop_attr(0, &va);
va               2210 nfs/nfs_serv.c 		nfsm_srvfillattr(&va, fp);
va               2644 nfs/nfs_serv.c 	struct vattr va, at, *vap = &va;
va               2985 nfs/nfs_vnops.c 	struct vattr va;
va               3005 nfs/nfs_vnops.c 	error = VOP_GETATTR(vp, &va, ap->a_cred, ap->a_p);
va               3009 nfs/nfs_vnops.c 	return (vaccess(va.va_mode, va.va_uid, va.va_gid, ap->a_mode,
va               1645 scsi/cd.c      cddump(dev_t dev, daddr64_t blkno, caddr_t va, size_t size)
va               1175 scsi/sd.c      sddump(dev_t dev, daddr64_t blkno, caddr_t va, size_t size)
va               1260 scsi/sd.c      		xs->data = va;
va               1271 scsi/sd.c      		printf("sd%d: dump addr 0x%x, blk %d\n", unit, va, blkno);
va               1278 scsi/sd.c      		va += sectorsize * nwrt;
va               2036 scsi/st.c      stdump(dev, blkno, va, size)
va               2039 scsi/st.c      	caddr_t va;
va                 93 sys/conf.h     	int	(*d_dump)(dev_t dev, daddr64_t blkno, caddr_t va,
va               1776 uvm/uvm_fault.c 	vaddr_t va;
va               1788 uvm/uvm_fault.c 	for (va = start ; va < end ; va += PAGE_SIZE) {
va               1789 uvm/uvm_fault.c 		rv = uvm_fault(map, va, VM_FAULT_WIRE, access_type);
va               1791 uvm/uvm_fault.c 			if (va != start) {
va               1792 uvm/uvm_fault.c 				uvm_fault_unwire(map, start, va);
va               1829 uvm/uvm_fault.c 	vaddr_t va;
va               1851 uvm/uvm_fault.c 	for (va = start; va < end ; va += PAGE_SIZE) {
va               1852 uvm/uvm_fault.c 		if (pmap_extract(pmap, va, &pa) == FALSE)
va               1858 uvm/uvm_fault.c 		KASSERT(va >= entry->start);
va               1859 uvm/uvm_fault.c 		while (va >= entry->end) {
va               1869 uvm/uvm_fault.c 			pmap_unwire(pmap, va);
va                312 uvm/uvm_km.c   	vaddr_t va;
va                315 uvm/uvm_km.c   	for (va = start; va < end; va += PAGE_SIZE) {
va                316 uvm/uvm_km.c   		if (!pmap_extract(pmap_kernel(), va, &pa))
va                680 uvm/uvm_km.c   	vaddr_t va;
va                691 uvm/uvm_km.c   	va = pmap_map_direct(pg);
va                692 uvm/uvm_km.c   	if (__predict_false(va == 0))
va                694 uvm/uvm_km.c   	return (va);
va                696 uvm/uvm_km.c   	vaddr_t va;
va                710 uvm/uvm_km.c   	va = uvm_km_kmemalloc(map, obj, PAGE_SIZE, waitok ? 0 : UVM_KMF_NOWAIT);
va                712 uvm/uvm_km.c   	return (va);
va                408 uvm/uvm_loan.c uvm_loanuobj(ufi, output, flags, va)
va                412 uvm/uvm_loan.c 	vaddr_t va;
va                430 uvm/uvm_loan.c 		result = uobj->pgops->pgo_get(uobj, va - ufi->entry->start,
va                455 uvm/uvm_loan.c 		result = uobj->pgops->pgo_get(uobj, va - ufi->entry->start,
va                394 uvm/uvm_mmap.c 	struct vattr va;
va                554 uvm/uvm_mmap.c 				    VOP_GETATTR(vp, &va, p->p_ucred, p)))
va                556 uvm/uvm_mmap.c 				if ((va.va_flags & (IMMUTABLE|APPEND)) == 0)
va                904 uvm/uvm_swap.c 	struct vattr va;
va                954 uvm/uvm_swap.c 		if ((error = VOP_GETATTR(vp, &va, p->p_ucred, p)))
va                956 uvm/uvm_swap.c 		nblocks = (int)btodb(va.va_size);
va                280 xfs/xfs_node-bsd.c vattr2xfs_attr(const struct vattr *va, struct xfs_attr *xa)
va                283 xfs/xfs_node-bsd.c     if (va->va_mode != (mode_t)VNOVAL)
va                284 xfs/xfs_node-bsd.c 	XA_SET_MODE(xa, va->va_mode);
va                285 xfs/xfs_node-bsd.c     if (va->va_nlink != VNOVAL)
va                286 xfs/xfs_node-bsd.c 	XA_SET_NLINK(xa, va->va_nlink);
va                287 xfs/xfs_node-bsd.c     if (va->va_size != VNOVAL)
va                288 xfs/xfs_node-bsd.c 	XA_SET_SIZE(xa, va->va_size);
va                289 xfs/xfs_node-bsd.c     if (va->va_uid != VNOVAL)
va                290 xfs/xfs_node-bsd.c 	XA_SET_UID(xa, va->va_uid);
va                291 xfs/xfs_node-bsd.c     if (va->va_gid != VNOVAL)
va                292 xfs/xfs_node-bsd.c 	XA_SET_GID(xa, va->va_gid);
va                293 xfs/xfs_node-bsd.c     if (va->va_atime.tv_sec != VNOVAL)
va                294 xfs/xfs_node-bsd.c 	XA_SET_ATIME(xa, va->va_atime.tv_sec);
va                295 xfs/xfs_node-bsd.c     if (va->va_mtime.tv_sec != VNOVAL)
va                296 xfs/xfs_node-bsd.c 	XA_SET_MTIME(xa, va->va_mtime.tv_sec);
va                297 xfs/xfs_node-bsd.c     if (va->va_ctime.tv_sec != VNOVAL)
va                298 xfs/xfs_node-bsd.c 	XA_SET_CTIME(xa, va->va_ctime.tv_sec);
va                299 xfs/xfs_node-bsd.c     if (va->va_fileid != VNOVAL)
va                300 xfs/xfs_node-bsd.c 	XA_SET_FILEID(xa, va->va_fileid);
va                301 xfs/xfs_node-bsd.c     switch (va->va_type) {
va                337 xfs/xfs_node-bsd.c xfs_attr2vattr(const struct xfs_attr *xa, struct vattr *va, int clear_node)
va                340 xfs/xfs_node-bsd.c 	VATTR_NULL(va);
va                342 xfs/xfs_node-bsd.c 	va->va_mode = xa->xa_mode;
va                344 xfs/xfs_node-bsd.c 	va->va_nlink = xa->xa_nlink;
va                346 xfs/xfs_node-bsd.c 	va->va_size = xa->xa_size;
va                347 xfs/xfs_node-bsd.c 	va->va_bytes = va->va_size;
va                350 xfs/xfs_node-bsd.c 	va->va_uid = xa->xa_uid;
va                352 xfs/xfs_node-bsd.c 	va->va_gid = xa->xa_gid;
va                354 xfs/xfs_node-bsd.c 	SET_TIMEVAL(&va->va_atime, xa->xa_atime, 0);
va                357 xfs/xfs_node-bsd.c 	SET_TIMEVAL(&va->va_mtime, xa->xa_mtime, 0);
va                360 xfs/xfs_node-bsd.c 	SET_TIMEVAL(&va->va_ctime, xa->xa_ctime, 0);
va                363 xfs/xfs_node-bsd.c 	va->va_fileid = xa->xa_fileid;
va                368 xfs/xfs_node-bsd.c 	    va->va_type = VNON;
va                371 xfs/xfs_node-bsd.c 	    va->va_type = VREG;
va                374 xfs/xfs_node-bsd.c 	    va->va_type = VDIR;
va                377 xfs/xfs_node-bsd.c 	    va->va_type = VBLK;
va                380 xfs/xfs_node-bsd.c 	    va->va_type = VCHR;
va                383 xfs/xfs_node-bsd.c 	    va->va_type = VLNK;
va                386 xfs/xfs_node-bsd.c 	    va->va_type = VSOCK;
va                389 xfs/xfs_node-bsd.c 	    va->va_type = VFIFO;
va                392 xfs/xfs_node-bsd.c 	    va->va_type = VBAD;
va                398 xfs/xfs_node-bsd.c     va->va_flags = 0;
va                399 xfs/xfs_node-bsd.c     va->va_blocksize = 8192;