md_va              90 kern/kern_malloc_debug.c 	vaddr_t md_va;
md_va             142 kern/kern_malloc_debug.c 	pmap_kenter_pa(md->md_va, md->md_pa, VM_PROT_READ|VM_PROT_WRITE);
md_va             152 kern/kern_malloc_debug.c 	*addr = (void *)(md->md_va + PAGE_SIZE - roundup(size, sizeof(long)));
md_va             174 kern/kern_malloc_debug.c 		if (md->md_va == va)
md_va             186 kern/kern_malloc_debug.c 			if (md->md_va == va)
md_va             200 kern/kern_malloc_debug.c 	pmap_kremove(md->md_va, PAGE_SIZE);
md_va             269 kern/kern_malloc_debug.c 	md->md_va = va;
md_va             291 kern/kern_malloc_debug.c 		if (va >= md->md_va &&
md_va             292 kern/kern_malloc_debug.c 		    va < md->md_va + 2 * PAGE_SIZE)
md_va             296 kern/kern_malloc_debug.c 		if (va >= md->md_va + PAGE_SIZE &&
md_va             297 kern/kern_malloc_debug.c 		    va < md->md_va + 2 * PAGE_SIZE)
md_va             309 kern/kern_malloc_debug.c 			if (addr >= md->md_va &&
md_va             310 kern/kern_malloc_debug.c 			    addr < md->md_va + 2 * PAGE_SIZE) {
md_va             318 kern/kern_malloc_debug.c 			if (addr >= md->md_va + PAGE_SIZE &&
md_va             319 kern/kern_malloc_debug.c 			    addr < md->md_va + 2 * PAGE_SIZE) {
md_va             338 kern/kern_malloc_debug.c 		(*pr)("\t0x%x\t0x%x\t%d\n", md->md_va, md->md_size,
md_va             342 kern/kern_malloc_debug.c 		(*pr)("\t0x%x\t0x%x\t%d\n", md->md_va, md->md_size,