md_va 90 kern/kern_malloc_debug.c vaddr_t md_va; md_va 142 kern/kern_malloc_debug.c pmap_kenter_pa(md->md_va, md->md_pa, VM_PROT_READ|VM_PROT_WRITE); md_va 152 kern/kern_malloc_debug.c *addr = (void *)(md->md_va + PAGE_SIZE - roundup(size, sizeof(long))); md_va 174 kern/kern_malloc_debug.c if (md->md_va == va) md_va 186 kern/kern_malloc_debug.c if (md->md_va == va) md_va 200 kern/kern_malloc_debug.c pmap_kremove(md->md_va, PAGE_SIZE); md_va 269 kern/kern_malloc_debug.c md->md_va = va; md_va 291 kern/kern_malloc_debug.c if (va >= md->md_va && md_va 292 kern/kern_malloc_debug.c va < md->md_va + 2 * PAGE_SIZE) md_va 296 kern/kern_malloc_debug.c if (va >= md->md_va + PAGE_SIZE && md_va 297 kern/kern_malloc_debug.c va < md->md_va + 2 * PAGE_SIZE) md_va 309 kern/kern_malloc_debug.c if (addr >= md->md_va && md_va 310 kern/kern_malloc_debug.c addr < md->md_va + 2 * PAGE_SIZE) { md_va 318 kern/kern_malloc_debug.c if (addr >= md->md_va + PAGE_SIZE && md_va 319 kern/kern_malloc_debug.c addr < md->md_va + 2 * PAGE_SIZE) { md_va 338 kern/kern_malloc_debug.c (*pr)("\t0x%x\t0x%x\t%d\n", md->md_va, md->md_size, md_va 342 kern/kern_malloc_debug.c (*pr)("\t0x%x\t0x%x\t%d\n", md->md_va, md->md_size,