Revert "rename amd64 architecture to x86_64"
[dragonfly.git] / lib / libkvm / kvm_amd64.c
1 /*-
2  * Copyright (c) 1989, 1992, 1993
3  *      The Regents of the University of California.  All rights reserved.
4  *
5  * This code is derived from software developed by the Computer Systems
6  * Engineering group at Lawrence Berkeley Laboratory under DARPA contract
7  * BG 91-66 and contributed to Berkeley.
8  *
9  * Redistribution and use in source and binary forms, with or without
10  * modification, are permitted provided that the following conditions
11  * are met:
12  * 1. Redistributions of source code must retain the above copyright
13  *    notice, this list of conditions and the following disclaimer.
14  * 2. Redistributions in binary form must reproduce the above copyright
15  *    notice, this list of conditions and the following disclaimer in the
16  *    documentation and/or other materials provided with the distribution.
17  * 3. All advertising materials mentioning features or use of this software
18  *    must display the following acknowledgement:
19  *      This product includes software developed by the University of
20  *      California, Berkeley and its contributors.
21  * 4. Neither the name of the University nor the names of its contributors
22  *    may be used to endorse or promote products derived from this software
23  *    without specific prior written permission.
24  *
25  * THIS SOFTWARE IS PROVIDED BY THE REGENTS AND CONTRIBUTORS ``AS IS'' AND
26  * ANY EXPRESS OR IMPLIED WARRANTIES, INCLUDING, BUT NOT LIMITED TO, THE
27  * IMPLIED WARRANTIES OF MERCHANTABILITY AND FITNESS FOR A PARTICULAR PURPOSE
28  * ARE DISCLAIMED.  IN NO EVENT SHALL THE REGENTS OR CONTRIBUTORS BE LIABLE
29  * FOR ANY DIRECT, INDIRECT, INCIDENTAL, SPECIAL, EXEMPLARY, OR CONSEQUENTIAL
30  * DAMAGES (INCLUDING, BUT NOT LIMITED TO, PROCUREMENT OF SUBSTITUTE GOODS
31  * OR SERVICES; LOSS OF USE, DATA, OR PROFITS; OR BUSINESS INTERRUPTION)
32  * HOWEVER CAUSED AND ON ANY THEORY OF LIABILITY, WHETHER IN CONTRACT, STRICT
33  * LIABILITY, OR TORT (INCLUDING NEGLIGENCE OR OTHERWISE) ARISING IN ANY WAY
34  * OUT OF THE USE OF THIS SOFTWARE, EVEN IF ADVISED OF THE POSSIBILITY OF
35  * SUCH DAMAGE.
36  *
37  * @(#)kvm_hp300.c      8.1 (Berkeley) 6/4/93
38  * $FreeBSD: src/lib/libkvm/kvm_amd64.c,v 1.16 2003/04/30 21:05:33 peter Exp $
39  * $DragonFly: src/lib/libkvm/kvm_amd64.c,v 1.2 2007/04/29 01:36:04 dillon Exp $
40  */
41
42 /*
43  * AMD64 machine dependent routines for kvm.  Hopefully, the forthcoming
44  * vm code will one day obsolete this module.
45  */
46
47 #include <sys/user.h>   /* MUST BE FIRST */
48 #include <sys/param.h>
49 #include <sys/proc.h>
50 #include <sys/stat.h>
51 #include <stdlib.h>
52 #include <unistd.h>
53 #include <nlist.h>
54 #include <kvm.h>
55
56 #include <vm/vm.h>
57 #include <vm/vm_param.h>
58
59 #include <limits.h>
60
61 #include "kvm_private.h"
62
63 #ifndef btop
64 #define btop(x)         (amd64_btop(x))
65 #define ptob(x)         (amd64_ptob(x))
66 #endif
67
68 struct vmstate {
69         pml4_entry_t    *PML4;
70 };
71
72 void
73 _kvm_freevtop(kvm_t *kd)
74 {
75         if (kd->vmst != 0) {
76                 if (kd->vmst->PML4) {
77                         free(kd->vmst->PML4);
78                 }
79                 free(kd->vmst);
80         }
81 }
82
83 int
84 _kvm_initvtop(kvm_t *kd)
85 {
86         struct vmstate *vm;
87         struct nlist nlist[2];
88         u_long pa;
89         u_long kernbase;
90         pml4_entry_t    *PML4;
91
92         vm = (struct vmstate *)_kvm_malloc(kd, sizeof(*vm));
93         if (vm == 0) {
94                 _kvm_err(kd, kd->program, "cannot allocate vm");
95                 return (-1);
96         }
97         kd->vmst = vm;
98         vm->PML4 = 0;
99
100         nlist[0].n_name = "kernbase";
101         nlist[1].n_name = 0;
102
103         if (kvm_nlist(kd, nlist) != 0) {
104                 _kvm_err(kd, kd->program, "bad namelist - no kernbase");
105                 return (-1);
106         }
107         kernbase = nlist[0].n_value;
108
109         nlist[0].n_name = "KPML4phys";
110         nlist[1].n_name = 0;
111
112         if (kvm_nlist(kd, nlist) != 0) {
113                 _kvm_err(kd, kd->program, "bad namelist - no KPML4phys");
114                 return (-1);
115         }
116         if (kvm_read(kd, (nlist[0].n_value - kernbase), &pa, sizeof(pa)) !=
117             sizeof(pa)) {
118                 _kvm_err(kd, kd->program, "cannot read KPML4phys");
119                 return (-1);
120         }
121         PML4 = _kvm_malloc(kd, PAGE_SIZE);
122         if (kvm_read(kd, pa, PML4, PAGE_SIZE) != PAGE_SIZE) {
123                 _kvm_err(kd, kd->program, "cannot read KPML4phys");
124                 return (-1);
125         }
126         vm->PML4 = PML4;
127         return (0);
128 }
129
130 static int
131 _kvm_vatop(kvm_t *kd, u_long va, u_long *pa)
132 {
133         struct vmstate *vm;
134         u_long offset;
135         u_long pdpe_pa;
136         u_long pde_pa;
137         u_long pte_pa;
138         pml4_entry_t pml4e;
139         pdp_entry_t pdpe;
140         pd_entry_t pde;
141         pt_entry_t pte;
142         u_long pml4eindex;
143         u_long pdpeindex;
144         u_long pdeindex;
145         u_long pteindex;
146
147         if (kvm_ishost(kd)) {
148                 _kvm_err(kd, 0, "kvm_vatop called in live kernel!");
149                 return((off_t)0);
150         }
151
152         vm = kd->vmst;
153         offset = va & (PAGE_SIZE - 1);
154
155         /*
156          * If we are initializing (kernel page table descriptor pointer
157          * not yet set) then return pa == va to avoid infinite recursion.
158          */
159         if (vm->PML4 == 0) {
160                 *pa = va;
161                 return (PAGE_SIZE - offset);
162         }
163
164         pml4eindex = (va >> PML4SHIFT) & (NPML4EPG - 1);
165         pml4e = vm->PML4[pml4eindex];
166         if (((u_long)pml4e & PG_V) == 0)
167                 goto invalid;
168
169         pdpeindex = (va >> PDPSHIFT) & (NPDPEPG-1);
170         pdpe_pa = ((u_long)pml4e & PG_FRAME) + (pdpeindex * sizeof(pdp_entry_t));
171
172         /* XXX This has to be a physical address read, kvm_read is virtual */
173         if (lseek(kd->pmfd, pdpe_pa, 0) == -1) {
174                 _kvm_syserr(kd, kd->program, "_kvm_vatop: lseek pdpe_pa");
175                 goto invalid;
176         }
177         if (read(kd->pmfd, &pdpe, sizeof pdpe) != sizeof pdpe) {
178                 _kvm_syserr(kd, kd->program, "_kvm_vatop: read pdpe");
179                 goto invalid;
180         }
181         if (((u_long)pdpe & PG_V) == 0)
182                 goto invalid;
183
184
185         pdeindex = (va >> PDRSHIFT) & (NPDEPG-1);
186         pde_pa = ((u_long)pdpe & PG_FRAME) + (pdeindex * sizeof(pd_entry_t));
187
188         /* XXX This has to be a physical address read, kvm_read is virtual */
189         if (lseek(kd->pmfd, pde_pa, 0) == -1) {
190                 _kvm_syserr(kd, kd->program, "_kvm_vatop: lseek pde_pa");
191                 goto invalid;
192         }
193         if (read(kd->pmfd, &pde, sizeof pde) != sizeof pde) {
194                 _kvm_syserr(kd, kd->program, "_kvm_vatop: read pde");
195                 goto invalid;
196         }
197         if (((u_long)pde & PG_V) == 0)
198                 goto invalid;
199
200         if ((u_long)pde & PG_PS) {
201               /*
202                * No final-level page table; ptd describes one 2MB page.
203                */
204 #define PAGE2M_MASK     (NBPDR - 1)
205 #define PG_FRAME2M      (~PAGE2M_MASK)
206                 *pa = ((u_long)pde & PG_FRAME2M) + (va & PAGE2M_MASK);
207                 return (NBPDR - (va & PAGE2M_MASK));
208         }
209
210         pteindex = (va >> PAGE_SHIFT) & (NPTEPG-1);
211         pte_pa = ((u_long)pde & PG_FRAME) + (pteindex * sizeof(pt_entry_t));
212
213         /* XXX This has to be a physical address read, kvm_read is virtual */
214         if (lseek(kd->pmfd, pte_pa, 0) == -1) {
215                 _kvm_syserr(kd, kd->program, "_kvm_vatop: lseek");
216                 goto invalid;
217         }
218         if (read(kd->pmfd, &pte, sizeof pte) != sizeof pte) {
219                 _kvm_syserr(kd, kd->program, "_kvm_vatop: read");
220                 goto invalid;
221         }
222         if (((u_long)pte & PG_V) == 0)
223                 goto invalid;
224
225         *pa = ((u_long)pte & PG_FRAME) + offset;
226         return (PAGE_SIZE - offset);
227
228 invalid:
229         _kvm_err(kd, 0, "invalid address (%jx)", (intmax_t)va);
230         return (0);
231 }
232
233 int
234 _kvm_kvatop(kvm_t *kd, u_long va, u_long *pa)
235 {
236         return (_kvm_vatop(kd, va, pa));
237 }