Merge branch 'apic_io'
[dragonfly.git] / sys / platform / pc64 / x86_64 / mp_machdep.c
1 /*
2  * Copyright (c) 1996, by Steve Passe
3  * All rights reserved.
4  *
5  * Redistribution and use in source and binary forms, with or without
6  * modification, are permitted provided that the following conditions
7  * are met:
8  * 1. Redistributions of source code must retain the above copyright
9  *    notice, this list of conditions and the following disclaimer.
10  * 2. The name of the developer may NOT be used to endorse or promote products
11  *    derived from this software without specific prior written permission.
12  *
13  * THIS SOFTWARE IS PROVIDED BY THE AUTHOR AND CONTRIBUTORS ``AS IS'' AND
14  * ANY EXPRESS OR IMPLIED WARRANTIES, INCLUDING, BUT NOT LIMITED TO, THE
15  * IMPLIED WARRANTIES OF MERCHANTABILITY AND FITNESS FOR A PARTICULAR PURPOSE
16  * ARE DISCLAIMED.  IN NO EVENT SHALL THE AUTHOR OR CONTRIBUTORS BE LIABLE
17  * FOR ANY DIRECT, INDIRECT, INCIDENTAL, SPECIAL, EXEMPLARY, OR CONSEQUENTIAL
18  * DAMAGES (INCLUDING, BUT NOT LIMITED TO, PROCUREMENT OF SUBSTITUTE GOODS
19  * OR SERVICES; LOSS OF USE, DATA, OR PROFITS; OR BUSINESS INTERRUPTION)
20  * HOWEVER CAUSED AND ON ANY THEORY OF LIABILITY, WHETHER IN CONTRACT, STRICT
21  * LIABILITY, OR TORT (INCLUDING NEGLIGENCE OR OTHERWISE) ARISING IN ANY WAY
22  * OUT OF THE USE OF THIS SOFTWARE, EVEN IF ADVISED OF THE POSSIBILITY OF
23  * SUCH DAMAGE.
24  *
25  * $FreeBSD: src/sys/i386/i386/mp_machdep.c,v 1.115.2.15 2003/03/14 21:22:35 jhb Exp $
26  * $DragonFly: src/sys/platform/pc32/i386/mp_machdep.c,v 1.60 2008/06/07 12:03:52 mneumann Exp $
27  */
28
29 #include "opt_cpu.h"
30
31 #include <sys/param.h>
32 #include <sys/systm.h>
33 #include <sys/kernel.h>
34 #include <sys/sysctl.h>
35 #include <sys/malloc.h>
36 #include <sys/memrange.h>
37 #include <sys/cons.h>   /* cngetc() */
38 #include <sys/machintr.h>
39
40 #include <sys/mplock2.h>
41
42 #include <vm/vm.h>
43 #include <vm/vm_param.h>
44 #include <vm/pmap.h>
45 #include <vm/vm_kern.h>
46 #include <vm/vm_extern.h>
47 #include <sys/lock.h>
48 #include <vm/vm_map.h>
49 #include <sys/user.h>
50 #ifdef GPROF 
51 #include <sys/gmon.h>
52 #endif
53
54 #include <machine/smp.h>
55 #include <machine_base/apic/apicreg.h>
56 #include <machine/atomic.h>
57 #include <machine/cpufunc.h>
58 #include <machine_base/apic/mpapic.h>
59 #include <machine/psl.h>
60 #include <machine/segments.h>
61 #include <machine/tss.h>
62 #include <machine/specialreg.h>
63 #include <machine/globaldata.h>
64 #include <machine/pmap_inval.h>
65
66 #include <machine/md_var.h>             /* setidt() */
67 #include <machine_base/icu/icu.h>               /* IPIs */
68 #include <machine_base/isa/intr_machdep.h>      /* IPIs */
69
70 #define FIXUP_EXTRA_APIC_INTS   8       /* additional entries we may create */
71
72 #define WARMBOOT_TARGET         0
73 #define WARMBOOT_OFF            (KERNBASE + 0x0467)
74 #define WARMBOOT_SEG            (KERNBASE + 0x0469)
75
76 #define BIOS_BASE               (0xf0000)
77 #define BIOS_BASE2              (0xe0000)
78 #define BIOS_SIZE               (0x10000)
79 #define BIOS_COUNT              (BIOS_SIZE/4)
80
81 #define CMOS_REG                (0x70)
82 #define CMOS_DATA               (0x71)
83 #define BIOS_RESET              (0x0f)
84 #define BIOS_WARM               (0x0a)
85
86 #define PROCENTRY_FLAG_EN       0x01
87 #define PROCENTRY_FLAG_BP       0x02
88 #define IOAPICENTRY_FLAG_EN     0x01
89
90
91 /* MP Floating Pointer Structure */
92 typedef struct MPFPS {
93         char    signature[4];
94         u_int32_t pap;
95         u_char  length;
96         u_char  spec_rev;
97         u_char  checksum;
98         u_char  mpfb1;
99         u_char  mpfb2;
100         u_char  mpfb3;
101         u_char  mpfb4;
102         u_char  mpfb5;
103 }      *mpfps_t;
104
105 /* MP Configuration Table Header */
106 typedef struct MPCTH {
107         char    signature[4];
108         u_short base_table_length;
109         u_char  spec_rev;
110         u_char  checksum;
111         u_char  oem_id[8];
112         u_char  product_id[12];
113         u_int32_t oem_table_pointer;
114         u_short oem_table_size;
115         u_short entry_count;
116         u_int32_t apic_address;
117         u_short extended_table_length;
118         u_char  extended_table_checksum;
119         u_char  reserved;
120 }      *mpcth_t;
121
122
123 typedef struct PROCENTRY {
124         u_char  type;
125         u_char  apic_id;
126         u_char  apic_version;
127         u_char  cpu_flags;
128         u_int32_t cpu_signature;
129         u_int32_t feature_flags;
130         u_int32_t reserved1;
131         u_int32_t reserved2;
132 }      *proc_entry_ptr;
133
134 typedef struct BUSENTRY {
135         u_char  type;
136         u_char  bus_id;
137         char    bus_type[6];
138 }      *bus_entry_ptr;
139
140 typedef struct IOAPICENTRY {
141         u_char  type;
142         u_char  apic_id;
143         u_char  apic_version;
144         u_char  apic_flags;
145         u_int32_t apic_address;
146 }      *io_apic_entry_ptr;
147
148 typedef struct INTENTRY {
149         u_char  type;
150         u_char  int_type;
151         u_short int_flags;
152         u_char  src_bus_id;
153         u_char  src_bus_irq;
154         u_char  dst_apic_id;
155         u_char  dst_apic_int;
156 }      *int_entry_ptr;
157
158 /* descriptions of MP basetable entries */
159 typedef struct BASETABLE_ENTRY {
160         u_char  type;
161         u_char  length;
162         char    name[16];
163 }       basetable_entry;
164
165 struct mptable_pos {
166         mpfps_t         mp_fps;
167         mpcth_t         mp_cth;
168         vm_size_t       mp_cth_mapsz;   
169 };
170
171 typedef int     (*mptable_iter_func)(void *, const void *, int);
172
173 /*
174  * this code MUST be enabled here and in mpboot.s.
175  * it follows the very early stages of AP boot by placing values in CMOS ram.
176  * it NORMALLY will never be needed and thus the primitive method for enabling.
177  *
178  */
179 #if defined(CHECK_POINTS)
180 #define CHECK_READ(A)    (outb(CMOS_REG, (A)), inb(CMOS_DATA))
181 #define CHECK_WRITE(A,D) (outb(CMOS_REG, (A)), outb(CMOS_DATA, (D)))
182
183 #define CHECK_INIT(D);                          \
184         CHECK_WRITE(0x34, (D));                 \
185         CHECK_WRITE(0x35, (D));                 \
186         CHECK_WRITE(0x36, (D));                 \
187         CHECK_WRITE(0x37, (D));                 \
188         CHECK_WRITE(0x38, (D));                 \
189         CHECK_WRITE(0x39, (D));
190
191 #define CHECK_PRINT(S);                         \
192         kprintf("%s: %d, %d, %d, %d, %d, %d\n", \
193            (S),                                 \
194            CHECK_READ(0x34),                    \
195            CHECK_READ(0x35),                    \
196            CHECK_READ(0x36),                    \
197            CHECK_READ(0x37),                    \
198            CHECK_READ(0x38),                    \
199            CHECK_READ(0x39));
200
201 #else                           /* CHECK_POINTS */
202
203 #define CHECK_INIT(D)
204 #define CHECK_PRINT(S)
205
206 #endif                          /* CHECK_POINTS */
207
208 /*
209  * Values to send to the POST hardware.
210  */
211 #define MP_BOOTADDRESS_POST     0x10
212 #define MP_PROBE_POST           0x11
213 #define MPTABLE_PASS1_POST      0x12
214
215 #define MP_START_POST           0x13
216 #define MP_ENABLE_POST          0x14
217 #define MPTABLE_PASS2_POST      0x15
218
219 #define START_ALL_APS_POST      0x16
220 #define INSTALL_AP_TRAMP_POST   0x17
221 #define START_AP_POST           0x18
222
223 #define MP_ANNOUNCE_POST        0x19
224
225 /** XXX FIXME: where does this really belong, isa.h/isa.c perhaps? */
226 int     current_postcode;
227
228 /** XXX FIXME: what system files declare these??? */
229 extern struct region_descriptor r_gdt, r_idt;
230
231 int     mp_naps;                /* # of Applications processors */
232 #ifdef APIC_IO
233 static int      mp_nbusses;     /* # of busses */
234 int     mp_napics;              /* # of IO APICs */
235 #endif
236 #ifdef APIC_IO
237 vm_offset_t io_apic_address[NAPICID];   /* NAPICID is more than enough */
238 u_int32_t *io_apic_versions;
239 #endif
240 extern  int nkpt;
241
242 u_int32_t cpu_apic_versions[MAXCPU];
243 int64_t tsc0_offset;
244 extern int64_t tsc_offsets[];
245
246 extern u_long ebda_addr;
247
248 #ifdef APIC_IO
249 struct apic_intmapinfo  int_to_apicintpin[APIC_INTMAPSIZE];
250 #endif
251
252 /*
253  * APIC ID logical/physical mapping structures.
254  * We oversize these to simplify boot-time config.
255  */
256 int     cpu_num_to_apic_id[NAPICID];
257 #ifdef APIC_IO
258 int     io_num_to_apic_id[NAPICID];
259 #endif
260 int     apic_id_to_logical[NAPICID];
261
262 /* AP uses this during bootstrap.  Do not staticize.  */
263 char *bootSTK;
264 static int bootAP;
265
266 /*
267  * SMP page table page.  Setup by locore to point to a page table
268  * page from which we allocate per-cpu privatespace areas io_apics,
269  * and so forth.
270  */
271
272 #define IO_MAPPING_START_INDEX  \
273                 (SMP_MAXCPU * sizeof(struct privatespace) / PAGE_SIZE)
274
275 extern pt_entry_t *SMPpt;
276
277 struct pcb stoppcbs[MAXCPU];
278
279 extern inthand_t IDTVEC(fast_syscall), IDTVEC(fast_syscall32);
280
281 static basetable_entry basetable_entry_types[] =
282 {
283         {0, 20, "Processor"},
284         {1, 8, "Bus"},
285         {2, 8, "I/O APIC"},
286         {3, 8, "I/O INT"},
287         {4, 8, "Local INT"}
288 };
289
290 /*
291  * Local data and functions.
292  */
293
294 static u_int    boot_address;
295 static u_int    base_memory;
296 static int      mp_finish;
297
298 static void     mp_enable(u_int boot_addr);
299
300 static int      mptable_iterate_entries(const mpcth_t,
301                     mptable_iter_func, void *);
302 static int      mptable_probe(void);
303 static int      mptable_search(void);
304 static int      mptable_check(vm_paddr_t);
305 static long     mptable_search_sig(u_int32_t target, int count);
306 static int      mptable_hyperthread_fixup(u_int, int);
307 #ifdef APIC_IO
308 static void     mptable_pass1(struct mptable_pos *);
309 static void     mptable_pass2(struct mptable_pos *);
310 static void     mptable_default(int type);
311 static void     mptable_fix(void);
312 #endif
313 static int      mptable_map(struct mptable_pos *, vm_paddr_t);
314 static void     mptable_unmap(struct mptable_pos *);
315 static void     mptable_imcr(struct mptable_pos *);
316
317 static int      mptable_lapic_probe(struct lapic_enumerator *);
318 static void     mptable_lapic_enumerate(struct lapic_enumerator *);
319 static void     mptable_lapic_default(void);
320
321 #ifdef APIC_IO
322 static void     setup_apic_irq_mapping(void);
323 static int      apic_int_is_bus_type(int intr, int bus_type);
324 #endif
325 static int      start_all_aps(u_int boot_addr);
326 #if 0
327 static void     install_ap_tramp(u_int boot_addr);
328 #endif
329 static int      start_ap(struct mdglobaldata *gd, u_int boot_addr, int smibest);
330 static int      smitest(void);
331
332 static cpumask_t smp_startup_mask = 1;  /* which cpus have been started */
333 cpumask_t smp_active_mask = 1;  /* which cpus are ready for IPIs etc? */
334 SYSCTL_INT(_machdep, OID_AUTO, smp_active, CTLFLAG_RD, &smp_active_mask, 0, "");
335 static u_int    bootMP_size;
336
337 /*
338  * Calculate usable address in base memory for AP trampoline code.
339  */
340 u_int
341 mp_bootaddress(u_int basemem)
342 {
343         POSTCODE(MP_BOOTADDRESS_POST);
344
345         base_memory = basemem;
346
347         bootMP_size = mptramp_end - mptramp_start;
348         boot_address = trunc_page(basemem * 1024); /* round down to 4k boundary */
349         if (((basemem * 1024) - boot_address) < bootMP_size)
350                 boot_address -= PAGE_SIZE;      /* not enough, lower by 4k */
351         /* 3 levels of page table pages */
352         mptramp_pagetables = boot_address - (PAGE_SIZE * 3);
353
354         return mptramp_pagetables;
355 }
356
357
358 static int
359 mptable_probe(void)
360 {
361         int mpfps_paddr;
362
363         mpfps_paddr = mptable_search();
364         if (mptable_check(mpfps_paddr))
365                 return 0;
366
367         return mpfps_paddr;
368 }
369
370 /*
371  * Look for an Intel MP spec table (ie, SMP capable hardware).
372  */
373 static int
374 mptable_search(void)
375 {
376         long    x;
377         u_int32_t target;
378  
379         /*
380          * Make sure our SMPpt[] page table is big enough to hold all the
381          * mappings we need.
382          */
383         KKASSERT(IO_MAPPING_START_INDEX < NPTEPG - 2);
384
385         POSTCODE(MP_PROBE_POST);
386
387         /* see if EBDA exists */
388         if (ebda_addr != 0) {
389                 /* search first 1K of EBDA */
390                 target = (u_int32_t)ebda_addr;
391                 if ((x = mptable_search_sig(target, 1024 / 4)) > 0)
392                         return x;
393         } else {
394                 /* last 1K of base memory, effective 'top of base' passed in */
395                 target = (u_int32_t)(base_memory - 0x400);
396                 if ((x = mptable_search_sig(target, 1024 / 4)) > 0)
397                         return x;
398         }
399
400         /* search the BIOS */
401         target = (u_int32_t)BIOS_BASE;
402         if ((x = mptable_search_sig(target, BIOS_COUNT)) > 0)
403                 return x;
404
405         /* search the extended BIOS */
406         target = (u_int32_t)BIOS_BASE2;
407         if ((x = mptable_search_sig(target, BIOS_COUNT)) > 0)
408                 return x;
409
410         /* nothing found */
411         return 0;
412 }
413
414 struct mptable_check_cbarg {
415         int     cpu_count;
416         int     found_bsp;
417 };
418
419 static int
420 mptable_check_callback(void *xarg, const void *pos, int type)
421 {
422         const struct PROCENTRY *ent;
423         struct mptable_check_cbarg *arg = xarg;
424
425         if (type != 0)
426                 return 0;
427         ent = pos;
428
429         if ((ent->cpu_flags & PROCENTRY_FLAG_EN) == 0)
430                 return 0;
431         arg->cpu_count++;
432
433         if (ent->cpu_flags & PROCENTRY_FLAG_BP) {
434                 if (arg->found_bsp) {
435                         kprintf("more than one BSP in base MP table\n");
436                         return EINVAL;
437                 }
438                 arg->found_bsp = 1;
439         }
440         return 0;
441 }
442
443 static int
444 mptable_check(vm_paddr_t mpfps_paddr)
445 {
446         struct mptable_pos mpt;
447         struct mptable_check_cbarg arg;
448         mpcth_t cth;
449         int error;
450
451         if (mpfps_paddr == 0)
452                 return EOPNOTSUPP;
453
454         error = mptable_map(&mpt, mpfps_paddr);
455         if (error)
456                 return error;
457
458         if (mpt.mp_fps->mpfb1 != 0)
459                 goto done;
460
461         error = EINVAL;
462
463         cth = mpt.mp_cth;
464         if (cth == NULL)
465                 goto done;
466         if (cth->apic_address == 0)
467                 goto done;
468
469         bzero(&arg, sizeof(arg));
470         error = mptable_iterate_entries(cth, mptable_check_callback, &arg);
471         if (!error) {
472                 if (arg.cpu_count == 0) {
473                         kprintf("MP table contains no processor entries\n");
474                         error = EINVAL;
475                 } else if (!arg.found_bsp) {
476                         kprintf("MP table does not contains BSP entry\n");
477                         error = EINVAL;
478                 }
479         }
480 done:
481         mptable_unmap(&mpt);
482         return error;
483 }
484
485 static int
486 mptable_iterate_entries(const mpcth_t cth, mptable_iter_func func, void *arg)
487 {
488         int count, total_size;
489         const void *position;
490
491         KKASSERT(cth->base_table_length >= sizeof(struct MPCTH));
492         total_size = cth->base_table_length - sizeof(struct MPCTH);
493         position = (const uint8_t *)cth + sizeof(struct MPCTH);
494         count = cth->entry_count;
495
496         while (count--) {
497                 int type, error;
498
499                 KKASSERT(total_size >= 0);
500                 if (total_size == 0) {
501                         kprintf("invalid base MP table, "
502                                 "entry count and length mismatch\n");
503                         return EINVAL;
504                 }
505
506                 type = *(const uint8_t *)position;
507                 switch (type) {
508                 case 0: /* processor_entry */
509                 case 1: /* bus_entry */
510                 case 2: /* io_apic_entry */
511                 case 3: /* int_entry */
512                 case 4: /* int_entry */
513                         break;
514                 default:
515                         kprintf("unknown base MP table entry type %d\n", type);
516                         return EINVAL;
517                 }
518
519                 if (total_size < basetable_entry_types[type].length) {
520                         kprintf("invalid base MP table length, "
521                                 "does not contain all entries\n");
522                         return EINVAL;
523                 }
524                 total_size -= basetable_entry_types[type].length;
525
526                 error = func(arg, position, type);
527                 if (error)
528                         return error;
529
530                 position = (const uint8_t *)position +
531                     basetable_entry_types[type].length;
532         }
533         return 0;
534 }
535
536
537 /*
538  * Startup the SMP processors.
539  */
540 void
541 mp_start(void)
542 {
543         POSTCODE(MP_START_POST);
544         mp_enable(boot_address);
545 }
546
547
548 /*
549  * Print various information about the SMP system hardware and setup.
550  */
551 void
552 mp_announce(void)
553 {
554         int     x;
555
556         POSTCODE(MP_ANNOUNCE_POST);
557
558         kprintf("DragonFly/MP: Multiprocessor motherboard\n");
559         kprintf(" cpu0 (BSP): apic id: %2d", CPU_TO_ID(0));
560         kprintf(", version: 0x%08x\n", cpu_apic_versions[0]);
561         for (x = 1; x <= mp_naps; ++x) {
562                 kprintf(" cpu%d (AP):  apic id: %2d", x, CPU_TO_ID(x));
563                 kprintf(", version: 0x%08x\n", cpu_apic_versions[x]);
564         }
565
566 #if defined(APIC_IO)
567         for (x = 0; x < mp_napics; ++x) {
568                 kprintf(" io%d (APIC): apic id: %2d", x, IO_TO_ID(x));
569                 kprintf(", version: 0x%08x", io_apic_versions[x]);
570                 kprintf(", at 0x%08lx\n", io_apic_address[x]);
571         }
572 #else
573         kprintf(" Warning: APIC I/O disabled\n");
574 #endif  /* APIC_IO */
575 }
576
577 /*
578  * AP cpu's call this to sync up protected mode.
579  *
580  * WARNING! %gs is not set up on entry.  This routine sets up %gs.
581  */
582 void
583 init_secondary(void)
584 {
585         int     gsel_tss;
586         int     x, myid = bootAP;
587         u_int64_t msr, cr0;
588         struct mdglobaldata *md;
589         struct privatespace *ps;
590
591         ps = &CPU_prvspace[myid];
592
593         gdt_segs[GPROC0_SEL].ssd_base =
594                 (long) &ps->mdglobaldata.gd_common_tss;
595         ps->mdglobaldata.mi.gd_prvspace = ps;
596
597         /* We fill the 32-bit segment descriptors */
598         for (x = 0; x < NGDT; x++) {
599                 if (x != GPROC0_SEL && x != (GPROC0_SEL + 1))
600                         ssdtosd(&gdt_segs[x], &gdt[myid * NGDT + x]);
601         }
602         /* And now a 64-bit one */
603         ssdtosyssd(&gdt_segs[GPROC0_SEL],
604             (struct system_segment_descriptor *)&gdt[myid * NGDT + GPROC0_SEL]);
605
606         r_gdt.rd_limit = NGDT * sizeof(gdt[0]) - 1;
607         r_gdt.rd_base = (long) &gdt[myid * NGDT];
608         lgdt(&r_gdt);                   /* does magic intra-segment return */
609
610         /* lgdt() destroys the GSBASE value, so we load GSBASE after lgdt() */
611         wrmsr(MSR_FSBASE, 0);           /* User value */
612         wrmsr(MSR_GSBASE, (u_int64_t)ps);
613         wrmsr(MSR_KGSBASE, 0);          /* XXX User value while we're in the kernel */
614
615         lidt(&r_idt);
616
617 #if 0
618         lldt(_default_ldt);
619         mdcpu->gd_currentldt = _default_ldt;
620 #endif
621
622         gsel_tss = GSEL(GPROC0_SEL, SEL_KPL);
623         gdt[myid * NGDT + GPROC0_SEL].sd_type = SDT_SYSTSS;
624
625         md = mdcpu;     /* loaded through %gs:0 (mdglobaldata.mi.gd_prvspace)*/
626
627         md->gd_common_tss.tss_rsp0 = 0; /* not used until after switch */
628 #if 0 /* JG XXX */
629         md->gd_common_tss.tss_ioopt = (sizeof md->gd_common_tss) << 16;
630 #endif
631         md->gd_tss_gdt = &gdt[myid * NGDT + GPROC0_SEL];
632         md->gd_common_tssd = *md->gd_tss_gdt;
633
634         /* double fault stack */
635         md->gd_common_tss.tss_ist1 =
636                 (long)&md->mi.gd_prvspace->idlestack[
637                         sizeof(md->mi.gd_prvspace->idlestack)];
638
639         ltr(gsel_tss);
640
641         /*
642          * Set to a known state:
643          * Set by mpboot.s: CR0_PG, CR0_PE
644          * Set by cpu_setregs: CR0_NE, CR0_MP, CR0_TS, CR0_WP, CR0_AM
645          */
646         cr0 = rcr0();
647         cr0 &= ~(CR0_CD | CR0_NW | CR0_EM);
648         load_cr0(cr0);
649
650         /* Set up the fast syscall stuff */
651         msr = rdmsr(MSR_EFER) | EFER_SCE;
652         wrmsr(MSR_EFER, msr);
653         wrmsr(MSR_LSTAR, (u_int64_t)IDTVEC(fast_syscall));
654         wrmsr(MSR_CSTAR, (u_int64_t)IDTVEC(fast_syscall32));
655         msr = ((u_int64_t)GSEL(GCODE_SEL, SEL_KPL) << 32) |
656               ((u_int64_t)GSEL(GUCODE32_SEL, SEL_UPL) << 48);
657         wrmsr(MSR_STAR, msr);
658         wrmsr(MSR_SF_MASK, PSL_NT|PSL_T|PSL_I|PSL_C|PSL_D);
659
660         pmap_set_opt();         /* PSE/4MB pages, etc */
661 #if JGXXX
662         /* Initialize the PAT MSR. */
663         pmap_init_pat();
664 #endif
665
666         /* set up CPU registers and state */
667         cpu_setregs();
668
669         /* set up SSE/NX registers */
670         initializecpu();
671
672         /* set up FPU state on the AP */
673         npxinit(__INITIAL_NPXCW__);
674
675         /* disable the APIC, just to be SURE */
676         lapic->svr &= ~APIC_SVR_ENABLE;
677
678         /* data returned to BSP */
679         cpu_apic_versions[0] = lapic->version;
680 }
681
682 /*******************************************************************
683  * local functions and data
684  */
685
686 /*
687  * start the SMP system
688  */
689 static void
690 mp_enable(u_int boot_addr)
691 {
692 #if defined(APIC_IO)
693         int     apic;
694         u_int   ux;
695 #endif  /* APIC_IO */
696         vm_paddr_t mpfps_paddr;
697         struct mptable_pos mpt;
698
699         POSTCODE(MP_ENABLE_POST);
700
701         lapic_config();
702
703         mpfps_paddr = mptable_probe();
704         if (mpfps_paddr) {
705                 mptable_map(&mpt, mpfps_paddr);
706                 mptable_imcr(&mpt);
707                 mptable_unmap(&mpt);
708         }
709 #if defined(APIC_IO)
710
711         if (!mpfps_paddr)
712                 panic("no MP table, disable APIC_IO!\n");
713
714         mptable_map(&mpt, mpfps_paddr);
715
716         /*
717          * Examine the MP table for needed info
718          */
719         mptable_pass1(&mpt);
720         mptable_pass2(&mpt);
721
722         mptable_unmap(&mpt);
723
724         /* Post scan cleanup */
725         mptable_fix();
726
727         setup_apic_irq_mapping();
728
729         /* fill the LOGICAL io_apic_versions table */
730         for (apic = 0; apic < mp_napics; ++apic) {
731                 ux = io_apic_read(apic, IOAPIC_VER);
732                 io_apic_versions[apic] = ux;
733                 io_apic_set_id(apic, IO_TO_ID(apic));
734         }
735
736         /* program each IO APIC in the system */
737         for (apic = 0; apic < mp_napics; ++apic)
738                 if (io_apic_setup(apic) < 0)
739                         panic("IO APIC setup failure");
740
741 #endif  /* APIC_IO */
742
743         /*
744          * These are required for SMP operation
745          */
746
747         /* install a 'Spurious INTerrupt' vector */
748         setidt(XSPURIOUSINT_OFFSET, Xspuriousint,
749                SDT_SYSIGT, SEL_KPL, 0);
750
751         /* install an inter-CPU IPI for TLB invalidation */
752         setidt(XINVLTLB_OFFSET, Xinvltlb,
753                SDT_SYSIGT, SEL_KPL, 0);
754
755         /* install an inter-CPU IPI for IPIQ messaging */
756         setidt(XIPIQ_OFFSET, Xipiq,
757                SDT_SYSIGT, SEL_KPL, 0);
758
759         /* install a timer vector */
760         setidt(XTIMER_OFFSET, Xtimer,
761                SDT_SYSIGT, SEL_KPL, 0);
762         
763         /* install an inter-CPU IPI for CPU stop/restart */
764         setidt(XCPUSTOP_OFFSET, Xcpustop,
765                SDT_SYSIGT, SEL_KPL, 0);
766
767         /* start each Application Processor */
768         start_all_aps(boot_addr);
769 }
770
771
772 /*
773  * look for the MP spec signature
774  */
775
776 /* string defined by the Intel MP Spec as identifying the MP table */
777 #define MP_SIG          0x5f504d5f      /* _MP_ */
778 #define NEXT(X)         ((X) += 4)
779 static long
780 mptable_search_sig(u_int32_t target, int count)
781 {
782         vm_size_t map_size;
783         u_int32_t *addr;
784         int x, ret;
785
786         KKASSERT(target != 0);
787
788         map_size = count * sizeof(u_int32_t);
789         addr = pmap_mapdev((vm_paddr_t)target, map_size);
790
791         ret = 0;
792         for (x = 0; x < count; NEXT(x)) {
793                 if (addr[x] == MP_SIG) {
794                         /* make array index a byte index */
795                         ret = target + (x * sizeof(u_int32_t));
796                         break;
797                 }
798         }
799
800         pmap_unmapdev((vm_offset_t)addr, map_size);
801         return ret;
802 }
803
804
805 typedef struct BUSDATA {
806         u_char  bus_id;
807         enum busTypes bus_type;
808 }       bus_datum;
809
810 typedef struct INTDATA {
811         u_char  int_type;
812         u_short int_flags;
813         u_char  src_bus_id;
814         u_char  src_bus_irq;
815         u_char  dst_apic_id;
816         u_char  dst_apic_int;
817         u_char  int_vector;
818 }       io_int, local_int;
819
820 typedef struct BUSTYPENAME {
821         u_char  type;
822         char    name[7];
823 }       bus_type_name;
824
825 #ifdef APIC_IO
826
827 static bus_type_name bus_type_table[] =
828 {
829         {CBUS, "CBUS"},
830         {CBUSII, "CBUSII"},
831         {EISA, "EISA"},
832         {MCA, "MCA"},
833         {UNKNOWN_BUSTYPE, "---"},
834         {ISA, "ISA"},
835         {MCA, "MCA"},
836         {UNKNOWN_BUSTYPE, "---"},
837         {UNKNOWN_BUSTYPE, "---"},
838         {UNKNOWN_BUSTYPE, "---"},
839         {UNKNOWN_BUSTYPE, "---"},
840         {UNKNOWN_BUSTYPE, "---"},
841         {PCI, "PCI"},
842         {UNKNOWN_BUSTYPE, "---"},
843         {UNKNOWN_BUSTYPE, "---"},
844         {UNKNOWN_BUSTYPE, "---"},
845         {UNKNOWN_BUSTYPE, "---"},
846         {XPRESS, "XPRESS"},
847         {UNKNOWN_BUSTYPE, "---"}
848 };
849
850 /* from MP spec v1.4, table 5-1 */
851 static int default_data[7][5] =
852 {
853 /*   nbus, id0, type0, id1, type1 */
854         {1, 0, ISA, 255, 255},
855         {1, 0, EISA, 255, 255},
856         {1, 0, EISA, 255, 255},
857         {1, 0, MCA, 255, 255},
858         {2, 0, ISA, 1, PCI},
859         {2, 0, EISA, 1, PCI},
860         {2, 0, MCA, 1, PCI}
861 };
862
863 /* the bus data */
864 static bus_datum *bus_data;
865
866 /* the IO INT data, one entry per possible APIC INTerrupt */
867 static io_int  *io_apic_ints;
868 static int nintrs;
869
870 #endif
871
872 static int processor_entry      (const struct PROCENTRY *entry, int cpu);
873 #ifdef APIC_IO
874 static int bus_entry            (const struct BUSENTRY *entry, int bus);
875 static int io_apic_entry        (const struct IOAPICENTRY *entry, int apic);
876 static int int_entry            (const struct INTENTRY *entry, int intr);
877 static int lookup_bus_type      (char *name);
878 #endif
879
880 #ifdef APIC_IO
881
882 static int
883 mptable_ioapic_pass1_callback(void *xarg, const void *pos, int type)
884 {
885         const struct IOAPICENTRY *ioapic_ent;
886
887         switch (type) {
888         case 1: /* bus_entry */
889                 ++mp_nbusses;
890                 break;
891
892         case 2: /* io_apic_entry */
893                 ioapic_ent = pos;
894                 if (ioapic_ent->apic_flags & IOAPICENTRY_FLAG_EN) {
895                         io_apic_address[mp_napics++] =
896                             (vm_offset_t)ioapic_ent->apic_address;
897                 }
898                 break;
899
900         case 3: /* int_entry */
901                 ++nintrs;
902                 break;
903         }
904         return 0;
905 }
906
907 /*
908  * 1st pass on motherboard's Intel MP specification table.
909  *
910  * determines:
911  *      io_apic_address[N]
912  *      mp_nbusses
913  *      mp_napics
914  *      nintrs
915  */
916 static void
917 mptable_pass1(struct mptable_pos *mpt)
918 {
919         mpfps_t fps;
920         int x;
921
922         POSTCODE(MPTABLE_PASS1_POST);
923
924         fps = mpt->mp_fps;
925         KKASSERT(fps != NULL);
926
927         /* clear various tables */
928         for (x = 0; x < NAPICID; ++x)
929                 io_apic_address[x] = ~0;        /* IO APIC address table */
930
931         mp_nbusses = 0;
932         mp_napics = 0;
933         nintrs = 0;
934
935         /* check for use of 'default' configuration */
936         if (fps->mpfb1 != 0) {
937                 io_apic_address[0] = DEFAULT_IO_APIC_BASE;
938                 mp_nbusses = default_data[fps->mpfb1 - 1][0];
939                 mp_napics = 1;
940                 nintrs = 16;
941         } else {
942                 int error;
943
944                 error = mptable_iterate_entries(mpt->mp_cth,
945                             mptable_ioapic_pass1_callback, NULL);
946                 if (error)
947                         panic("mptable_iterate_entries(ioapic_pass1) failed\n");
948         }
949 }
950
951 struct mptable_ioapic2_cbarg {
952         int     bus;
953         int     apic;
954         int     intr;
955 };
956
957 static int
958 mptable_ioapic_pass2_callback(void *xarg, const void *pos, int type)
959 {
960         struct mptable_ioapic2_cbarg *arg = xarg;
961
962         switch (type) {
963         case 1:
964                 if (bus_entry(pos, arg->bus))
965                         ++arg->bus;
966                 break;
967
968         case 2:
969                 if (io_apic_entry(pos, arg->apic))
970                         ++arg->apic;
971                 break;
972
973         case 3:
974                 if (int_entry(pos, arg->intr))
975                         ++arg->intr;
976                 break;
977         }
978         return 0;
979 }
980
981 /*
982  * 2nd pass on motherboard's Intel MP specification table.
983  *
984  * sets:
985  *      ID_TO_IO(N), phy APIC ID to log CPU/IO table
986  *      IO_TO_ID(N), logical IO to APIC ID table
987  *      bus_data[N]
988  *      io_apic_ints[N]
989  */
990 static void
991 mptable_pass2(struct mptable_pos *mpt)
992 {
993         struct mptable_ioapic2_cbarg arg;
994         mpfps_t fps;
995         int error, x;
996
997         POSTCODE(MPTABLE_PASS2_POST);
998
999         fps = mpt->mp_fps;
1000         KKASSERT(fps != NULL);
1001
1002         MALLOC(io_apic_versions, u_int32_t *, sizeof(u_int32_t) * mp_napics,
1003             M_DEVBUF, M_WAITOK);
1004         MALLOC(ioapic, volatile ioapic_t **, sizeof(ioapic_t *) * mp_napics,
1005             M_DEVBUF, M_WAITOK | M_ZERO);
1006         MALLOC(io_apic_ints, io_int *, sizeof(io_int) * (nintrs + FIXUP_EXTRA_APIC_INTS),
1007             M_DEVBUF, M_WAITOK);
1008         MALLOC(bus_data, bus_datum *, sizeof(bus_datum) * mp_nbusses,
1009             M_DEVBUF, M_WAITOK);
1010
1011         for (x = 0; x < mp_napics; x++)
1012                 ioapic[x] = permanent_io_mapping(io_apic_address[x]);
1013
1014         /* clear various tables */
1015         for (x = 0; x < NAPICID; ++x) {
1016                 ID_TO_IO(x) = -1;       /* phy APIC ID to log CPU/IO table */
1017                 IO_TO_ID(x) = -1;       /* logical IO to APIC ID table */
1018         }
1019
1020         /* clear bus data table */
1021         for (x = 0; x < mp_nbusses; ++x)
1022                 bus_data[x].bus_id = 0xff;
1023
1024         /* clear IO APIC INT table */
1025         for (x = 0; x < (nintrs + 1); ++x) {
1026                 io_apic_ints[x].int_type = 0xff;
1027                 io_apic_ints[x].int_vector = 0xff;
1028         }
1029
1030         /* check for use of 'default' configuration */
1031         if (fps->mpfb1 != 0) {
1032                 mptable_default(fps->mpfb1);
1033                 return;
1034         }
1035
1036         bzero(&arg, sizeof(arg));
1037         error = mptable_iterate_entries(mpt->mp_cth,
1038                     mptable_ioapic_pass2_callback, &arg);
1039         if (error)
1040                 panic("mptable_iterate_entries(ioapic_pass2) failed\n");
1041 }
1042
1043 #endif
1044
1045 /*
1046  * Check if we should perform a hyperthreading "fix-up" to
1047  * enumerate any logical CPU's that aren't already listed
1048  * in the table.
1049  *
1050  * XXX: We assume that all of the physical CPUs in the
1051  * system have the same number of logical CPUs.
1052  *
1053  * XXX: We assume that APIC ID's are allocated such that
1054  * the APIC ID's for a physical processor are aligned
1055  * with the number of logical CPU's in the processor.
1056  */
1057 static int
1058 mptable_hyperthread_fixup(u_int id_mask, int cpu_count)
1059 {
1060         int i, id, lcpus_max, logical_cpus;
1061
1062         if ((cpu_feature & CPUID_HTT) == 0)
1063                 return 0;
1064
1065         lcpus_max = (cpu_procinfo & CPUID_HTT_CORES) >> 16;
1066         if (lcpus_max <= 1)
1067                 return 0;
1068
1069         if (strcmp(cpu_vendor, "GenuineIntel") == 0) {
1070                 /*
1071                  * INSTRUCTION SET REFERENCE, A-M (#253666)
1072                  * Page 3-181, Table 3-20
1073                  * "The nearest power-of-2 integer that is not smaller
1074                  *  than EBX[23:16] is the number of unique initial APIC
1075                  *  IDs reserved for addressing different logical
1076                  *  processors in a physical package."
1077                  */
1078                 for (i = 0; ; ++i) {
1079                         if ((1 << i) >= lcpus_max) {
1080                                 lcpus_max = 1 << i;
1081                                 break;
1082                         }
1083                 }
1084         }
1085
1086         KKASSERT(cpu_count != 0);
1087         if (cpu_count == lcpus_max) {
1088                 /* We have nothing to fix */
1089                 return 0;
1090         } else if (cpu_count == 1) {
1091                 /* XXX this may be incorrect */
1092                 logical_cpus = lcpus_max;
1093         } else {
1094                 int cur, prev, dist;
1095
1096                 /*
1097                  * Calculate the distances between two nearest
1098                  * APIC IDs.  If all such distances are same,
1099                  * then it is the number of missing cpus that
1100                  * we are going to fill later.
1101                  */
1102                 dist = cur = prev = -1;
1103                 for (id = 0; id < MAXCPU; ++id) {
1104                         if ((id_mask & 1 << id) == 0)
1105                                 continue;
1106
1107                         cur = id;
1108                         if (prev >= 0) {
1109                                 int new_dist = cur - prev;
1110
1111                                 if (dist < 0)
1112                                         dist = new_dist;
1113
1114                                 /*
1115                                  * Make sure that all distances
1116                                  * between two nearest APIC IDs
1117                                  * are same.
1118                                  */
1119                                 if (dist != new_dist)
1120                                         return 0;
1121                         }
1122                         prev = cur;
1123                 }
1124                 if (dist == 1)
1125                         return 0;
1126
1127                 /* Must be power of 2 */
1128                 if (dist & (dist - 1))
1129                         return 0;
1130
1131                 /* Can't exceed CPU package capacity */
1132                 if (dist > lcpus_max)
1133                         logical_cpus = lcpus_max;
1134                 else
1135                         logical_cpus = dist;
1136         }
1137
1138         /*
1139          * For each APIC ID of a CPU that is set in the mask,
1140          * scan the other candidate APIC ID's for this
1141          * physical processor.  If any of those ID's are
1142          * already in the table, then kill the fixup.
1143          */
1144         for (id = 0; id < MAXCPU; id++) {
1145                 if ((id_mask & 1 << id) == 0)
1146                         continue;
1147                 /* First, make sure we are on a logical_cpus boundary. */
1148                 if (id % logical_cpus != 0)
1149                         return 0;
1150                 for (i = id + 1; i < id + logical_cpus; i++)
1151                         if ((id_mask & 1 << i) != 0)
1152                                 return 0;
1153         }
1154         return logical_cpus;
1155 }
1156
1157 static int
1158 mptable_map(struct mptable_pos *mpt, vm_paddr_t mpfps_paddr)
1159 {
1160         mpfps_t fps = NULL;
1161         mpcth_t cth = NULL;
1162         vm_size_t cth_mapsz = 0;
1163
1164         bzero(mpt, sizeof(*mpt));
1165
1166         fps = pmap_mapdev(mpfps_paddr, sizeof(*fps));
1167         if (fps->pap != 0) {
1168                 /*
1169                  * Map configuration table header to get
1170                  * the base table size
1171                  */
1172                 cth = pmap_mapdev(fps->pap, sizeof(*cth));
1173                 cth_mapsz = cth->base_table_length;
1174                 pmap_unmapdev((vm_offset_t)cth, sizeof(*cth));
1175
1176                 if (cth_mapsz < sizeof(*cth)) {
1177                         kprintf("invalid base MP table length %d\n",
1178                                 (int)cth_mapsz);
1179                         pmap_unmapdev((vm_offset_t)fps, sizeof(*fps));
1180                         return EINVAL;
1181                 }
1182
1183                 /*
1184                  * Map the base table
1185                  */
1186                 cth = pmap_mapdev(fps->pap, cth_mapsz);
1187         }
1188
1189         mpt->mp_fps = fps;
1190         mpt->mp_cth = cth;
1191         mpt->mp_cth_mapsz = cth_mapsz;
1192
1193         return 0;
1194 }
1195
1196 static void
1197 mptable_unmap(struct mptable_pos *mpt)
1198 {
1199         if (mpt->mp_cth != NULL) {
1200                 pmap_unmapdev((vm_offset_t)mpt->mp_cth, mpt->mp_cth_mapsz);
1201                 mpt->mp_cth = NULL;
1202                 mpt->mp_cth_mapsz = 0;
1203         }
1204         if (mpt->mp_fps != NULL) {
1205                 pmap_unmapdev((vm_offset_t)mpt->mp_fps, sizeof(*mpt->mp_fps));
1206                 mpt->mp_fps = NULL;
1207         }
1208 }
1209
1210 #ifdef APIC_IO
1211
1212 void
1213 assign_apic_irq(int apic, int intpin, int irq)
1214 {
1215         int x;
1216         
1217         if (int_to_apicintpin[irq].ioapic != -1)
1218                 panic("assign_apic_irq: inconsistent table");
1219         
1220         int_to_apicintpin[irq].ioapic = apic;
1221         int_to_apicintpin[irq].int_pin = intpin;
1222         int_to_apicintpin[irq].apic_address = ioapic[apic];
1223         int_to_apicintpin[irq].redirindex = IOAPIC_REDTBL + 2 * intpin;
1224         
1225         for (x = 0; x < nintrs; x++) {
1226                 if ((io_apic_ints[x].int_type == 0 || 
1227                      io_apic_ints[x].int_type == 3) &&
1228                     io_apic_ints[x].int_vector == 0xff &&
1229                     io_apic_ints[x].dst_apic_id == IO_TO_ID(apic) &&
1230                     io_apic_ints[x].dst_apic_int == intpin)
1231                         io_apic_ints[x].int_vector = irq;
1232         }
1233 }
1234
1235 void
1236 revoke_apic_irq(int irq)
1237 {
1238         int x;
1239         int oldapic;
1240         int oldintpin;
1241         
1242         if (int_to_apicintpin[irq].ioapic == -1)
1243                 panic("revoke_apic_irq: inconsistent table");
1244         
1245         oldapic = int_to_apicintpin[irq].ioapic;
1246         oldintpin = int_to_apicintpin[irq].int_pin;
1247
1248         int_to_apicintpin[irq].ioapic = -1;
1249         int_to_apicintpin[irq].int_pin = 0;
1250         int_to_apicintpin[irq].apic_address = NULL;
1251         int_to_apicintpin[irq].redirindex = 0;
1252         
1253         for (x = 0; x < nintrs; x++) {
1254                 if ((io_apic_ints[x].int_type == 0 || 
1255                      io_apic_ints[x].int_type == 3) &&
1256                     io_apic_ints[x].int_vector != 0xff &&
1257                     io_apic_ints[x].dst_apic_id == IO_TO_ID(oldapic) &&
1258                     io_apic_ints[x].dst_apic_int == oldintpin)
1259                         io_apic_ints[x].int_vector = 0xff;
1260         }
1261 }
1262
1263 /*
1264  * Allocate an IRQ 
1265  */
1266 static void
1267 allocate_apic_irq(int intr)
1268 {
1269         int apic;
1270         int intpin;
1271         int irq;
1272         
1273         if (io_apic_ints[intr].int_vector != 0xff)
1274                 return;         /* Interrupt handler already assigned */
1275         
1276         if (io_apic_ints[intr].int_type != 0 &&
1277             (io_apic_ints[intr].int_type != 3 ||
1278              (io_apic_ints[intr].dst_apic_id == IO_TO_ID(0) &&
1279               io_apic_ints[intr].dst_apic_int == 0)))
1280                 return;         /* Not INT or ExtInt on != (0, 0) */
1281         
1282         irq = 0;
1283         while (irq < APIC_INTMAPSIZE &&
1284                int_to_apicintpin[irq].ioapic != -1)
1285                 irq++;
1286         
1287         if (irq >= APIC_INTMAPSIZE)
1288                 return;         /* No free interrupt handlers */
1289         
1290         apic = ID_TO_IO(io_apic_ints[intr].dst_apic_id);
1291         intpin = io_apic_ints[intr].dst_apic_int;
1292         
1293         assign_apic_irq(apic, intpin, irq);
1294 }
1295
1296
1297 static void
1298 swap_apic_id(int apic, int oldid, int newid)
1299 {
1300         int x;
1301         int oapic;
1302         
1303
1304         if (oldid == newid)
1305                 return;                 /* Nothing to do */
1306         
1307         kprintf("Changing APIC ID for IO APIC #%d from %d to %d in MP table\n",
1308                apic, oldid, newid);
1309         
1310         /* Swap physical APIC IDs in interrupt entries */
1311         for (x = 0; x < nintrs; x++) {
1312                 if (io_apic_ints[x].dst_apic_id == oldid)
1313                         io_apic_ints[x].dst_apic_id = newid;
1314                 else if (io_apic_ints[x].dst_apic_id == newid)
1315                         io_apic_ints[x].dst_apic_id = oldid;
1316         }
1317         
1318         /* Swap physical APIC IDs in IO_TO_ID mappings */
1319         for (oapic = 0; oapic < mp_napics; oapic++)
1320                 if (IO_TO_ID(oapic) == newid)
1321                         break;
1322         
1323         if (oapic < mp_napics) {
1324                 kprintf("Changing APIC ID for IO APIC #%d from "
1325                        "%d to %d in MP table\n",
1326                        oapic, newid, oldid);
1327                 IO_TO_ID(oapic) = oldid;
1328         }
1329         IO_TO_ID(apic) = newid;
1330 }
1331
1332
1333 static void
1334 fix_id_to_io_mapping(void)
1335 {
1336         int x;
1337
1338         for (x = 0; x < NAPICID; x++)
1339                 ID_TO_IO(x) = -1;
1340         
1341         for (x = 0; x <= mp_naps; x++)
1342                 if (CPU_TO_ID(x) < NAPICID)
1343                         ID_TO_IO(CPU_TO_ID(x)) = x;
1344         
1345         for (x = 0; x < mp_napics; x++)
1346                 if (IO_TO_ID(x) < NAPICID)
1347                         ID_TO_IO(IO_TO_ID(x)) = x;
1348 }
1349
1350
1351 static int
1352 first_free_apic_id(void)
1353 {
1354         int freeid, x;
1355         
1356         for (freeid = 0; freeid < NAPICID; freeid++) {
1357                 for (x = 0; x <= mp_naps; x++)
1358                         if (CPU_TO_ID(x) == freeid)
1359                                 break;
1360                 if (x <= mp_naps)
1361                         continue;
1362                 for (x = 0; x < mp_napics; x++)
1363                         if (IO_TO_ID(x) == freeid)
1364                                 break;
1365                 if (x < mp_napics)
1366                         continue;
1367                 return freeid;
1368         }
1369         return freeid;
1370 }
1371
1372
1373 static int
1374 io_apic_id_acceptable(int apic, int id)
1375 {
1376         int cpu;                /* Logical CPU number */
1377         int oapic;              /* Logical IO APIC number for other IO APIC */
1378
1379         if (id >= NAPICID)
1380                 return 0;       /* Out of range */
1381         
1382         for (cpu = 0; cpu <= mp_naps; cpu++)
1383                 if (CPU_TO_ID(cpu) == id)
1384                         return 0;       /* Conflict with CPU */
1385         
1386         for (oapic = 0; oapic < mp_napics && oapic < apic; oapic++)
1387                 if (IO_TO_ID(oapic) == id)
1388                         return 0;       /* Conflict with other APIC */
1389         
1390         return 1;               /* ID is acceptable for IO APIC */
1391 }
1392
1393 static
1394 io_int *
1395 io_apic_find_int_entry(int apic, int pin)
1396 {
1397         int     x;
1398
1399         /* search each of the possible INTerrupt sources */
1400         for (x = 0; x < nintrs; ++x) {
1401                 if ((apic == ID_TO_IO(io_apic_ints[x].dst_apic_id)) &&
1402                     (pin == io_apic_ints[x].dst_apic_int))
1403                         return (&io_apic_ints[x]);
1404         }
1405         return NULL;
1406 }
1407
1408 /*
1409  * parse an Intel MP specification table
1410  */
1411 static void
1412 mptable_fix(void)
1413 {
1414         int     x;
1415         int     id;
1416         int     apic;           /* IO APIC unit number */
1417         int     freeid;         /* Free physical APIC ID */
1418         int     physid;         /* Current physical IO APIC ID */
1419         io_int *io14;
1420         int     bus_0 = 0;      /* Stop GCC warning */
1421         int     bus_pci = 0;    /* Stop GCC warning */
1422         int     num_pci_bus;
1423
1424         /*
1425          * Fix mis-numbering of the PCI bus and its INT entries if the BIOS
1426          * did it wrong.  The MP spec says that when more than 1 PCI bus
1427          * exists the BIOS must begin with bus entries for the PCI bus and use
1428          * actual PCI bus numbering.  This implies that when only 1 PCI bus
1429          * exists the BIOS can choose to ignore this ordering, and indeed many
1430          * MP motherboards do ignore it.  This causes a problem when the PCI
1431          * sub-system makes requests of the MP sub-system based on PCI bus
1432          * numbers.     So here we look for the situation and renumber the
1433          * busses and associated INTs in an effort to "make it right".
1434          */
1435
1436         /* find bus 0, PCI bus, count the number of PCI busses */
1437         for (num_pci_bus = 0, x = 0; x < mp_nbusses; ++x) {
1438                 if (bus_data[x].bus_id == 0) {
1439                         bus_0 = x;
1440                 }
1441                 if (bus_data[x].bus_type == PCI) {
1442                         ++num_pci_bus;
1443                         bus_pci = x;
1444                 }
1445         }
1446         /*
1447          * bus_0 == slot of bus with ID of 0
1448          * bus_pci == slot of last PCI bus encountered
1449          */
1450
1451         /* check the 1 PCI bus case for sanity */
1452         /* if it is number 0 all is well */
1453         if (num_pci_bus == 1 &&
1454             bus_data[bus_pci].bus_id != 0) {
1455                 
1456                 /* mis-numbered, swap with whichever bus uses slot 0 */
1457
1458                 /* swap the bus entry types */
1459                 bus_data[bus_pci].bus_type = bus_data[bus_0].bus_type;
1460                 bus_data[bus_0].bus_type = PCI;
1461
1462                 /* swap each relavant INTerrupt entry */
1463                 id = bus_data[bus_pci].bus_id;
1464                 for (x = 0; x < nintrs; ++x) {
1465                         if (io_apic_ints[x].src_bus_id == id) {
1466                                 io_apic_ints[x].src_bus_id = 0;
1467                         }
1468                         else if (io_apic_ints[x].src_bus_id == 0) {
1469                                 io_apic_ints[x].src_bus_id = id;
1470                         }
1471                 }
1472         }
1473
1474         /* Assign IO APIC IDs.
1475          * 
1476          * First try the existing ID. If a conflict is detected, try
1477          * the ID in the MP table.  If a conflict is still detected, find
1478          * a free id.
1479          *
1480          * We cannot use the ID_TO_IO table before all conflicts has been
1481          * resolved and the table has been corrected.
1482          */
1483         for (apic = 0; apic < mp_napics; ++apic) { /* For all IO APICs */
1484                 
1485                 /* First try to use the value set by the BIOS */
1486                 physid = io_apic_get_id(apic);
1487                 if (io_apic_id_acceptable(apic, physid)) {
1488                         if (IO_TO_ID(apic) != physid)
1489                                 swap_apic_id(apic, IO_TO_ID(apic), physid);
1490                         continue;
1491                 }
1492
1493                 /* Then check if the value in the MP table is acceptable */
1494                 if (io_apic_id_acceptable(apic, IO_TO_ID(apic)))
1495                         continue;
1496
1497                 /* Last resort, find a free APIC ID and use it */
1498                 freeid = first_free_apic_id();
1499                 if (freeid >= NAPICID)
1500                         panic("No free physical APIC IDs found");
1501                 
1502                 if (io_apic_id_acceptable(apic, freeid)) {
1503                         swap_apic_id(apic, IO_TO_ID(apic), freeid);
1504                         continue;
1505                 }
1506                 panic("Free physical APIC ID not usable");
1507         }
1508         fix_id_to_io_mapping();
1509
1510         /* detect and fix broken Compaq MP table */
1511         if (apic_int_type(0, 0) == -1) {
1512                 kprintf("APIC_IO: MP table broken: 8259->APIC entry missing!\n");
1513                 io_apic_ints[nintrs].int_type = 3;      /* ExtInt */
1514                 io_apic_ints[nintrs].int_vector = 0xff; /* Unassigned */
1515                 /* XXX fixme, set src bus id etc, but it doesn't seem to hurt */
1516                 io_apic_ints[nintrs].dst_apic_id = IO_TO_ID(0);
1517                 io_apic_ints[nintrs].dst_apic_int = 0;  /* Pin 0 */
1518                 nintrs++;
1519         } else if (apic_int_type(0, 0) == 0) {
1520                 kprintf("APIC_IO: MP table broken: ExtINT entry corrupt!\n");
1521                 for (x = 0; x < nintrs; ++x)
1522                         if ((0 == ID_TO_IO(io_apic_ints[x].dst_apic_id)) &&
1523                             (0 == io_apic_ints[x].dst_apic_int)) {
1524                                 io_apic_ints[x].int_type = 3;
1525                                 io_apic_ints[x].int_vector = 0xff;
1526                                 break;
1527                         }
1528         }
1529
1530         /*
1531          * Fix missing IRQ 15 when IRQ 14 is an ISA interrupt.  IDE
1532          * controllers universally come in pairs.  If IRQ 14 is specified
1533          * as an ISA interrupt, then IRQ 15 had better be too.
1534          *
1535          * [ Shuttle XPC / AMD Athlon X2 ]
1536          *      The MPTable is missing an entry for IRQ 15.  Note that the
1537          *      ACPI table has an entry for both 14 and 15.
1538          */
1539         if (apic_int_type(0, 14) == 0 && apic_int_type(0, 15) == -1) {
1540                 kprintf("APIC_IO: MP table broken: IRQ 15 not ISA when IRQ 14 is!\n");
1541                 io14 = io_apic_find_int_entry(0, 14);
1542                 io_apic_ints[nintrs] = *io14;
1543                 io_apic_ints[nintrs].src_bus_irq = 15;
1544                 io_apic_ints[nintrs].dst_apic_int = 15;
1545                 nintrs++;
1546         }
1547 }
1548
1549 /* Assign low level interrupt handlers */
1550 static void
1551 setup_apic_irq_mapping(void)
1552 {
1553         int     x;
1554         int     int_vector;
1555
1556         /* Clear array */
1557         for (x = 0; x < APIC_INTMAPSIZE; x++) {
1558                 int_to_apicintpin[x].ioapic = -1;
1559                 int_to_apicintpin[x].int_pin = 0;
1560                 int_to_apicintpin[x].apic_address = NULL;
1561                 int_to_apicintpin[x].redirindex = 0;
1562
1563                 /* Default to masked */
1564                 int_to_apicintpin[x].flags = AIMI_FLAG_MASKED;
1565         }
1566
1567         /* First assign ISA/EISA interrupts */
1568         for (x = 0; x < nintrs; x++) {
1569                 int_vector = io_apic_ints[x].src_bus_irq;
1570                 if (int_vector < APIC_INTMAPSIZE &&
1571                     io_apic_ints[x].int_vector == 0xff && 
1572                     int_to_apicintpin[int_vector].ioapic == -1 &&
1573                     (apic_int_is_bus_type(x, ISA) ||
1574                      apic_int_is_bus_type(x, EISA)) &&
1575                     io_apic_ints[x].int_type == 0) {
1576                         assign_apic_irq(ID_TO_IO(io_apic_ints[x].dst_apic_id), 
1577                                         io_apic_ints[x].dst_apic_int,
1578                                         int_vector);
1579                 }
1580         }
1581
1582         /* Assign ExtInt entry if no ISA/EISA interrupt 0 entry */
1583         for (x = 0; x < nintrs; x++) {
1584                 if (io_apic_ints[x].dst_apic_int == 0 &&
1585                     io_apic_ints[x].dst_apic_id == IO_TO_ID(0) &&
1586                     io_apic_ints[x].int_vector == 0xff && 
1587                     int_to_apicintpin[0].ioapic == -1 &&
1588                     io_apic_ints[x].int_type == 3) {
1589                         assign_apic_irq(0, 0, 0);
1590                         break;
1591                 }
1592         }
1593
1594         /* Assign PCI interrupts */
1595         for (x = 0; x < nintrs; ++x) {
1596                 if (io_apic_ints[x].int_type == 0 &&
1597                     io_apic_ints[x].int_vector == 0xff && 
1598                     apic_int_is_bus_type(x, PCI))
1599                         allocate_apic_irq(x);
1600         }
1601 }
1602
1603 #endif
1604
1605 void
1606 mp_set_cpuids(int cpu_id, int apic_id)
1607 {
1608         CPU_TO_ID(cpu_id) = apic_id;
1609         ID_TO_CPU(apic_id) = cpu_id;
1610 }
1611
1612 static int
1613 processor_entry(const struct PROCENTRY *entry, int cpu)
1614 {
1615         KKASSERT(cpu > 0);
1616
1617         /* check for usability */
1618         if (!(entry->cpu_flags & PROCENTRY_FLAG_EN))
1619                 return 0;
1620
1621         /* check for BSP flag */
1622         if (entry->cpu_flags & PROCENTRY_FLAG_BP) {
1623                 mp_set_cpuids(0, entry->apic_id);
1624                 return 0;       /* its already been counted */
1625         }
1626
1627         /* add another AP to list, if less than max number of CPUs */
1628         else if (cpu < MAXCPU) {
1629                 mp_set_cpuids(cpu, entry->apic_id);
1630                 return 1;
1631         }
1632
1633         return 0;
1634 }
1635
1636 #ifdef APIC_IO
1637
1638 static int
1639 bus_entry(const struct BUSENTRY *entry, int bus)
1640 {
1641         int     x;
1642         char    c, name[8];
1643
1644         /* encode the name into an index */
1645         for (x = 0; x < 6; ++x) {
1646                 if ((c = entry->bus_type[x]) == ' ')
1647                         break;
1648                 name[x] = c;
1649         }
1650         name[x] = '\0';
1651
1652         if ((x = lookup_bus_type(name)) == UNKNOWN_BUSTYPE)
1653                 panic("unknown bus type: '%s'", name);
1654
1655         bus_data[bus].bus_id = entry->bus_id;
1656         bus_data[bus].bus_type = x;
1657
1658         return 1;
1659 }
1660
1661 static int
1662 io_apic_entry(const struct IOAPICENTRY *entry, int apic)
1663 {
1664         if (!(entry->apic_flags & IOAPICENTRY_FLAG_EN))
1665                 return 0;
1666
1667         IO_TO_ID(apic) = entry->apic_id;
1668         ID_TO_IO(entry->apic_id) = apic;
1669
1670         return 1;
1671 }
1672
1673 static int
1674 lookup_bus_type(char *name)
1675 {
1676         int     x;
1677
1678         for (x = 0; x < MAX_BUSTYPE; ++x)
1679                 if (strcmp(bus_type_table[x].name, name) == 0)
1680                         return bus_type_table[x].type;
1681
1682         return UNKNOWN_BUSTYPE;
1683 }
1684
1685 static int
1686 int_entry(const struct INTENTRY *entry, int intr)
1687 {
1688         int apic;
1689
1690         io_apic_ints[intr].int_type = entry->int_type;
1691         io_apic_ints[intr].int_flags = entry->int_flags;
1692         io_apic_ints[intr].src_bus_id = entry->src_bus_id;
1693         io_apic_ints[intr].src_bus_irq = entry->src_bus_irq;
1694         if (entry->dst_apic_id == 255) {
1695                 /* This signal goes to all IO APICS.  Select an IO APIC
1696                    with sufficient number of interrupt pins */
1697                 for (apic = 0; apic < mp_napics; apic++)
1698                         if (((io_apic_read(apic, IOAPIC_VER) & 
1699                               IOART_VER_MAXREDIR) >> MAXREDIRSHIFT) >= 
1700                             entry->dst_apic_int)
1701                                 break;
1702                 if (apic < mp_napics)
1703                         io_apic_ints[intr].dst_apic_id = IO_TO_ID(apic);
1704                 else
1705                         io_apic_ints[intr].dst_apic_id = entry->dst_apic_id;
1706         } else
1707                 io_apic_ints[intr].dst_apic_id = entry->dst_apic_id;
1708         io_apic_ints[intr].dst_apic_int = entry->dst_apic_int;
1709
1710         return 1;
1711 }
1712
1713 static int
1714 apic_int_is_bus_type(int intr, int bus_type)
1715 {
1716         int     bus;
1717
1718         for (bus = 0; bus < mp_nbusses; ++bus)
1719                 if ((bus_data[bus].bus_id == io_apic_ints[intr].src_bus_id)
1720                     && ((int) bus_data[bus].bus_type == bus_type))
1721                         return 1;
1722
1723         return 0;
1724 }
1725
1726 /*
1727  * Given a traditional ISA INT mask, return an APIC mask.
1728  */
1729 u_int
1730 isa_apic_mask(u_int isa_mask)
1731 {
1732         int isa_irq;
1733         int apic_pin;
1734
1735 #if defined(SKIP_IRQ15_REDIRECT)
1736         if (isa_mask == (1 << 15)) {
1737                 kprintf("skipping ISA IRQ15 redirect\n");
1738                 return isa_mask;
1739         }
1740 #endif  /* SKIP_IRQ15_REDIRECT */
1741
1742         isa_irq = ffs(isa_mask);                /* find its bit position */
1743         if (isa_irq == 0)                       /* doesn't exist */
1744                 return 0;
1745         --isa_irq;                              /* make it zero based */
1746
1747         apic_pin = isa_apic_irq(isa_irq);       /* look for APIC connection */
1748         if (apic_pin == -1)
1749                 return 0;
1750
1751         return (1 << apic_pin);                 /* convert pin# to a mask */
1752 }
1753
1754 /*
1755  * Determine which APIC pin an ISA/EISA INT is attached to.
1756  */
1757 #define INTTYPE(I)      (io_apic_ints[(I)].int_type)
1758 #define INTPIN(I)       (io_apic_ints[(I)].dst_apic_int)
1759 #define INTIRQ(I)       (io_apic_ints[(I)].int_vector)
1760 #define INTAPIC(I)      (ID_TO_IO(io_apic_ints[(I)].dst_apic_id))
1761
1762 #define SRCBUSIRQ(I)    (io_apic_ints[(I)].src_bus_irq)
1763 int
1764 isa_apic_irq(int isa_irq)
1765 {
1766         int     intr;
1767
1768         for (intr = 0; intr < nintrs; ++intr) {         /* check each record */
1769                 if (INTTYPE(intr) == 0) {               /* standard INT */
1770                         if (SRCBUSIRQ(intr) == isa_irq) {
1771                                 if (apic_int_is_bus_type(intr, ISA) ||
1772                                     apic_int_is_bus_type(intr, EISA)) {
1773                                         if (INTIRQ(intr) == 0xff)
1774                                                 return -1; /* unassigned */
1775                                         return INTIRQ(intr);    /* found */
1776                                 }
1777                         }
1778                 }
1779         }
1780         return -1;                                      /* NOT found */
1781 }
1782
1783
1784 /*
1785  * Determine which APIC pin a PCI INT is attached to.
1786  */
1787 #define SRCBUSID(I)     (io_apic_ints[(I)].src_bus_id)
1788 #define SRCBUSDEVICE(I) ((io_apic_ints[(I)].src_bus_irq >> 2) & 0x1f)
1789 #define SRCBUSLINE(I)   (io_apic_ints[(I)].src_bus_irq & 0x03)
1790 int
1791 pci_apic_irq(int pciBus, int pciDevice, int pciInt)
1792 {
1793         int     intr;
1794
1795         --pciInt;                                       /* zero based */
1796
1797         for (intr = 0; intr < nintrs; ++intr) {         /* check each record */
1798                 if ((INTTYPE(intr) == 0)                /* standard INT */
1799                     && (SRCBUSID(intr) == pciBus)
1800                     && (SRCBUSDEVICE(intr) == pciDevice)
1801                     && (SRCBUSLINE(intr) == pciInt)) {  /* a candidate IRQ */
1802                         if (apic_int_is_bus_type(intr, PCI)) {
1803                                 if (INTIRQ(intr) == 0xff) {
1804                                         kprintf("IOAPIC: pci_apic_irq() "
1805                                                 "failed\n");
1806                                         return -1;      /* unassigned */
1807                                 }
1808                                 return INTIRQ(intr);    /* exact match */
1809                         }
1810                 }
1811         }
1812
1813         return -1;                                      /* NOT found */
1814 }
1815
1816 int
1817 next_apic_irq(int irq) 
1818 {
1819         int intr, ointr;
1820         int bus, bustype;
1821
1822         bus = 0;
1823         bustype = 0;
1824         for (intr = 0; intr < nintrs; intr++) {
1825                 if (INTIRQ(intr) != irq || INTTYPE(intr) != 0)
1826                         continue;
1827                 bus = SRCBUSID(intr);
1828                 bustype = apic_bus_type(bus);
1829                 if (bustype != ISA &&
1830                     bustype != EISA &&
1831                     bustype != PCI)
1832                         continue;
1833                 break;
1834         }
1835         if (intr >= nintrs) {
1836                 return -1;
1837         }
1838         for (ointr = intr + 1; ointr < nintrs; ointr++) {
1839                 if (INTTYPE(ointr) != 0)
1840                         continue;
1841                 if (bus != SRCBUSID(ointr))
1842                         continue;
1843                 if (bustype == PCI) {
1844                         if (SRCBUSDEVICE(intr) != SRCBUSDEVICE(ointr))
1845                                 continue;
1846                         if (SRCBUSLINE(intr) != SRCBUSLINE(ointr))
1847                                 continue;
1848                 }
1849                 if (bustype == ISA || bustype == EISA) {
1850                         if (SRCBUSIRQ(intr) != SRCBUSIRQ(ointr))
1851                                 continue;
1852                 }
1853                 if (INTPIN(intr) == INTPIN(ointr))
1854                         continue;
1855                 break;
1856         }
1857         if (ointr >= nintrs) {
1858                 return -1;
1859         }
1860         return INTIRQ(ointr);
1861 }
1862 #undef SRCBUSLINE
1863 #undef SRCBUSDEVICE
1864 #undef SRCBUSID
1865 #undef SRCBUSIRQ
1866
1867 #undef INTPIN
1868 #undef INTIRQ
1869 #undef INTAPIC
1870 #undef INTTYPE
1871
1872 #endif
1873
1874 /*
1875  * Reprogram the MB chipset to NOT redirect an ISA INTerrupt.
1876  *
1877  * XXX FIXME:
1878  *  Exactly what this means is unclear at this point.  It is a solution
1879  *  for motherboards that redirect the MBIRQ0 pin.  Generically a motherboard
1880  *  could route any of the ISA INTs to upper (>15) IRQ values.  But most would
1881  *  NOT be redirected via MBIRQ0, thus "undirect()ing" them would NOT be an
1882  *  option.
1883  */
1884 int
1885 undirect_isa_irq(int rirq)
1886 {
1887 #if defined(READY)
1888         if (bootverbose)
1889             kprintf("Freeing redirected ISA irq %d.\n", rirq);
1890         /** FIXME: tickle the MB redirector chip */
1891         return /* XXX */;
1892 #else
1893         if (bootverbose)
1894             kprintf("Freeing (NOT implemented) redirected ISA irq %d.\n", rirq);
1895         return 0;
1896 #endif  /* READY */
1897 }
1898
1899
1900 /*
1901  * Reprogram the MB chipset to NOT redirect a PCI INTerrupt
1902  */
1903 int
1904 undirect_pci_irq(int rirq)
1905 {
1906 #if defined(READY)
1907         if (bootverbose)
1908                 kprintf("Freeing redirected PCI irq %d.\n", rirq);
1909
1910         /** FIXME: tickle the MB redirector chip */
1911         return /* XXX */;
1912 #else
1913         if (bootverbose)
1914                 kprintf("Freeing (NOT implemented) redirected PCI irq %d.\n",
1915                        rirq);
1916         return 0;
1917 #endif  /* READY */
1918 }
1919
1920
1921 #ifdef APIC_IO
1922
1923 /*
1924  * given a bus ID, return:
1925  *  the bus type if found
1926  *  -1 if NOT found
1927  */
1928 int
1929 apic_bus_type(int id)
1930 {
1931         int     x;
1932
1933         for (x = 0; x < mp_nbusses; ++x)
1934                 if (bus_data[x].bus_id == id)
1935                         return bus_data[x].bus_type;
1936
1937         return -1;
1938 }
1939
1940 /*
1941  * given a LOGICAL APIC# and pin#, return:
1942  *  the associated src bus ID if found
1943  *  -1 if NOT found
1944  */
1945 int
1946 apic_src_bus_id(int apic, int pin)
1947 {
1948         int     x;
1949
1950         /* search each of the possible INTerrupt sources */
1951         for (x = 0; x < nintrs; ++x)
1952                 if ((apic == ID_TO_IO(io_apic_ints[x].dst_apic_id)) &&
1953                     (pin == io_apic_ints[x].dst_apic_int))
1954                         return (io_apic_ints[x].src_bus_id);
1955
1956         return -1;              /* NOT found */
1957 }
1958
1959 /*
1960  * given a LOGICAL APIC# and pin#, return:
1961  *  the associated src bus IRQ if found
1962  *  -1 if NOT found
1963  */
1964 int
1965 apic_src_bus_irq(int apic, int pin)
1966 {
1967         int     x;
1968
1969         for (x = 0; x < nintrs; x++)
1970                 if ((apic == ID_TO_IO(io_apic_ints[x].dst_apic_id)) &&
1971                     (pin == io_apic_ints[x].dst_apic_int))
1972                         return (io_apic_ints[x].src_bus_irq);
1973
1974         return -1;              /* NOT found */
1975 }
1976
1977
1978 /*
1979  * given a LOGICAL APIC# and pin#, return:
1980  *  the associated INTerrupt type if found
1981  *  -1 if NOT found
1982  */
1983 int
1984 apic_int_type(int apic, int pin)
1985 {
1986         int     x;
1987
1988         /* search each of the possible INTerrupt sources */
1989         for (x = 0; x < nintrs; ++x) {
1990                 if ((apic == ID_TO_IO(io_apic_ints[x].dst_apic_id)) &&
1991                     (pin == io_apic_ints[x].dst_apic_int))
1992                         return (io_apic_ints[x].int_type);
1993         }
1994         return -1;              /* NOT found */
1995 }
1996
1997 /*
1998  * Return the IRQ associated with an APIC pin
1999  */
2000 int 
2001 apic_irq(int apic, int pin)
2002 {
2003         int x;
2004         int res;
2005
2006         for (x = 0; x < nintrs; ++x) {
2007                 if ((apic == ID_TO_IO(io_apic_ints[x].dst_apic_id)) &&
2008                     (pin == io_apic_ints[x].dst_apic_int)) {
2009                         res = io_apic_ints[x].int_vector;
2010                         if (res == 0xff)
2011                                 return -1;
2012                         if (apic != int_to_apicintpin[res].ioapic)
2013                                 panic("apic_irq: inconsistent table %d/%d", apic, int_to_apicintpin[res].ioapic);
2014                         if (pin != int_to_apicintpin[res].int_pin)
2015                                 panic("apic_irq inconsistent table (2)");
2016                         return res;
2017                 }
2018         }
2019         return -1;
2020 }
2021
2022
2023 /*
2024  * given a LOGICAL APIC# and pin#, return:
2025  *  the associated trigger mode if found
2026  *  -1 if NOT found
2027  */
2028 int
2029 apic_trigger(int apic, int pin)
2030 {
2031         int     x;
2032
2033         /* search each of the possible INTerrupt sources */
2034         for (x = 0; x < nintrs; ++x)
2035                 if ((apic == ID_TO_IO(io_apic_ints[x].dst_apic_id)) &&
2036                     (pin == io_apic_ints[x].dst_apic_int))
2037                         return ((io_apic_ints[x].int_flags >> 2) & 0x03);
2038
2039         return -1;              /* NOT found */
2040 }
2041
2042
2043 /*
2044  * given a LOGICAL APIC# and pin#, return:
2045  *  the associated 'active' level if found
2046  *  -1 if NOT found
2047  */
2048 int
2049 apic_polarity(int apic, int pin)
2050 {
2051         int     x;
2052
2053         /* search each of the possible INTerrupt sources */
2054         for (x = 0; x < nintrs; ++x)
2055                 if ((apic == ID_TO_IO(io_apic_ints[x].dst_apic_id)) &&
2056                     (pin == io_apic_ints[x].dst_apic_int))
2057                         return (io_apic_ints[x].int_flags & 0x03);
2058
2059         return -1;              /* NOT found */
2060 }
2061
2062 /*
2063  * set data according to MP defaults
2064  * FIXME: probably not complete yet...
2065  */
2066 static void
2067 mptable_default(int type)
2068 {
2069         int     io_apic_id;
2070         int     pin;
2071
2072 #if 0
2073         kprintf("  MP default config type: %d\n", type);
2074         switch (type) {
2075         case 1:
2076                 kprintf("   bus: ISA, APIC: 82489DX\n");
2077                 break;
2078         case 2:
2079                 kprintf("   bus: EISA, APIC: 82489DX\n");
2080                 break;
2081         case 3:
2082                 kprintf("   bus: EISA, APIC: 82489DX\n");
2083                 break;
2084         case 4:
2085                 kprintf("   bus: MCA, APIC: 82489DX\n");
2086                 break;
2087         case 5:
2088                 kprintf("   bus: ISA+PCI, APIC: Integrated\n");
2089                 break;
2090         case 6:
2091                 kprintf("   bus: EISA+PCI, APIC: Integrated\n");
2092                 break;
2093         case 7:
2094                 kprintf("   bus: MCA+PCI, APIC: Integrated\n");
2095                 break;
2096         default:
2097                 kprintf("   future type\n");
2098                 break;
2099                 /* NOTREACHED */
2100         }
2101 #endif  /* 0 */
2102
2103         /* one and only IO APIC */
2104         io_apic_id = (io_apic_read(0, IOAPIC_ID) & APIC_ID_MASK) >> 24;
2105
2106         /*
2107          * sanity check, refer to MP spec section 3.6.6, last paragraph
2108          * necessary as some hardware isn't properly setting up the IO APIC
2109          */
2110 #if defined(REALLY_ANAL_IOAPICID_VALUE)
2111         if (io_apic_id != 2) {
2112 #else
2113         if ((io_apic_id == 0) || (io_apic_id == 1) || (io_apic_id == 15)) {
2114 #endif  /* REALLY_ANAL_IOAPICID_VALUE */
2115                 io_apic_set_id(0, 2);
2116                 io_apic_id = 2;
2117         }
2118         IO_TO_ID(0) = io_apic_id;
2119         ID_TO_IO(io_apic_id) = 0;
2120
2121         /* fill out bus entries */
2122         switch (type) {
2123         case 1:
2124         case 2:
2125         case 3:
2126         case 4:
2127         case 5:
2128         case 6:
2129         case 7:
2130                 bus_data[0].bus_id = default_data[type - 1][1];
2131                 bus_data[0].bus_type = default_data[type - 1][2];
2132                 bus_data[1].bus_id = default_data[type - 1][3];
2133                 bus_data[1].bus_type = default_data[type - 1][4];
2134                 break;
2135
2136         /* case 4: case 7:                 MCA NOT supported */
2137         default:                /* illegal/reserved */
2138                 panic("BAD default MP config: %d", type);
2139                 /* NOTREACHED */
2140         }
2141
2142         /* general cases from MP v1.4, table 5-2 */
2143         for (pin = 0; pin < 16; ++pin) {
2144                 io_apic_ints[pin].int_type = 0;
2145                 io_apic_ints[pin].int_flags = 0x05;     /* edge/active-hi */
2146                 io_apic_ints[pin].src_bus_id = 0;
2147                 io_apic_ints[pin].src_bus_irq = pin;    /* IRQ2 caught below */
2148                 io_apic_ints[pin].dst_apic_id = io_apic_id;
2149                 io_apic_ints[pin].dst_apic_int = pin;   /* 1-to-1 */
2150         }
2151
2152         /* special cases from MP v1.4, table 5-2 */
2153         if (type == 2) {
2154                 io_apic_ints[2].int_type = 0xff;        /* N/C */
2155                 io_apic_ints[13].int_type = 0xff;       /* N/C */
2156 #if !defined(APIC_MIXED_MODE)
2157                 /** FIXME: ??? */
2158                 panic("sorry, can't support type 2 default yet");
2159 #endif  /* APIC_MIXED_MODE */
2160         }
2161         else
2162                 io_apic_ints[2].src_bus_irq = 0;        /* ISA IRQ0 is on APIC INT 2 */
2163
2164         if (type == 7)
2165                 io_apic_ints[0].int_type = 0xff;        /* N/C */
2166         else
2167                 io_apic_ints[0].int_type = 3;   /* vectored 8259 */
2168 }
2169
2170 #endif  /* APIC_IO */
2171
2172 /*
2173  * Map a physical memory address representing I/O into KVA.  The I/O
2174  * block is assumed not to cross a page boundary.
2175  */
2176 void *
2177 permanent_io_mapping(vm_paddr_t pa)
2178 {
2179         KKASSERT(pa < 0x100000000LL);
2180
2181         return pmap_mapdev_uncacheable(pa, PAGE_SIZE);
2182 }
2183
2184 /*
2185  * start each AP in our list
2186  */
2187 static int
2188 start_all_aps(u_int boot_addr)
2189 {
2190         vm_offset_t va = boot_address + KERNBASE;
2191         u_int64_t *pt4, *pt3, *pt2;
2192         int     x, i, pg;
2193         int     shift;
2194         int     smicount;
2195         int     smibest;
2196         int     smilast;
2197         u_char  mpbiosreason;
2198         u_long  mpbioswarmvec;
2199         struct mdglobaldata *gd;
2200         struct privatespace *ps;
2201
2202         POSTCODE(START_ALL_APS_POST);
2203
2204         /* Initialize BSP's local APIC */
2205         apic_initialize(TRUE);
2206
2207         /* install the AP 1st level boot code */
2208         pmap_kenter(va, boot_address);
2209         cpu_invlpg((void *)va);         /* JG XXX */
2210         bcopy(mptramp_start, (void *)va, bootMP_size);
2211
2212         /* Locate the page tables, they'll be below the trampoline */
2213         pt4 = (u_int64_t *)(uintptr_t)(mptramp_pagetables + KERNBASE);
2214         pt3 = pt4 + (PAGE_SIZE) / sizeof(u_int64_t);
2215         pt2 = pt3 + (PAGE_SIZE) / sizeof(u_int64_t);
2216
2217         /* Create the initial 1GB replicated page tables */
2218         for (i = 0; i < 512; i++) {
2219                 /* Each slot of the level 4 pages points to the same level 3 page */
2220                 pt4[i] = (u_int64_t)(uintptr_t)(mptramp_pagetables + PAGE_SIZE);
2221                 pt4[i] |= PG_V | PG_RW | PG_U;
2222
2223                 /* Each slot of the level 3 pages points to the same level 2 page */
2224                 pt3[i] = (u_int64_t)(uintptr_t)(mptramp_pagetables + (2 * PAGE_SIZE));
2225                 pt3[i] |= PG_V | PG_RW | PG_U;
2226
2227                 /* The level 2 page slots are mapped with 2MB pages for 1GB. */
2228                 pt2[i] = i * (2 * 1024 * 1024);
2229                 pt2[i] |= PG_V | PG_RW | PG_PS | PG_U;
2230         }
2231
2232         /* save the current value of the warm-start vector */
2233         mpbioswarmvec = *((u_int32_t *) WARMBOOT_OFF);
2234         outb(CMOS_REG, BIOS_RESET);
2235         mpbiosreason = inb(CMOS_DATA);
2236
2237         /* setup a vector to our boot code */
2238         *((volatile u_short *) WARMBOOT_OFF) = WARMBOOT_TARGET;
2239         *((volatile u_short *) WARMBOOT_SEG) = (boot_address >> 4);
2240         outb(CMOS_REG, BIOS_RESET);
2241         outb(CMOS_DATA, BIOS_WARM);     /* 'warm-start' */
2242
2243         /*
2244          * If we have a TSC we can figure out the SMI interrupt rate.
2245          * The SMI does not necessarily use a constant rate.  Spend
2246          * up to 250ms trying to figure it out.
2247          */
2248         smibest = 0;
2249         if (cpu_feature & CPUID_TSC) {
2250                 set_apic_timer(275000);
2251                 smilast = read_apic_timer();
2252                 for (x = 0; x < 20 && read_apic_timer(); ++x) {
2253                         smicount = smitest();
2254                         if (smibest == 0 || smilast - smicount < smibest)
2255                                 smibest = smilast - smicount;
2256                         smilast = smicount;
2257                 }
2258                 if (smibest > 250000)
2259                         smibest = 0;
2260                 if (smibest) {
2261                         smibest = smibest * (int64_t)1000000 /
2262                                   get_apic_timer_frequency();
2263                 }
2264         }
2265         if (smibest)
2266                 kprintf("SMI Frequency (worst case): %d Hz (%d us)\n",
2267                         1000000 / smibest, smibest);
2268
2269         /* start each AP */
2270         for (x = 1; x <= mp_naps; ++x) {
2271
2272                 /* This is a bit verbose, it will go away soon.  */
2273
2274                 /* first page of AP's private space */
2275                 pg = x * x86_64_btop(sizeof(struct privatespace));
2276
2277                 /* allocate new private data page(s) */
2278                 gd = (struct mdglobaldata *)kmem_alloc(&kernel_map, 
2279                                 MDGLOBALDATA_BASEALLOC_SIZE);
2280
2281                 gd = &CPU_prvspace[x].mdglobaldata;     /* official location */
2282                 bzero(gd, sizeof(*gd));
2283                 gd->mi.gd_prvspace = ps = &CPU_prvspace[x];
2284
2285                 /* prime data page for it to use */
2286                 mi_gdinit(&gd->mi, x);
2287                 cpu_gdinit(gd, x);
2288                 gd->gd_CMAP1 = &SMPpt[pg + 0];
2289                 gd->gd_CMAP2 = &SMPpt[pg + 1];
2290                 gd->gd_CMAP3 = &SMPpt[pg + 2];
2291                 gd->gd_PMAP1 = &SMPpt[pg + 3];
2292                 gd->gd_CADDR1 = ps->CPAGE1;
2293                 gd->gd_CADDR2 = ps->CPAGE2;
2294                 gd->gd_CADDR3 = ps->CPAGE3;
2295                 gd->gd_PADDR1 = (pt_entry_t *)ps->PPAGE1;
2296                 gd->mi.gd_ipiq = (void *)kmem_alloc(&kernel_map, sizeof(lwkt_ipiq) * (mp_naps + 1));
2297                 bzero(gd->mi.gd_ipiq, sizeof(lwkt_ipiq) * (mp_naps + 1));
2298
2299                 /* setup a vector to our boot code */
2300                 *((volatile u_short *) WARMBOOT_OFF) = WARMBOOT_TARGET;
2301                 *((volatile u_short *) WARMBOOT_SEG) = (boot_addr >> 4);
2302                 outb(CMOS_REG, BIOS_RESET);
2303                 outb(CMOS_DATA, BIOS_WARM);     /* 'warm-start' */
2304
2305                 /*
2306                  * Setup the AP boot stack
2307                  */
2308                 bootSTK = &ps->idlestack[UPAGES*PAGE_SIZE/2];
2309                 bootAP = x;
2310
2311                 /* attempt to start the Application Processor */
2312                 CHECK_INIT(99); /* setup checkpoints */
2313                 if (!start_ap(gd, boot_addr, smibest)) {
2314                         kprintf("AP #%d (PHY# %d) failed!\n", x, CPU_TO_ID(x));
2315                         CHECK_PRINT("trace");   /* show checkpoints */
2316                         /* better panic as the AP may be running loose */
2317                         kprintf("panic y/n? [y] ");
2318                         if (cngetc() != 'n')
2319                                 panic("bye-bye");
2320                 }
2321                 CHECK_PRINT("trace");           /* show checkpoints */
2322
2323                 /* record its version info */
2324                 cpu_apic_versions[x] = cpu_apic_versions[0];
2325         }
2326
2327         /* set ncpus to 1 + highest logical cpu.  Not all may have come up */
2328         ncpus = x;
2329
2330         /* ncpus2 -- ncpus rounded down to the nearest power of 2 */
2331         for (shift = 0; (1 << shift) <= ncpus; ++shift)
2332                 ;
2333         --shift;
2334         ncpus2_shift = shift;
2335         ncpus2 = 1 << shift;
2336         ncpus2_mask = ncpus2 - 1;
2337
2338         /* ncpus_fit -- ncpus rounded up to the nearest power of 2 */
2339         if ((1 << shift) < ncpus)
2340                 ++shift;
2341         ncpus_fit = 1 << shift;
2342         ncpus_fit_mask = ncpus_fit - 1;
2343
2344         /* build our map of 'other' CPUs */
2345         mycpu->gd_other_cpus = smp_startup_mask & ~(1 << mycpu->gd_cpuid);
2346         mycpu->gd_ipiq = (void *)kmem_alloc(&kernel_map, sizeof(lwkt_ipiq) * ncpus);
2347         bzero(mycpu->gd_ipiq, sizeof(lwkt_ipiq) * ncpus);
2348
2349         /* fill in our (BSP) APIC version */
2350         cpu_apic_versions[0] = lapic->version;
2351
2352         /* restore the warmstart vector */
2353         *(u_long *) WARMBOOT_OFF = mpbioswarmvec;
2354         outb(CMOS_REG, BIOS_RESET);
2355         outb(CMOS_DATA, mpbiosreason);
2356
2357         /*
2358          * NOTE!  The idlestack for the BSP was setup by locore.  Finish
2359          * up, clean out the P==V mapping we did earlier.
2360          */
2361         pmap_set_opt();
2362
2363         /* number of APs actually started */
2364         return ncpus - 1;
2365 }
2366
2367
2368 /*
2369  * load the 1st level AP boot code into base memory.
2370  */
2371
2372 /* targets for relocation */
2373 extern void bigJump(void);
2374 extern void bootCodeSeg(void);
2375 extern void bootDataSeg(void);
2376 extern void MPentry(void);
2377 extern u_int MP_GDT;
2378 extern u_int mp_gdtbase;
2379
2380 #if 0
2381
2382 static void
2383 install_ap_tramp(u_int boot_addr)
2384 {
2385         int     x;
2386         int     size = *(int *) ((u_long) & bootMP_size);
2387         u_char *src = (u_char *) ((u_long) bootMP);
2388         u_char *dst = (u_char *) boot_addr + KERNBASE;
2389         u_int   boot_base = (u_int) bootMP;
2390         u_int8_t *dst8;
2391         u_int16_t *dst16;
2392         u_int32_t *dst32;
2393
2394         POSTCODE(INSTALL_AP_TRAMP_POST);
2395
2396         for (x = 0; x < size; ++x)
2397                 *dst++ = *src++;
2398
2399         /*
2400          * modify addresses in code we just moved to basemem. unfortunately we
2401          * need fairly detailed info about mpboot.s for this to work.  changes
2402          * to mpboot.s might require changes here.
2403          */
2404
2405         /* boot code is located in KERNEL space */
2406         dst = (u_char *) boot_addr + KERNBASE;
2407
2408         /* modify the lgdt arg */
2409         dst32 = (u_int32_t *) (dst + ((u_int) & mp_gdtbase - boot_base));
2410         *dst32 = boot_addr + ((u_int) & MP_GDT - boot_base);
2411
2412         /* modify the ljmp target for MPentry() */
2413         dst32 = (u_int32_t *) (dst + ((u_int) bigJump - boot_base) + 1);
2414         *dst32 = ((u_int) MPentry - KERNBASE);
2415
2416         /* modify the target for boot code segment */
2417         dst16 = (u_int16_t *) (dst + ((u_int) bootCodeSeg - boot_base));
2418         dst8 = (u_int8_t *) (dst16 + 1);
2419         *dst16 = (u_int) boot_addr & 0xffff;
2420         *dst8 = ((u_int) boot_addr >> 16) & 0xff;
2421
2422         /* modify the target for boot data segment */
2423         dst16 = (u_int16_t *) (dst + ((u_int) bootDataSeg - boot_base));
2424         dst8 = (u_int8_t *) (dst16 + 1);
2425         *dst16 = (u_int) boot_addr & 0xffff;
2426         *dst8 = ((u_int) boot_addr >> 16) & 0xff;
2427 }
2428
2429 #endif
2430
2431 /*
2432  * This function starts the AP (application processor) identified
2433  * by the APIC ID 'physicalCpu'.  It does quite a "song and dance"
2434  * to accomplish this.  This is necessary because of the nuances
2435  * of the different hardware we might encounter.  It ain't pretty,
2436  * but it seems to work.
2437  *
2438  * NOTE: eventually an AP gets to ap_init(), which is called just 
2439  * before the AP goes into the LWKT scheduler's idle loop.
2440  */
2441 static int
2442 start_ap(struct mdglobaldata *gd, u_int boot_addr, int smibest)
2443 {
2444         int     physical_cpu;
2445         int     vector;
2446         u_long  icr_lo, icr_hi;
2447
2448         POSTCODE(START_AP_POST);
2449
2450         /* get the PHYSICAL APIC ID# */
2451         physical_cpu = CPU_TO_ID(gd->mi.gd_cpuid);
2452
2453         /* calculate the vector */
2454         vector = (boot_addr >> 12) & 0xff;
2455
2456         /* We don't want anything interfering */
2457         cpu_disable_intr();
2458
2459         /* Make sure the target cpu sees everything */
2460         wbinvd();
2461
2462         /*
2463          * Try to detect when a SMI has occurred, wait up to 200ms.
2464          *
2465          * If a SMI occurs during an AP reset but before we issue
2466          * the STARTUP command, the AP may brick.  To work around
2467          * this problem we hold off doing the AP startup until
2468          * after we have detected the SMI.  Hopefully another SMI
2469          * will not occur before we finish the AP startup.
2470          *
2471          * Retries don't seem to help.  SMIs have a window of opportunity
2472          * and if USB->legacy keyboard emulation is enabled in the BIOS
2473          * the interrupt rate can be quite high.
2474          *
2475          * NOTE: Don't worry about the L1 cache load, it might bloat
2476          *       ldelta a little but ndelta will be so huge when the SMI
2477          *       occurs the detection logic will still work fine.
2478          */
2479         if (smibest) {
2480                 set_apic_timer(200000);
2481                 smitest();
2482         }
2483
2484         /*
2485          * first we do an INIT/RESET IPI this INIT IPI might be run, reseting
2486          * and running the target CPU. OR this INIT IPI might be latched (P5
2487          * bug), CPU waiting for STARTUP IPI. OR this INIT IPI might be
2488          * ignored.
2489          *
2490          * see apic/apicreg.h for icr bit definitions.
2491          *
2492          * TIME CRITICAL CODE, DO NOT DO ANY KPRINTFS IN THE HOT PATH.
2493          */
2494
2495         /*
2496          * Setup the address for the target AP.  We can setup
2497          * icr_hi once and then just trigger operations with
2498          * icr_lo.
2499          */
2500         icr_hi = lapic->icr_hi & ~APIC_ID_MASK;
2501         icr_hi |= (physical_cpu << 24);
2502         icr_lo = lapic->icr_lo & 0xfff00000;
2503         lapic->icr_hi = icr_hi;
2504
2505         /*
2506          * Do an INIT IPI: assert RESET
2507          *
2508          * Use edge triggered mode to assert INIT
2509          */
2510         lapic->icr_lo = icr_lo | 0x00004500;
2511         while (lapic->icr_lo & APIC_DELSTAT_MASK)
2512                  /* spin */ ;
2513
2514         /*
2515          * The spec calls for a 10ms delay but we may have to use a
2516          * MUCH lower delay to avoid bricking an AP due to a fast SMI
2517          * interrupt.  We have other loops here too and dividing by 2
2518          * doesn't seem to be enough even after subtracting 350us,
2519          * so we divide by 4.
2520          *
2521          * Our minimum delay is 150uS, maximum is 10ms.  If no SMI
2522          * interrupt was detected we use the full 10ms.
2523          */
2524         if (smibest == 0)
2525                 u_sleep(10000);
2526         else if (smibest < 150 * 4 + 350)
2527                 u_sleep(150);
2528         else if ((smibest - 350) / 4 < 10000)
2529                 u_sleep((smibest - 350) / 4);
2530         else
2531                 u_sleep(10000);
2532
2533         /*
2534          * Do an INIT IPI: deassert RESET
2535          *
2536          * Use level triggered mode to deassert.  It is unclear
2537          * why we need to do this.
2538          */
2539         lapic->icr_lo = icr_lo | 0x00008500;
2540         while (lapic->icr_lo & APIC_DELSTAT_MASK)
2541                  /* spin */ ;
2542         u_sleep(150);                           /* wait 150us */
2543
2544         /*
2545          * Next we do a STARTUP IPI: the previous INIT IPI might still be
2546          * latched, (P5 bug) this 1st STARTUP would then terminate
2547          * immediately, and the previously started INIT IPI would continue. OR
2548          * the previous INIT IPI has already run. and this STARTUP IPI will
2549          * run. OR the previous INIT IPI was ignored. and this STARTUP IPI
2550          * will run.
2551          */
2552         lapic->icr_lo = icr_lo | 0x00000600 | vector;
2553         while (lapic->icr_lo & APIC_DELSTAT_MASK)
2554                  /* spin */ ;
2555         u_sleep(200);           /* wait ~200uS */
2556
2557         /*
2558          * Finally we do a 2nd STARTUP IPI: this 2nd STARTUP IPI should run IF
2559          * the previous STARTUP IPI was cancelled by a latched INIT IPI. OR
2560          * this STARTUP IPI will be ignored, as only ONE STARTUP IPI is
2561          * recognized after hardware RESET or INIT IPI.
2562          */
2563         lapic->icr_lo = icr_lo | 0x00000600 | vector;
2564         while (lapic->icr_lo & APIC_DELSTAT_MASK)
2565                  /* spin */ ;
2566
2567         /* Resume normal operation */
2568         cpu_enable_intr();
2569
2570         /* wait for it to start, see ap_init() */
2571         set_apic_timer(5000000);/* == 5 seconds */
2572         while (read_apic_timer()) {
2573                 if (smp_startup_mask & (1 << gd->mi.gd_cpuid))
2574                         return 1;       /* return SUCCESS */
2575         }
2576
2577         return 0;               /* return FAILURE */
2578 }
2579
2580 static
2581 int
2582 smitest(void)
2583 {
2584         int64_t ltsc;
2585         int64_t ntsc;
2586         int64_t ldelta;
2587         int64_t ndelta;
2588         int count;
2589
2590         ldelta = 0;
2591         ndelta = 0;
2592         while (read_apic_timer()) {
2593                 ltsc = rdtsc();
2594                 for (count = 0; count < 100; ++count)
2595                         ntsc = rdtsc(); /* force loop to occur */
2596                 if (ldelta) {
2597                         ndelta = ntsc - ltsc;
2598                         if (ldelta > ndelta)
2599                                 ldelta = ndelta;
2600                         if (ndelta > ldelta * 2)
2601                                 break;
2602                 } else {
2603                         ldelta = ntsc - ltsc;
2604                 }
2605         }
2606         return(read_apic_timer());
2607 }
2608
2609 /*
2610  * Synchronously flush the TLB on all other CPU's.  The current cpu's
2611  * TLB is not flushed.  If the caller wishes to flush the current cpu's
2612  * TLB the caller must call cpu_invltlb() in addition to smp_invltlb().
2613  *
2614  * NOTE: If for some reason we were unable to start all cpus we cannot
2615  *       safely use broadcast IPIs.
2616  */
2617
2618 static cpumask_t smp_invltlb_req;
2619
2620 #define SMP_INVLTLB_DEBUG
2621
2622 void
2623 smp_invltlb(void)
2624 {
2625 #ifdef SMP
2626         struct mdglobaldata *md = mdcpu;
2627 #ifdef SMP_INVLTLB_DEBUG
2628         long count = 0;
2629         long xcount = 0;
2630 #endif
2631
2632         crit_enter_gd(&md->mi);
2633         md->gd_invltlb_ret = 0;
2634         ++md->mi.gd_cnt.v_smpinvltlb;
2635         atomic_set_int(&smp_invltlb_req, md->mi.gd_cpumask);
2636 #ifdef SMP_INVLTLB_DEBUG
2637 again:
2638 #endif
2639         if (smp_startup_mask == smp_active_mask) {
2640                 all_but_self_ipi(XINVLTLB_OFFSET);
2641         } else {
2642                 selected_apic_ipi(smp_active_mask & ~md->mi.gd_cpumask,
2643                                   XINVLTLB_OFFSET, APIC_DELMODE_FIXED);
2644         }
2645
2646 #ifdef SMP_INVLTLB_DEBUG
2647         if (xcount)
2648                 kprintf("smp_invltlb: ipi sent\n");
2649 #endif
2650         while ((md->gd_invltlb_ret & smp_active_mask & ~md->mi.gd_cpumask) !=
2651                (smp_active_mask & ~md->mi.gd_cpumask)) {
2652                 cpu_mfence();
2653                 cpu_pause();
2654 #ifdef SMP_INVLTLB_DEBUG
2655                 /* DEBUGGING */
2656                 if (++count == 400000000) {
2657                         print_backtrace(-1);
2658                         kprintf("smp_invltlb: endless loop %08lx %08lx, "
2659                                 "rflags %016jx retry",
2660                               (long)md->gd_invltlb_ret,
2661                               (long)smp_invltlb_req,
2662                               (intmax_t)read_rflags());
2663                         __asm __volatile ("sti");
2664                         ++xcount;
2665                         if (xcount > 2)
2666                                 lwkt_process_ipiq();
2667                         if (xcount > 3) {
2668                                 int bcpu = bsfl(~md->gd_invltlb_ret & ~md->mi.gd_cpumask & smp_active_mask);
2669                                 globaldata_t xgd;
2670
2671                                 kprintf("bcpu %d\n", bcpu);
2672                                 xgd = globaldata_find(bcpu);
2673                                 kprintf("thread %p %s\n", xgd->gd_curthread, xgd->gd_curthread->td_comm);
2674                         }
2675                         if (xcount > 5)
2676                                 Debugger("giving up");
2677                         count = 0;
2678                         goto again;
2679                 }
2680 #endif
2681         }
2682         atomic_clear_int(&smp_invltlb_req, md->mi.gd_cpumask);
2683         crit_exit_gd(&md->mi);
2684 #endif
2685 }
2686
2687 #ifdef SMP
2688
2689 /*
2690  * Called from Xinvltlb assembly with interrupts disabled.  We didn't
2691  * bother to bump the critical section count or nested interrupt count
2692  * so only do very low level operations here.
2693  */
2694 void
2695 smp_invltlb_intr(void)
2696 {
2697         struct mdglobaldata *md = mdcpu;
2698         struct mdglobaldata *omd;
2699         cpumask_t mask;
2700         int cpu;
2701
2702         cpu_mfence();
2703         mask = smp_invltlb_req;
2704         cpu_invltlb();
2705         while (mask) {
2706                 cpu = bsfl(mask);
2707                 mask &= ~(1 << cpu);
2708                 omd = (struct mdglobaldata *)globaldata_find(cpu);
2709                 atomic_set_int(&omd->gd_invltlb_ret, md->mi.gd_cpumask);
2710         }
2711 }
2712
2713 #endif
2714
2715 /*
2716  * When called the executing CPU will send an IPI to all other CPUs
2717  *  requesting that they halt execution.
2718  *
2719  * Usually (but not necessarily) called with 'other_cpus' as its arg.
2720  *
2721  *  - Signals all CPUs in map to stop.
2722  *  - Waits for each to stop.
2723  *
2724  * Returns:
2725  *  -1: error
2726  *   0: NA
2727  *   1: ok
2728  *
2729  * XXX FIXME: this is not MP-safe, needs a lock to prevent multiple CPUs
2730  *            from executing at same time.
2731  */
2732 int
2733 stop_cpus(u_int map)
2734 {
2735         map &= smp_active_mask;
2736
2737         /* send the Xcpustop IPI to all CPUs in map */
2738         selected_apic_ipi(map, XCPUSTOP_OFFSET, APIC_DELMODE_FIXED);
2739         
2740         while ((stopped_cpus & map) != map)
2741                 /* spin */ ;
2742
2743         return 1;
2744 }
2745
2746
2747 /*
2748  * Called by a CPU to restart stopped CPUs. 
2749  *
2750  * Usually (but not necessarily) called with 'stopped_cpus' as its arg.
2751  *
2752  *  - Signals all CPUs in map to restart.
2753  *  - Waits for each to restart.
2754  *
2755  * Returns:
2756  *  -1: error
2757  *   0: NA
2758  *   1: ok
2759  */
2760 int
2761 restart_cpus(u_int map)
2762 {
2763         /* signal other cpus to restart */
2764         started_cpus = map & smp_active_mask;
2765
2766         while ((stopped_cpus & map) != 0) /* wait for each to clear its bit */
2767                 /* spin */ ;
2768
2769         return 1;
2770 }
2771
2772 /*
2773  * This is called once the mpboot code has gotten us properly relocated
2774  * and the MMU turned on, etc.   ap_init() is actually the idle thread,
2775  * and when it returns the scheduler will call the real cpu_idle() main
2776  * loop for the idlethread.  Interrupts are disabled on entry and should
2777  * remain disabled at return.
2778  */
2779 void
2780 ap_init(void)
2781 {
2782         u_int   apic_id;
2783
2784         /*
2785          * Adjust smp_startup_mask to signal the BSP that we have started
2786          * up successfully.  Note that we do not yet hold the BGL.  The BSP
2787          * is waiting for our signal.
2788          *
2789          * We can't set our bit in smp_active_mask yet because we are holding
2790          * interrupts physically disabled and remote cpus could deadlock
2791          * trying to send us an IPI.
2792          */
2793         smp_startup_mask |= 1 << mycpu->gd_cpuid;
2794         cpu_mfence();
2795
2796         /*
2797          * Interlock for finalization.  Wait until mp_finish is non-zero,
2798          * then get the MP lock.
2799          *
2800          * Note: We are in a critical section.
2801          *
2802          * Note: We have to synchronize td_mpcount to our desired MP state
2803          * before calling cpu_try_mplock().
2804          *
2805          * Note: we are the idle thread, we can only spin.
2806          *
2807          * Note: The load fence is memory volatile and prevents the compiler
2808          * from improperly caching mp_finish, and the cpu from improperly
2809          * caching it.
2810          */
2811         while (mp_finish == 0)
2812             cpu_lfence();
2813         ++curthread->td_mpcount;
2814         while (cpu_try_mplock() == 0)
2815             ;
2816
2817         if (cpu_feature & CPUID_TSC) {
2818             /*
2819              * The BSP is constantly updating tsc0_offset, figure out the
2820              * relative difference to synchronize ktrdump.
2821              */
2822             tsc_offsets[mycpu->gd_cpuid] = rdtsc() - tsc0_offset;
2823         }
2824
2825         /* BSP may have changed PTD while we're waiting for the lock */
2826         cpu_invltlb();
2827
2828 #if defined(I586_CPU) && !defined(NO_F00F_HACK)
2829         lidt(&r_idt);
2830 #endif
2831
2832         /* Build our map of 'other' CPUs. */
2833         mycpu->gd_other_cpus = smp_startup_mask & ~(1 << mycpu->gd_cpuid);
2834
2835         kprintf("SMP: AP CPU #%d Launched!\n", mycpu->gd_cpuid);
2836
2837         /* A quick check from sanity claus */
2838         apic_id = (apic_id_to_logical[(lapic->id & 0x0f000000) >> 24]);
2839         if (mycpu->gd_cpuid != apic_id) {
2840                 kprintf("SMP: cpuid = %d\n", mycpu->gd_cpuid);
2841                 kprintf("SMP: apic_id = %d\n", apic_id);
2842 #if JGXXX
2843                 kprintf("PTD[MPPTDI] = %p\n", (void *)PTD[MPPTDI]);
2844 #endif
2845                 panic("cpuid mismatch! boom!!");
2846         }
2847
2848         /* Initialize AP's local APIC for irq's */
2849         apic_initialize(FALSE);
2850
2851         /* Set memory range attributes for this CPU to match the BSP */
2852         mem_range_AP_init();
2853
2854         /*
2855          * Once we go active we must process any IPIQ messages that may
2856          * have been queued, because no actual IPI will occur until we
2857          * set our bit in the smp_active_mask.  If we don't the IPI
2858          * message interlock could be left set which would also prevent
2859          * further IPIs.
2860          *
2861          * The idle loop doesn't expect the BGL to be held and while
2862          * lwkt_switch() normally cleans things up this is a special case
2863          * because we returning almost directly into the idle loop.
2864          *
2865          * The idle thread is never placed on the runq, make sure
2866          * nothing we've done put it there.
2867          */
2868         KKASSERT(curthread->td_mpcount == 1);
2869         smp_active_mask |= 1 << mycpu->gd_cpuid;
2870
2871         /*
2872          * Enable interrupts here.  idle_restore will also do it, but
2873          * doing it here lets us clean up any strays that got posted to
2874          * the CPU during the AP boot while we are still in a critical
2875          * section.
2876          */
2877         __asm __volatile("sti; pause; pause"::);
2878         mdcpu->gd_fpending = 0;
2879
2880         initclocks_pcpu();      /* clock interrupts (via IPIs) */
2881         lwkt_process_ipiq();
2882
2883         /*
2884          * Releasing the mp lock lets the BSP finish up the SMP init
2885          */
2886         rel_mplock();
2887         KKASSERT((curthread->td_flags & TDF_RUNQ) == 0);
2888 }
2889
2890 /*
2891  * Get SMP fully working before we start initializing devices.
2892  */
2893 static
2894 void
2895 ap_finish(void)
2896 {
2897         mp_finish = 1;
2898         if (bootverbose)
2899                 kprintf("Finish MP startup\n");
2900         if (cpu_feature & CPUID_TSC)
2901                 tsc0_offset = rdtsc();
2902         tsc_offsets[0] = 0;
2903         rel_mplock();
2904         while (smp_active_mask != smp_startup_mask) {
2905                 cpu_lfence();
2906                 if (cpu_feature & CPUID_TSC)
2907                         tsc0_offset = rdtsc();
2908         }
2909         while (try_mplock() == 0)
2910                 ;
2911         if (bootverbose)
2912                 kprintf("Active CPU Mask: %08x\n", smp_active_mask);
2913 }
2914
2915 SYSINIT(finishsmp, SI_BOOT2_FINISH_SMP, SI_ORDER_FIRST, ap_finish, NULL)
2916
2917 void
2918 cpu_send_ipiq(int dcpu)
2919 {
2920         if ((1 << dcpu) & smp_active_mask)
2921                 single_apic_ipi(dcpu, XIPIQ_OFFSET, APIC_DELMODE_FIXED);
2922 }
2923
2924 #if 0   /* single_apic_ipi_passive() not working yet */
2925 /*
2926  * Returns 0 on failure, 1 on success
2927  */
2928 int
2929 cpu_send_ipiq_passive(int dcpu)
2930 {
2931         int r = 0;
2932         if ((1 << dcpu) & smp_active_mask) {
2933                 r = single_apic_ipi_passive(dcpu, XIPIQ_OFFSET,
2934                                         APIC_DELMODE_FIXED);
2935         }
2936         return(r);
2937 }
2938 #endif
2939
2940 struct mptable_lapic_cbarg1 {
2941         int     cpu_count;
2942         int     ht_fixup;
2943         u_int   ht_apicid_mask;
2944 };
2945
2946 static int
2947 mptable_lapic_pass1_callback(void *xarg, const void *pos, int type)
2948 {
2949         const struct PROCENTRY *ent;
2950         struct mptable_lapic_cbarg1 *arg = xarg;
2951
2952         if (type != 0)
2953                 return 0;
2954         ent = pos;
2955
2956         if ((ent->cpu_flags & PROCENTRY_FLAG_EN) == 0)
2957                 return 0;
2958
2959         arg->cpu_count++;
2960         if (ent->apic_id < 32) {
2961                 arg->ht_apicid_mask |= 1 << ent->apic_id;
2962         } else if (arg->ht_fixup) {
2963                 kprintf("MPTABLE: lapic id > 32, disable HTT fixup\n");
2964                 arg->ht_fixup = 0;
2965         }
2966         return 0;
2967 }
2968
2969 struct mptable_lapic_cbarg2 {
2970         int     cpu;
2971         int     logical_cpus;
2972         int     found_bsp;
2973 };
2974
2975 static int
2976 mptable_lapic_pass2_callback(void *xarg, const void *pos, int type)
2977 {
2978         const struct PROCENTRY *ent;
2979         struct mptable_lapic_cbarg2 *arg = xarg;
2980
2981         if (type != 0)
2982                 return 0;
2983         ent = pos;
2984
2985         if (ent->cpu_flags & PROCENTRY_FLAG_BP) {
2986                 KKASSERT(!arg->found_bsp);
2987                 arg->found_bsp = 1;
2988         }
2989
2990         if (processor_entry(ent, arg->cpu))
2991                 arg->cpu++;
2992
2993         if (arg->logical_cpus) {
2994                 struct PROCENTRY proc;
2995                 int i;
2996
2997                 /*
2998                  * Create fake mptable processor entries
2999                  * and feed them to processor_entry() to
3000                  * enumerate the logical CPUs.
3001                  */
3002                 bzero(&proc, sizeof(proc));
3003                 proc.type = 0;
3004                 proc.cpu_flags = PROCENTRY_FLAG_EN;
3005                 proc.apic_id = ent->apic_id;
3006
3007                 for (i = 1; i < arg->logical_cpus; i++) {
3008                         proc.apic_id++;
3009                         processor_entry(&proc, arg->cpu);
3010                         arg->cpu++;
3011                 }
3012         }
3013         return 0;
3014 }
3015
3016 static void
3017 mptable_imcr(struct mptable_pos *mpt)
3018 {
3019         /* record whether PIC or virtual-wire mode */
3020         machintr_setvar_simple(MACHINTR_VAR_IMCR_PRESENT,
3021                                mpt->mp_fps->mpfb2 & 0x80);
3022 }
3023
3024 struct mptable_lapic_enumerator {
3025         struct lapic_enumerator enumerator;
3026         vm_paddr_t              mpfps_paddr;
3027 };
3028
3029 static void
3030 mptable_lapic_default(void)
3031 {
3032         int ap_apicid, bsp_apicid;
3033
3034         mp_naps = 1; /* exclude BSP */
3035
3036         /* Map local apic before the id field is accessed */
3037         lapic_init(DEFAULT_APIC_BASE);
3038
3039         bsp_apicid = APIC_ID(lapic->id);
3040         ap_apicid = (bsp_apicid == 0) ? 1 : 0;
3041
3042         /* BSP */
3043         mp_set_cpuids(0, bsp_apicid);
3044         /* one and only AP */
3045         mp_set_cpuids(1, ap_apicid);
3046 }
3047
3048 /*
3049  * Configure:
3050  *     mp_naps
3051  *     ID_TO_CPU(N), APIC ID to logical CPU table
3052  *     CPU_TO_ID(N), logical CPU to APIC ID table
3053  */
3054 static void
3055 mptable_lapic_enumerate(struct lapic_enumerator *e)
3056 {
3057         struct mptable_pos mpt;
3058         struct mptable_lapic_cbarg1 arg1;
3059         struct mptable_lapic_cbarg2 arg2;
3060         mpcth_t cth;
3061         int error, logical_cpus = 0;
3062         vm_offset_t lapic_addr;
3063         vm_paddr_t mpfps_paddr;
3064
3065         mpfps_paddr = ((struct mptable_lapic_enumerator *)e)->mpfps_paddr;
3066         KKASSERT(mpfps_paddr != 0);
3067  
3068         error = mptable_map(&mpt, mpfps_paddr);
3069         if (error)
3070                 panic("mptable_lapic_enumerate mptable_map failed\n");
3071
3072         KKASSERT(mpt.mp_fps != NULL);
3073  
3074         /*
3075          * Check for use of 'default' configuration
3076          */
3077         if (mpt.mp_fps->mpfb1 != 0) {
3078                 mptable_lapic_default();
3079                 mptable_unmap(&mpt);
3080                 return;
3081         }
3082  
3083         cth = mpt.mp_cth;
3084         KKASSERT(cth != NULL);
3085  
3086         /* Save local apic address */
3087         lapic_addr = (vm_offset_t)cth->apic_address;
3088         KKASSERT(lapic_addr != 0);
3089  
3090         /*
3091          * Find out how many CPUs do we have
3092          */
3093         bzero(&arg1, sizeof(arg1));
3094         arg1.ht_fixup = 1; /* Apply ht fixup by default */
3095
3096         error = mptable_iterate_entries(cth,
3097                     mptable_lapic_pass1_callback, &arg1);
3098         if (error)
3099                 panic("mptable_iterate_entries(lapic_pass1) failed\n");
3100         KKASSERT(arg1.cpu_count != 0);
3101  
3102         /* See if we need to fixup HT logical CPUs. */
3103         if (arg1.ht_fixup) {
3104                 logical_cpus = mptable_hyperthread_fixup(arg1.ht_apicid_mask,
3105                                                          arg1.cpu_count);
3106                 if (logical_cpus != 0)
3107                         arg1.cpu_count *= logical_cpus;
3108         }
3109         mp_naps = arg1.cpu_count;
3110  
3111         /* Qualify the numbers again, after possible HT fixup */
3112         if (mp_naps > MAXCPU) {
3113                 kprintf("Warning: only using %d of %d available CPUs!\n",
3114                         MAXCPU, mp_naps);
3115                 mp_naps = MAXCPU;
3116         }
3117
3118         --mp_naps;      /* subtract the BSP */
3119
3120         /*
3121          * Link logical CPU id to local apic id
3122          */
3123         bzero(&arg2, sizeof(arg2));
3124         arg2.cpu = 1;
3125         arg2.logical_cpus = logical_cpus;
3126
3127         error = mptable_iterate_entries(cth,
3128                     mptable_lapic_pass2_callback, &arg2);
3129         if (error)
3130                 panic("mptable_iterate_entries(lapic_pass2) failed\n");
3131         KKASSERT(arg2.found_bsp);
3132
3133         /* Map local apic */
3134         lapic_init(lapic_addr);
3135
3136         mptable_unmap(&mpt);
3137 }
3138
3139 static int
3140 mptable_lapic_probe(struct lapic_enumerator *e)
3141 {
3142         vm_paddr_t mpfps_paddr;
3143
3144         mpfps_paddr = mptable_probe();
3145         if (mpfps_paddr == 0)
3146                 return ENXIO;
3147
3148         ((struct mptable_lapic_enumerator *)e)->mpfps_paddr = mpfps_paddr;
3149         return 0;
3150 }
3151
3152 static struct mptable_lapic_enumerator  mptable_lapic_enumerator = {
3153         .enumerator = {
3154                 .lapic_prio = LAPIC_ENUM_PRIO_MPTABLE,
3155                 .lapic_probe = mptable_lapic_probe,
3156                 .lapic_enumerate = mptable_lapic_enumerate
3157         }
3158 };
3159
3160 static void
3161 mptable_apic_register(void)
3162 {
3163         lapic_enumerator_register(&mptable_lapic_enumerator.enumerator);
3164 }
3165 SYSINIT(madt, SI_BOOT2_PRESMP, SI_ORDER_ANY, mptable_apic_register, 0);