vkernel64: Add bug workaround.
[dragonfly.git] / sys / kern / init_main.c
1 /*
2  * Copyright (c) 1995 Terrence R. Lambert
3  * All rights reserved.
4  *
5  * Copyright (c) 1982, 1986, 1989, 1991, 1992, 1993
6  *      The Regents of the University of California.  All rights reserved.
7  * (c) UNIX System Laboratories, Inc.
8  * All or some portions of this file are derived from material licensed
9  * to the University of California by American Telephone and Telegraph
10  * Co. or Unix System Laboratories, Inc. and are reproduced herein with
11  * the permission of UNIX System Laboratories, Inc.
12  *
13  * Redistribution and use in source and binary forms, with or without
14  * modification, are permitted provided that the following conditions
15  * are met:
16  * 1. Redistributions of source code must retain the above copyright
17  *    notice, this list of conditions and the following disclaimer.
18  * 2. Redistributions in binary form must reproduce the above copyright
19  *    notice, this list of conditions and the following disclaimer in the
20  *    documentation and/or other materials provided with the distribution.
21  * 3. All advertising materials mentioning features or use of this software
22  *    must display the following acknowledgement:
23  *      This product includes software developed by the University of
24  *      California, Berkeley and its contributors.
25  * 4. Neither the name of the University nor the names of its contributors
26  *    may be used to endorse or promote products derived from this software
27  *    without specific prior written permission.
28  *
29  * THIS SOFTWARE IS PROVIDED BY THE REGENTS AND CONTRIBUTORS ``AS IS'' AND
30  * ANY EXPRESS OR IMPLIED WARRANTIES, INCLUDING, BUT NOT LIMITED TO, THE
31  * IMPLIED WARRANTIES OF MERCHANTABILITY AND FITNESS FOR A PARTICULAR PURPOSE
32  * ARE DISCLAIMED.  IN NO EVENT SHALL THE REGENTS OR CONTRIBUTORS BE LIABLE
33  * FOR ANY DIRECT, INDIRECT, INCIDENTAL, SPECIAL, EXEMPLARY, OR CONSEQUENTIAL
34  * DAMAGES (INCLUDING, BUT NOT LIMITED TO, PROCUREMENT OF SUBSTITUTE GOODS
35  * OR SERVICES; LOSS OF USE, DATA, OR PROFITS; OR BUSINESS INTERRUPTION)
36  * HOWEVER CAUSED AND ON ANY THEORY OF LIABILITY, WHETHER IN CONTRACT, STRICT
37  * LIABILITY, OR TORT (INCLUDING NEGLIGENCE OR OTHERWISE) ARISING IN ANY WAY
38  * OUT OF THE USE OF THIS SOFTWARE, EVEN IF ADVISED OF THE POSSIBILITY OF
39  * SUCH DAMAGE.
40  *
41  *      @(#)init_main.c 8.9 (Berkeley) 1/21/94
42  * $FreeBSD: src/sys/kern/init_main.c,v 1.134.2.8 2003/06/06 20:21:32 tegge Exp $
43  * $DragonFly: src/sys/kern/init_main.c,v 1.87 2008/06/07 11:37:23 mneumann Exp $
44  */
45
46 #include "opt_init_path.h"
47
48 #include <sys/param.h>
49 #include <sys/file.h>
50 #include <sys/filedesc.h>
51 #include <sys/kernel.h>
52 #include <sys/mount.h>
53 #include <sys/sysctl.h>
54 #include <sys/proc.h>
55 #include <sys/resourcevar.h>
56 #include <sys/signalvar.h>
57 #include <sys/systm.h>
58 #include <sys/vnode.h>
59 #include <sys/sysent.h>
60 #include <sys/reboot.h>
61 #include <sys/sysproto.h>
62 #include <sys/vmmeter.h>
63 #include <sys/unistd.h>
64 #include <sys/malloc.h>
65 #include <sys/machintr.h>
66
67 #include <sys/file2.h>
68 #include <sys/thread2.h>
69 #include <sys/sysref2.h>
70 #include <sys/spinlock2.h>
71 #include <sys/mplock2.h>
72
73 #include <machine/cpu.h>
74
75 #include <vm/vm.h>
76 #include <vm/vm_param.h>
77 #include <sys/lock.h>
78 #include <vm/pmap.h>
79 #include <vm/vm_map.h>
80 #include <vm/vm_extern.h>
81 #include <sys/user.h>
82 #include <sys/copyright.h>
83
84 #if defined(__amd64__) && defined(_KERNEL_VIRTUAL)
85 #include <stdio.h>
86 #endif
87
88 int vfs_mountroot_devfs(void);
89
90 /* Components of the first process -- never freed. */
91 static struct session session0;
92 static struct pgrp pgrp0;
93 static struct sigacts sigacts0;
94 static struct filedesc filedesc0;
95 static struct plimit limit0;
96 static struct vmspace vmspace0;
97 struct proc *initproc;
98 struct proc proc0;
99 struct lwp lwp0;
100 struct thread thread0;
101
102 int cmask = CMASK;
103 extern  struct user *proc0paddr;
104 extern int fallback_elf_brand;
105
106 int     boothowto = 0;          /* initialized so that it can be patched */
107 SYSCTL_INT(_debug, OID_AUTO, boothowto, CTLFLAG_RD, &boothowto, 0, "");
108
109 /*
110  * This ensures that there is at least one entry so that the sysinit_set
111  * symbol is not undefined.  A subsystem ID of SI_SPECIAL_DUMMY is never
112  * executed.
113  */
114 SYSINIT(placeholder, SI_SPECIAL_DUMMY, SI_ORDER_ANY, NULL, NULL)
115
116 /*
117  * The sysinit table itself.  Items are checked off as the are run.
118  * If we want to register new sysinit types, add them to newsysinit.
119  */
120 SET_DECLARE(sysinit_set, struct sysinit);
121 struct sysinit **sysinit, **sysinit_end;
122 struct sysinit **newsysinit, **newsysinit_end;
123
124
125 /*
126  * Merge a new sysinit set into the current set, reallocating it if
127  * necessary.  This can only be called after malloc is running.
128  */
129 void
130 sysinit_add(struct sysinit **set, struct sysinit **set_end)
131 {
132         struct sysinit **newset;
133         struct sysinit **sipp;
134         struct sysinit **xipp;
135         int count;
136
137         count = set_end - set;
138         if (newsysinit)
139                 count += newsysinit_end - newsysinit;
140         else
141                 count += sysinit_end - sysinit;
142         newset = kmalloc(count * sizeof(*sipp), M_TEMP, M_WAITOK);
143         xipp = newset;
144         if (newsysinit) {
145                 for (sipp = newsysinit; sipp < newsysinit_end; sipp++)
146                         *xipp++ = *sipp;
147         } else {
148                 for (sipp = sysinit; sipp < sysinit_end; sipp++)
149                         *xipp++ = *sipp;
150         }
151         for (sipp = set; sipp < set_end; sipp++)
152                 *xipp++ = *sipp;
153         if (newsysinit)
154                 kfree(newsysinit, M_TEMP);
155         newsysinit = newset;
156         newsysinit_end = newset + count;
157 }
158
159 /*
160  * Callbacks from machine-dependant startup code (e.g. init386) to set
161  * up low level entities related to cpu #0's globaldata.
162  *
163  * Called from very low level boot code.
164  */
165 void
166 mi_proc0init(struct globaldata *gd, struct user *proc0paddr)
167 {
168         lwkt_init_thread(&thread0, proc0paddr, LWKT_THREAD_STACK, 0, gd);
169         lwkt_set_comm(&thread0, "thread0");
170         RB_INIT(&proc0.p_lwp_tree);
171         spin_init(&proc0.p_spin);
172         proc0.p_lasttid = 0;    /* +1 = next TID */
173         lwp_rb_tree_RB_INSERT(&proc0.p_lwp_tree, &lwp0);
174         lwp0.lwp_thread = &thread0;
175         lwp0.lwp_proc = &proc0;
176         proc0.p_usched = usched_init();
177         lwp0.lwp_cpumask = 0xFFFFFFFF;
178         varsymset_init(&proc0.p_varsymset, NULL);
179         thread0.td_flags |= TDF_RUNNING;
180         thread0.td_proc = &proc0;
181         thread0.td_lwp = &lwp0;
182         thread0.td_switch = cpu_lwkt_switch;
183         lwkt_schedule_self(curthread);
184 }
185
186 /*
187  * System startup; initialize the world, create process 0, mount root
188  * filesystem, and fork to create init and pagedaemon.  Most of the
189  * hard work is done in the lower-level initialization routines including
190  * startup(), which does memory initialization and autoconfiguration.
191  *
192  * This allows simple addition of new kernel subsystems that require
193  * boot time initialization.  It also allows substitution of subsystem
194  * (for instance, a scheduler, kernel profiler, or VM system) by object
195  * module.  Finally, it allows for optional "kernel threads".
196  */
197 void
198 mi_startup(void)
199 {
200         struct sysinit *sip;            /* system initialization*/
201         struct sysinit **sipp;          /* system initialization*/
202         struct sysinit **xipp;          /* interior loop of sort*/
203         struct sysinit *save;           /* bubble*/
204
205         if (sysinit == NULL) {
206                 sysinit = SET_BEGIN(sysinit_set);
207 #if defined(__amd64__) && defined(_KERNEL_VIRTUAL)
208                 /*
209                  * XXX For whatever reason, on 64-bit vkernels
210                  * the value of sysinit obtained from the
211                  * linker set is wrong.
212                  */
213                 if ((long)sysinit % 8 != 0) {
214                         fprintf(stderr, "Fixing sysinit value...\n");
215                         sysinit = (long)sysinit + 4;
216                 }
217 #endif
218                 sysinit_end = SET_LIMIT(sysinit_set);
219         }
220 #if defined(__amd64__) && defined(_KERNEL_VIRTUAL)
221         KKASSERT((long)sysinit % 8 == 0);
222 #endif
223
224 restart:
225         /*
226          * Perform a bubble sort of the system initialization objects by
227          * their subsystem (primary key) and order (secondary key).
228          */
229         for (sipp = sysinit; sipp < sysinit_end; sipp++) {
230                 for (xipp = sipp + 1; xipp < sysinit_end; xipp++) {
231                         if ((*sipp)->subsystem < (*xipp)->subsystem ||
232                              ((*sipp)->subsystem == (*xipp)->subsystem &&
233                               (*sipp)->order <= (*xipp)->order))
234                                 continue;       /* skip*/
235                         save = *sipp;
236                         *sipp = *xipp;
237                         *xipp = save;
238                 }
239         }
240
241         /*
242          * Traverse the (now) ordered list of system initialization tasks.
243          * Perform each task, and continue on to the next task.
244          *
245          * The last item on the list is expected to be the scheduler,
246          * which will not return.
247          */
248         for (sipp = sysinit; sipp < sysinit_end; sipp++) {
249                 sip = *sipp;
250                 if (sip->subsystem == SI_SPECIAL_DUMMY)
251                         continue;       /* skip dummy task(s)*/
252
253                 if (sip->subsystem == SI_SPECIAL_DONE)
254                         continue;
255
256                 /* Call function */
257                 (*(sip->func))(sip->udata);
258
259                 /* Check off the one we're just done */
260                 sip->subsystem = SI_SPECIAL_DONE;
261
262                 /* Check if we've installed more sysinit items via KLD */
263                 if (newsysinit != NULL) {
264                         if (sysinit != SET_BEGIN(sysinit_set))
265                                 kfree(sysinit, M_TEMP);
266                         sysinit = newsysinit;
267                         sysinit_end = newsysinit_end;
268                         newsysinit = NULL;
269                         newsysinit_end = NULL;
270                         goto restart;
271                 }
272         }
273
274         panic("Shouldn't get here!");
275         /* NOTREACHED*/
276 }
277
278
279 /*
280  ***************************************************************************
281  ****
282  **** The following SYSINIT's belong elsewhere, but have not yet
283  **** been moved.
284  ****
285  ***************************************************************************
286  */
287 static void
288 print_caddr_t(void *data __unused)
289 {
290         kprintf("%s", (char *)data);
291 }
292 SYSINIT(announce, SI_BOOT1_COPYRIGHT, SI_ORDER_FIRST, print_caddr_t, copyright)
293
294 /*
295  * Leave the critical section that protected us from spurious interrupts
296  * so device probes work.
297  */
298 static void
299 leavecrit(void *dummy __unused)
300 {
301         MachIntrABI.finalize();
302         cpu_enable_intr();
303         MachIntrABI.cleanup();
304         crit_exit();
305         KKASSERT(!IN_CRITICAL_SECT(curthread));
306
307         if (bootverbose)
308                 kprintf("Leaving critical section, allowing interrupts\n");
309 }
310 SYSINIT(leavecrit, SI_BOOT2_LEAVE_CRIT, SI_ORDER_ANY, leavecrit, NULL)
311
312 /*
313  * This is called after the threading system is up and running,
314  * including the softclock, clock interrupts, and SMP.
315  */
316 static void
317 tsleepworks(void *dummy __unused)
318 {
319         tsleep_now_works = 1;
320 }
321 SYSINIT(tsleepworks, SI_BOOT2_FINISH_SMP, SI_ORDER_SECOND, tsleepworks, NULL)
322
323 /*
324  * This is called after devices have configured.  Tell the kernel we are
325  * no longer in cold boot.
326  */
327 static void
328 endofcoldboot(void *dummy __unused)
329 {
330         cold = 0;
331 }
332 SYSINIT(endofcoldboot, SI_SUB_ISWARM, SI_ORDER_ANY, endofcoldboot, NULL)
333
334 /*
335  ***************************************************************************
336  ****
337  **** The two following SYSINT's are proc0 specific glue code.  I am not
338  **** convinced that they can not be safely combined, but their order of
339  **** operation has been maintained as the same as the original init_main.c
340  **** for right now.
341  ****
342  **** These probably belong in init_proc.c or kern_proc.c, since they
343  **** deal with proc0 (the fork template process).
344  ****
345  ***************************************************************************
346  */
347 /* ARGSUSED*/
348 static void
349 proc0_init(void *dummy __unused)
350 {
351         struct proc *p;
352         struct lwp *lp;
353
354         p = &proc0;
355         lp = &lwp0;
356
357         /*
358          * Initialize process and pgrp structures.
359          */
360         procinit();
361
362         /*
363          * additional VM structures
364          */
365         vm_init2();
366
367         /*
368          * Create process 0 (the swapper).
369          */
370         LIST_INSERT_HEAD(&allproc, p, p_list);
371         p->p_pgrp = &pgrp0;
372         LIST_INSERT_HEAD(PGRPHASH(0), &pgrp0, pg_hash);
373         LIST_INIT(&pgrp0.pg_members);
374         LIST_INSERT_HEAD(&pgrp0.pg_members, p, p_pglist);
375
376         pgrp0.pg_session = &session0;
377         session0.s_count = 1;
378         session0.s_leader = p;
379
380         p->p_sysent = &aout_sysvec;
381
382         p->p_flag = P_SYSTEM;
383         p->p_stat = SACTIVE;
384         lp->lwp_stat = LSRUN;
385         p->p_nice = NZERO;
386         p->p_rtprio.type = RTP_PRIO_NORMAL;
387         p->p_rtprio.prio = 0;
388         lp->lwp_rtprio = p->p_rtprio;
389
390         p->p_peers = 0;
391         p->p_leader = p;
392
393         bcopy("swapper", p->p_comm, sizeof ("swapper"));
394         bcopy("swapper", thread0.td_comm, sizeof ("swapper"));
395
396         /* Create credentials. */
397         p->p_ucred = crget();
398         p->p_ucred->cr_ruidinfo = uifind(0);
399         p->p_ucred->cr_ngroups = 1;     /* group 0 */
400         p->p_ucred->cr_uidinfo = uifind(0);
401         thread0.td_ucred = crhold(p->p_ucred);  /* bootstrap fork1() */
402
403         /* Don't jail it */
404         p->p_ucred->cr_prison = NULL;
405
406         /* Create sigacts. */
407         p->p_sigacts = &sigacts0;
408         p->p_sigacts->ps_refcnt = 1;
409
410         /* Initialize signal state for process 0. */
411         siginit(p);
412
413         /* Create the file descriptor table. */
414         fdinit_bootstrap(p, &filedesc0, cmask);
415
416         /* Create the limits structures. */
417         plimit_init0(&limit0);
418         p->p_limit = &limit0;
419
420         /* Allocate a prototype map so we have something to fork. */
421         pmap_pinit0(vmspace_pmap(&vmspace0));
422         p->p_vmspace = &vmspace0;
423         lp->lwp_vmspace = p->p_vmspace;
424         sysref_init(&vmspace0.vm_sysref, &vmspace_sysref_class);
425         vm_map_init(&vmspace0.vm_map,
426                     round_page(VM_MIN_USER_ADDRESS),
427                     trunc_page(VM_MAX_USER_ADDRESS),
428                     vmspace_pmap(&vmspace0));
429         sysref_activate(&vmspace0.vm_sysref);
430
431         kqueue_init(&lwp0.lwp_kqueue, &filedesc0);
432
433         /*
434          * Charge root for one process.
435          */
436         (void)chgproccnt(p->p_ucred->cr_uidinfo, 1, 0);
437         vm_init_limits(p);
438 }
439 SYSINIT(p0init, SI_BOOT2_PROC0, SI_ORDER_FIRST, proc0_init, NULL)
440
441 static int proc0_post_callback(struct proc *p, void *data __unused);
442
443 /* ARGSUSED*/
444 static void
445 proc0_post(void *dummy __unused)
446 {
447         struct timespec ts;
448
449         /*
450          * Now we can look at the time, having had a chance to verify the
451          * time from the file system.  Pretend that proc0 started now.
452          */
453         allproc_scan(proc0_post_callback, NULL);
454
455         /*
456          * Give the ``random'' number generator a thump.
457          * XXX: Does read_random() contain enough bits to be used here ?
458          */
459         nanotime(&ts);
460         skrandom(ts.tv_sec ^ ts.tv_nsec);
461 }
462
463 static int
464 proc0_post_callback(struct proc *p, void *data __unused)
465 {
466         microtime(&p->p_start);
467         return(0);
468 }
469
470 SYSINIT(p0post, SI_SUB_PROC0_POST, SI_ORDER_FIRST, proc0_post, NULL)
471
472 /*
473  ***************************************************************************
474  ****
475  **** The following SYSINIT's and glue code should be moved to the
476  **** respective files on a per subsystem basis.
477  ****
478  ***************************************************************************
479  */
480
481
482 /*
483  ***************************************************************************
484  ****
485  **** The following code probably belongs in another file, like
486  **** kern/init_init.c.
487  ****
488  ***************************************************************************
489  */
490
491 /*
492  * List of paths to try when searching for "init".
493  */
494 static char init_path[MAXPATHLEN] =
495 #ifdef  INIT_PATH
496     __XSTRING(INIT_PATH);
497 #else
498     "/sbin/init:/sbin/oinit:/sbin/init.bak";
499 #endif
500 SYSCTL_STRING(_kern, OID_AUTO, init_path, CTLFLAG_RD, init_path, 0, "");
501
502 /*
503  * Start the initial user process; try exec'ing each pathname in init_path.
504  * The program is invoked with one argument containing the boot flags.
505  *
506  * The MP lock is held on entry.
507  */
508 static void
509 start_init(void *dummy, struct trapframe *frame)
510 {
511         vm_offset_t addr;
512         struct execve_args args;
513         int options, error;
514         char *var, *path, *next, *s;
515         char *ucp, **uap, *arg0, *arg1;
516         struct proc *p;
517         struct lwp *lp;
518         struct mount *mp;
519         struct vnode *vp;
520
521         p = curproc;
522
523         lp = ONLY_LWP_IN_PROC(p);
524
525         /* Get the vnode for '/'.  Set p->p_fd->fd_cdir to reference it. */
526         mp = mountlist_boot_getfirst();
527         if (VFS_ROOT(mp, &vp))
528                 panic("cannot find root vnode");
529         if (mp->mnt_ncmountpt.ncp == NULL) {
530                 cache_allocroot(&mp->mnt_ncmountpt, mp, vp);
531                 cache_unlock(&mp->mnt_ncmountpt);       /* leave ref intact */
532         }
533         p->p_fd->fd_cdir = vp;
534         vref(p->p_fd->fd_cdir);
535         p->p_fd->fd_rdir = vp;
536         vref(p->p_fd->fd_rdir);
537         vfs_cache_setroot(vp, cache_hold(&mp->mnt_ncmountpt));
538         vn_unlock(vp);                  /* leave ref intact */
539         cache_copy(&mp->mnt_ncmountpt, &p->p_fd->fd_ncdir);
540         cache_copy(&mp->mnt_ncmountpt, &p->p_fd->fd_nrdir);
541
542         kprintf("Mounting devfs\n");
543         vfs_mountroot_devfs();
544
545         /*
546          * Need just enough stack to hold the faked-up "execve()" arguments.
547          */
548         addr = trunc_page(USRSTACK - PAGE_SIZE);
549         error = vm_map_find(&p->p_vmspace->vm_map, NULL, 0, &addr,
550                             PAGE_SIZE, PAGE_SIZE,
551                             FALSE, VM_MAPTYPE_NORMAL,
552                             VM_PROT_ALL, VM_PROT_ALL,
553                             0);
554         if (error)
555                 panic("init: couldn't allocate argument space");
556         p->p_vmspace->vm_maxsaddr = (caddr_t)addr;
557         p->p_vmspace->vm_ssize = 1;
558
559         if ((var = kgetenv("init_path")) != NULL) {
560                 strncpy(init_path, var, sizeof init_path);
561                 init_path[sizeof init_path - 1] = 0;
562         }
563         if ((var = kgetenv("kern.fallback_elf_brand")) != NULL)
564                 fallback_elf_brand = strtol(var, NULL, 0);
565         
566         for (path = init_path; *path != '\0'; path = next) {
567                 while (*path == ':')
568                         path++;
569                 if (*path == '\0')
570                         break;
571                 for (next = path; *next != '\0' && *next != ':'; next++)
572                         /* nothing */ ;
573                 if (bootverbose)
574                         kprintf("start_init: trying %.*s\n", (int)(next - path),
575                             path);
576                         
577                 /*
578                  * Move out the boot flag argument.
579                  */
580                 options = 0;
581                 ucp = (char *)USRSTACK;
582                 (void)subyte(--ucp, 0);         /* trailing zero */
583                 if (boothowto & RB_SINGLE) {
584                         (void)subyte(--ucp, 's');
585                         options = 1;
586                 }
587 #ifdef notyet
588                 if (boothowto & RB_FASTBOOT) {
589                         (void)subyte(--ucp, 'f');
590                         options = 1;
591                 }
592 #endif
593
594 #ifdef BOOTCDROM
595                 (void)subyte(--ucp, 'C');
596                 options = 1;
597 #endif
598                 if (options == 0)
599                         (void)subyte(--ucp, '-');
600                 (void)subyte(--ucp, '-');               /* leading hyphen */
601                 arg1 = ucp;
602
603                 /*
604                  * Move out the file name (also arg 0).
605                  */
606                 (void)subyte(--ucp, 0);
607                 for (s = next - 1; s >= path; s--)
608                         (void)subyte(--ucp, *s);
609                 arg0 = ucp;
610
611                 /*
612                  * Move out the arg pointers.
613                  */
614                 uap = (char **)((intptr_t)ucp & ~(sizeof(intptr_t)-1));
615                 (void)suword((caddr_t)--uap, (long)0);  /* terminator */
616                 (void)suword((caddr_t)--uap, (long)(intptr_t)arg1);
617                 (void)suword((caddr_t)--uap, (long)(intptr_t)arg0);
618
619                 /*
620                  * Point at the arguments.
621                  */
622                 args.fname = arg0;
623                 args.argv = uap;
624                 args.envv = NULL;
625
626                 /*
627                  * Now try to exec the program.  If can't for any reason
628                  * other than it doesn't exist, complain.
629                  *
630                  * Otherwise, return via fork_trampoline() all the way
631                  * to user mode as init!
632                  *
633                  * WARNING!  We may have been moved to another cpu after
634                  * acquiring the current user process designation.  The
635                  * MP lock will migrate with us though so we still have to
636                  * release it.
637                  */
638                 if ((error = sys_execve(&args)) == 0) {
639                         rel_mplock();
640                         lp->lwp_proc->p_usched->acquire_curproc(lp);
641                         return;
642                 }
643                 if (error != ENOENT)
644                         kprintf("exec %.*s: error %d\n", (int)(next - path), 
645                             path, error);
646         }
647         kprintf("init: not found in path %s\n", init_path);
648         panic("no init");
649 }
650
651 /*
652  * Like kthread_create(), but runs in it's own address space.
653  * We do this early to reserve pid 1.
654  *
655  * Note special case - do not make it runnable yet.  Other work
656  * in progress will change this more.
657  */
658 static void
659 create_init(const void *udata __unused)
660 {
661         int error;
662         struct lwp *lp;
663
664         crit_enter();
665         error = fork1(&lwp0, RFFDG | RFPROC, &initproc);
666         if (error)
667                 panic("cannot fork init: %d", error);
668         initproc->p_flag |= P_SYSTEM;
669         lp = ONLY_LWP_IN_PROC(initproc);
670         cpu_set_fork_handler(lp, start_init, NULL);
671         crit_exit();
672 }
673 SYSINIT(init, SI_SUB_CREATE_INIT, SI_ORDER_FIRST, create_init, NULL)
674
675 /*
676  * Make it runnable now.
677  */
678 static void
679 kick_init(const void *udata __unused)
680 {
681         start_forked_proc(&lwp0, initproc);
682 }
683 SYSINIT(kickinit, SI_SUB_KTHREAD_INIT, SI_ORDER_FIRST, kick_init, NULL)
684
685 /*
686  * Machine independant globaldata initialization
687  *
688  * WARNING!  Called from early boot, 'mycpu' may not work yet.
689  */
690 void
691 mi_gdinit(struct globaldata *gd, int cpuid)
692 {
693         TAILQ_INIT(&gd->gd_systimerq);
694         gd->gd_sysid_alloc = cpuid;     /* prime low bits for cpu lookup */
695         gd->gd_cpuid = cpuid;
696         gd->gd_cpumask = (cpumask_t)1 << cpuid;
697         lwkt_gdinit(gd);
698         vm_map_entry_reserve_cpu_init(gd);
699         sleep_gdinit(gd);
700 }
701