Merge branch 'vendor/GCC44'
[dragonfly.git] / sys / platform / vkernel / platform / init.c
1 /*
2  * Copyright (c) 2006 The DragonFly Project.  All rights reserved.
3  * 
4  * This code is derived from software contributed to The DragonFly Project
5  * by Matthew Dillon <dillon@backplane.com>
6  * 
7  * Redistribution and use in source and binary forms, with or without
8  * modification, are permitted provided that the following conditions
9  * are met:
10  * 
11  * 1. Redistributions of source code must retain the above copyright
12  *    notice, this list of conditions and the following disclaimer.
13  * 2. Redistributions in binary form must reproduce the above copyright
14  *    notice, this list of conditions and the following disclaimer in
15  *    the documentation and/or other materials provided with the
16  *    distribution.
17  * 3. Neither the name of The DragonFly Project nor the names of its
18  *    contributors may be used to endorse or promote products derived
19  *    from this software without specific, prior written permission.
20  * 
21  * THIS SOFTWARE IS PROVIDED BY THE COPYRIGHT HOLDERS AND CONTRIBUTORS
22  * ``AS IS'' AND ANY EXPRESS OR IMPLIED WARRANTIES, INCLUDING, BUT NOT
23  * LIMITED TO, THE IMPLIED WARRANTIES OF MERCHANTABILITY AND FITNESS
24  * FOR A PARTICULAR PURPOSE ARE DISCLAIMED.  IN NO EVENT SHALL THE
25  * COPYRIGHT HOLDERS OR CONTRIBUTORS BE LIABLE FOR ANY DIRECT, INDIRECT,
26  * INCIDENTAL, SPECIAL, EXEMPLARY OR CONSEQUENTIAL DAMAGES (INCLUDING,
27  * BUT NOT LIMITED TO, PROCUREMENT OF SUBSTITUTE GOODS OR SERVICES;
28  * LOSS OF USE, DATA, OR PROFITS; OR BUSINESS INTERRUPTION) HOWEVER CAUSED
29  * AND ON ANY THEORY OF LIABILITY, WHETHER IN CONTRACT, STRICT LIABILITY,
30  * OR TORT (INCLUDING NEGLIGENCE OR OTHERWISE) ARISING IN ANY WAY OUT
31  * OF THE USE OF THIS SOFTWARE, EVEN IF ADVISED OF THE POSSIBILITY OF
32  * SUCH DAMAGE.
33  * 
34  * $DragonFly: src/sys/platform/vkernel/platform/init.c,v 1.56 2008/05/27 07:48:00 dillon Exp $
35  */
36
37 #include <sys/types.h>
38 #include <sys/systm.h>
39 #include <sys/kernel.h>
40 #include <sys/stat.h>
41 #include <sys/mman.h>
42 #include <sys/cons.h>
43 #include <sys/random.h>
44 #include <sys/vkernel.h>
45 #include <sys/tls.h>
46 #include <sys/reboot.h>
47 #include <sys/proc.h>
48 #include <sys/msgbuf.h>
49 #include <sys/vmspace.h>
50 #include <sys/socket.h>
51 #include <sys/sockio.h>
52 #include <sys/sysctl.h>
53 #include <sys/un.h>
54 #include <vm/vm_page.h>
55
56 #include <machine/cpu.h>
57 #include <machine/globaldata.h>
58 #include <machine/tls.h>
59 #include <machine/md_var.h>
60 #include <machine/vmparam.h>
61 #include <cpu/specialreg.h>
62
63 #include <net/if.h>
64 #include <net/if_arp.h>
65 #include <net/ethernet.h>
66 #include <net/bridge/if_bridgevar.h>
67 #include <netinet/in.h>
68 #include <arpa/inet.h>
69
70 #include <stdio.h>
71 #include <stdlib.h>
72 #include <stdarg.h>
73 #include <unistd.h>
74 #include <fcntl.h>
75 #include <string.h>
76 #include <err.h>
77 #include <errno.h>
78 #include <assert.h>
79
80 vm_paddr_t phys_avail[16];
81 vm_paddr_t Maxmem;
82 vm_paddr_t Maxmem_bytes;
83 int MemImageFd = -1;
84 struct vkdisk_info DiskInfo[VKDISK_MAX];
85 int DiskNum;
86 struct vknetif_info NetifInfo[VKNETIF_MAX];
87 int NetifNum;
88 char *pid_file;
89 vm_offset_t KvaStart;
90 vm_offset_t KvaEnd;
91 vm_offset_t KvaSize;
92 vm_offset_t virtual_start;
93 vm_offset_t virtual_end;
94 vm_offset_t kernel_vm_end;
95 vm_offset_t crashdumpmap;
96 vm_offset_t clean_sva;
97 vm_offset_t clean_eva;
98 struct msgbuf *msgbufp;
99 caddr_t ptvmmap;
100 vpte_t  *KernelPTD;
101 vpte_t  *KernelPTA;     /* Warning: Offset for direct VA translation */
102 u_int cpu_feature;      /* XXX */
103 int tsc_present;
104 int64_t tsc_frequency;
105 int optcpus;            /* number of cpus - see mp_start() */
106 int lwp_cpu_lock;       /* if/how to lock virtual CPUs to real CPUs */
107 int real_ncpus;         /* number of real CPUs */
108 int next_cpu;           /* next real CPU to lock a virtual CPU to */
109
110 struct privatespace *CPU_prvspace;
111
112 static struct trapframe proc0_tf;
113 static void *proc0paddr;
114
115 static void init_sys_memory(char *imageFile);
116 static void init_kern_memory(void);
117 static void init_globaldata(void);
118 static void init_vkernel(void);
119 static void init_disk(char *diskExp[], int diskFileNum, enum vkdisk_type type); 
120 static void init_netif(char *netifExp[], int netifFileNum);
121 static void writepid( void );
122 static void cleanpid( void );
123 static int unix_connect(const char *path);
124 static void usage(const char *ctl, ...);
125
126 static int save_ac;
127 static char **save_av;
128
129 /*
130  * Kernel startup for virtual kernels - standard main() 
131  */
132 int
133 main(int ac, char **av)
134 {
135         char *memImageFile = NULL;
136         char *netifFile[VKNETIF_MAX];
137         char *diskFile[VKDISK_MAX];
138         char *cdFile[VKDISK_MAX];
139         char *suffix;
140         char *endp;
141         int netifFileNum = 0;
142         int diskFileNum = 0;
143         int cdFileNum = 0;
144         int bootOnDisk = -1;    /* set below to vcd (0) or vkd (1) */
145         int c;
146         int i;
147         int j;
148         int n;
149         int isq;
150         int real_vkernel_enable;
151         int supports_sse;
152         size_t vsize;
153         
154         save_ac = ac;
155         save_av = av;
156
157         /*
158          * Process options
159          */
160         kernel_mem_readonly = 1;
161 #ifdef SMP
162         optcpus = 2;
163 #endif
164         lwp_cpu_lock = LCL_NONE;
165
166         real_vkernel_enable = 0;
167         vsize = sizeof(real_vkernel_enable);
168         sysctlbyname("vm.vkernel_enable", &real_vkernel_enable, &vsize, NULL,0);
169         
170         if (real_vkernel_enable == 0) {
171                 errx(1, "vm.vkernel_enable is 0, must be set "
172                         "to 1 to execute a vkernel!");
173         }
174
175         real_ncpus = 1;
176         vsize = sizeof(real_ncpus);
177         sysctlbyname("hw.ncpu", &real_ncpus, &vsize, NULL, 0);
178
179         while ((c = getopt(ac, av, "c:svl:m:n:r:e:i:p:I:U")) != -1) {
180                 switch(c) {
181                 case 'e':
182                         /*
183                          * name=value:name=value:name=value...
184                          * name="value"...
185                          *
186                          * Allow values to be quoted but note that shells
187                          * may remove the quotes, so using this feature
188                          * to embed colons may require a backslash.
189                          */
190                         n = strlen(optarg);
191                         isq = 0;
192                         kern_envp = malloc(n + 2);
193                         for (i = j = 0; i < n; ++i) {
194                                 if (optarg[i] == '"')
195                                         isq ^= 1;
196                                 else if (optarg[i] == '\'')
197                                         isq ^= 2;
198                                 else if (isq == 0 && optarg[i] == ':')
199                                         kern_envp[j++] = 0;
200                                 else
201                                         kern_envp[j++] = optarg[i];
202                         }
203                         kern_envp[j++] = 0;
204                         kern_envp[j++] = 0;
205                         break;
206                 case 's':
207                         boothowto |= RB_SINGLE;
208                         break;
209                 case 'v':
210                         bootverbose = 1;
211                         break;
212                 case 'i':
213                         memImageFile = optarg;
214                         break;
215                 case 'I':
216                         if (netifFileNum < VKNETIF_MAX)
217                                 netifFile[netifFileNum++] = strdup(optarg);
218                         break;
219                 case 'r':
220                         if (bootOnDisk < 0)
221                                 bootOnDisk = 1;
222                         if (diskFileNum + cdFileNum < VKDISK_MAX)
223                                 diskFile[diskFileNum++] = strdup(optarg);
224                         break;
225                 case 'c':
226                         if (bootOnDisk < 0)
227                                 bootOnDisk = 0;
228                         if (diskFileNum + cdFileNum < VKDISK_MAX)
229                                 cdFile[cdFileNum++] = strdup(optarg);
230                         break;
231                 case 'm':
232                         Maxmem_bytes = strtoull(optarg, &suffix, 0);
233                         if (suffix) {
234                                 switch(*suffix) {
235                                 case 'g':
236                                 case 'G':
237                                         Maxmem_bytes <<= 30;
238                                         break;
239                                 case 'm':
240                                 case 'M':
241                                         Maxmem_bytes <<= 20;
242                                         break;
243                                 case 'k':
244                                 case 'K':
245                                         Maxmem_bytes <<= 10;
246                                         break;
247                                 default:
248                                         Maxmem_bytes = 0;
249                                         usage("Bad maxmem option");
250                                         /* NOT REACHED */
251                                         break;
252                                 }
253                         }
254                         break;
255                 case 'l':
256                         next_cpu = -1;
257                         if (strncmp("map", optarg, 3) == 0) {
258                                 lwp_cpu_lock = LCL_PER_CPU;
259                                 if (optarg[3] == ',') {
260                                         next_cpu = strtol(optarg+4, &endp, 0);
261                                         if (*endp != '\0')
262                                                 usage("Bad target CPU number at '%s'", endp);
263                                 } else {
264                                         next_cpu = 0;
265                                 }
266                                 if (next_cpu < 0 || next_cpu > real_ncpus - 1)
267                                         usage("Bad target CPU, valid range is 0-%d", real_ncpus - 1);
268                         } else if (strncmp("any", optarg, 3) == 0) {
269                                 lwp_cpu_lock = LCL_NONE;
270                         } else {
271                                 lwp_cpu_lock = LCL_SINGLE_CPU;
272                                 next_cpu = strtol(optarg, &endp, 0);
273                                 if (*endp != '\0')
274                                         usage("Bad target CPU number at '%s'", endp);
275                                 if (next_cpu < 0 || next_cpu > real_ncpus - 1)
276                                         usage("Bad target CPU, valid range is 0-%d", real_ncpus - 1);
277                         }
278                         break;
279                 case 'n':
280                         /*
281                          * This value is set up by mp_start(), don't just
282                          * set ncpus here.
283                          */
284 #ifdef SMP
285                         optcpus = strtol(optarg, NULL, 0);
286                         if (optcpus < 1 || optcpus > MAXCPU)
287                                 usage("Bad ncpus, valid range is 1-%d", MAXCPU);
288 #else
289                         if (strtol(optarg, NULL, 0) != 1) {
290                                 usage("You built a UP vkernel, only 1 cpu!");
291                         }
292 #endif
293                         
294                         break;
295                 case 'p':
296                         pid_file = optarg;      
297                         break;
298                 case 'U':
299                         kernel_mem_readonly = 0;
300                         break;
301                 }
302         }
303
304         writepid();
305         cpu_disable_intr();
306         init_sys_memory(memImageFile);
307         init_kern_memory();
308         init_globaldata();
309         init_vkernel();
310         setrealcpu();
311         init_kqueue();
312
313         /*
314          * Check TSC
315          */
316         vsize = sizeof(tsc_present);
317         sysctlbyname("hw.tsc_present", &tsc_present, &vsize, NULL, 0);
318         vsize = sizeof(tsc_frequency);
319         sysctlbyname("hw.tsc_frequency", &tsc_frequency, &vsize, NULL, 0);
320         if (tsc_present)
321                 cpu_feature |= CPUID_TSC;
322
323         /*
324          * Check SSE
325          */
326         vsize = sizeof(supports_sse);
327         supports_sse = 0;
328         sysctlbyname("hw.instruction_sse", &supports_sse, &vsize, NULL, 0);
329         init_fpu(supports_sse);
330         if (supports_sse)
331                 cpu_feature |= CPUID_SSE | CPUID_FXSR;
332
333         /*
334          * We boot from the first installed disk.
335          */
336         if (bootOnDisk == 1) {
337                 init_disk(diskFile, diskFileNum, VKD_DISK);
338                 init_disk(cdFile, cdFileNum, VKD_CD);
339         } else {
340                 init_disk(cdFile, cdFileNum, VKD_CD);
341                 init_disk(diskFile, diskFileNum, VKD_DISK);
342         }
343         init_netif(netifFile, netifFileNum);
344         init_exceptions();
345         mi_startup();
346         /* NOT REACHED */
347         exit(1);
348 }
349
350 /*
351  * Initialize system memory.  This is the virtual kernel's 'RAM'.
352  */
353 static
354 void
355 init_sys_memory(char *imageFile)
356 {
357         struct stat st;
358         int i;
359         int fd;
360
361         /*
362          * Figure out the system memory image size.  If an image file was
363          * specified and -m was not specified, use the image file's size.
364          */
365
366         if (imageFile && stat(imageFile, &st) == 0 && Maxmem_bytes == 0)
367                 Maxmem_bytes = (vm_paddr_t)st.st_size;
368         if ((imageFile == NULL || stat(imageFile, &st) < 0) && 
369             Maxmem_bytes == 0) {
370                 err(1, "Cannot create new memory file %s unless "
371                        "system memory size is specified with -m",
372                        imageFile);
373                 /* NOT REACHED */
374         }
375
376         /*
377          * Maxmem must be known at this time
378          */
379         if (Maxmem_bytes < 32 * 1024 * 1024 || (Maxmem_bytes & SEG_MASK)) {
380                 err(1, "Bad maxmem specification: 32MB minimum, "
381                        "multiples of %dMB only",
382                        SEG_SIZE / 1024 / 1024);
383                 /* NOT REACHED */
384         }
385
386         /*
387          * Generate an image file name if necessary, then open/create the
388          * file exclusively locked.  Do not allow multiple virtual kernels
389          * to use the same image file.
390          */
391         if (imageFile == NULL) {
392                 for (i = 0; i < 1000000; ++i) {
393                         asprintf(&imageFile, "/var/vkernel/memimg.%06d", i);
394                         fd = open(imageFile, 
395                                   O_RDWR|O_CREAT|O_EXLOCK|O_NONBLOCK, 0644);
396                         if (fd < 0 && errno == EWOULDBLOCK) {
397                                 free(imageFile);
398                                 continue;
399                         }
400                         break;
401                 }
402         } else {
403                 fd = open(imageFile, O_RDWR|O_CREAT|O_EXLOCK|O_NONBLOCK, 0644);
404         }
405         printf("Using memory file: %s\n", imageFile);
406         if (fd < 0 || fstat(fd, &st) < 0) {
407                 err(1, "Unable to open/create %s", imageFile);
408                 /* NOT REACHED */
409         }
410
411         /*
412          * Truncate or extend the file as necessary.
413          */
414         if (st.st_size > Maxmem_bytes) {
415                 ftruncate(fd, Maxmem_bytes);
416         } else if (st.st_size < Maxmem_bytes) {
417                 char *zmem;
418                 off_t off = st.st_size & ~SEG_MASK;
419
420                 kprintf("%s: Reserving blocks for memory image\n", imageFile);
421                 zmem = malloc(SEG_SIZE);
422                 bzero(zmem, SEG_SIZE);
423                 lseek(fd, off, SEEK_SET);
424                 while (off < Maxmem_bytes) {
425                         if (write(fd, zmem, SEG_SIZE) != SEG_SIZE) {
426                                 err(1, "Unable to reserve blocks for memory image");
427                                 /* NOT REACHED */
428                         }
429                         off += SEG_SIZE;
430                 }
431                 if (fsync(fd) < 0)
432                         err(1, "Unable to reserve blocks for memory image");
433                 free(zmem);
434         }
435         MemImageFd = fd;
436         Maxmem = Maxmem_bytes >> PAGE_SHIFT;
437 }
438
439 /*
440  * Initialize kernel memory.  This reserves kernel virtual memory by using
441  * MAP_VPAGETABLE
442  */
443
444 static
445 void
446 init_kern_memory(void)
447 {
448         void *base;
449         void *try;
450         char *zero;
451         char dummy;
452         char *topofstack = &dummy;
453         vpte_t pte;
454         int i;
455
456         /*
457          * Memory map our kernel virtual memory space.  Note that the
458          * kernel image itself is not made part of this memory for the
459          * moment.
460          *
461          * The memory map must be segment-aligned so we can properly
462          * offset KernelPTD.
463          *
464          * If the system kernel has a different MAXDSIZ, it might not
465          * be possible to map kernel memory in its prefered location.
466          * Try a number of different locations.
467          */
468         try = (void *)0x40000000;
469         base = NULL;
470         while ((char *)try + KERNEL_KVA_SIZE < topofstack) {
471                 base = mmap(try, KERNEL_KVA_SIZE, PROT_READ|PROT_WRITE,
472                             MAP_FILE|MAP_SHARED|MAP_VPAGETABLE,
473                             MemImageFd, 0);
474                 if (base == try)
475                         break;
476                 if (base != MAP_FAILED)
477                         munmap(base, KERNEL_KVA_SIZE);
478                 try = (char *)try + 0x10000000;
479         }
480         if (base != try) {
481                 err(1, "Unable to mmap() kernel virtual memory!");
482                 /* NOT REACHED */
483         }
484         madvise(base, KERNEL_KVA_SIZE, MADV_NOSYNC);
485         KvaStart = (vm_offset_t)base;
486         KvaSize = KERNEL_KVA_SIZE;
487         KvaEnd = KvaStart + KvaSize;
488         printf("KVM mapped at %p-%p\n", (void *)KvaStart, (void *)KvaEnd);
489
490         /*
491          * Create a top-level page table self-mapping itself. 
492          *
493          * Initialize the page directory at physical page index 0 to point
494          * to an array of page table pages starting at physical page index 1
495          */
496         lseek(MemImageFd, 0L, 0);
497         for (i = 0; i < KERNEL_KVA_SIZE / SEG_SIZE; ++i) {
498                 pte = ((i + 1) * PAGE_SIZE) | VPTE_V | VPTE_R | VPTE_W;
499                 write(MemImageFd, &pte, sizeof(pte));
500         }
501
502         /*
503          * Initialize the PTEs in the page table pages required to map the
504          * page table itself.  This includes mapping the page directory page
505          * at the base so we go one more loop then normal.
506          */
507         lseek(MemImageFd, PAGE_SIZE, 0);
508         for (i = 0; i <= KERNEL_KVA_SIZE / SEG_SIZE * sizeof(vpte_t); ++i) {
509                 pte = (i * PAGE_SIZE) | VPTE_V | VPTE_R | VPTE_W;
510                 write(MemImageFd, &pte, sizeof(pte));
511         }
512
513         /*
514          * Initialize remaining PTEs to 0.  We may be reusing a memory image
515          * file.  This is approximately a megabyte.
516          */
517         i = (KERNEL_KVA_SIZE / PAGE_SIZE - i) * sizeof(pte);
518         zero = malloc(PAGE_SIZE);
519         bzero(zero, PAGE_SIZE);
520         while (i) {
521                 write(MemImageFd, zero, (i > PAGE_SIZE) ? PAGE_SIZE : i);
522                 i = i - ((i > PAGE_SIZE) ? PAGE_SIZE : i);
523         }
524         free(zero);
525
526         /*
527          * Enable the page table and calculate pointers to our self-map
528          * for easy kernel page table manipulation.
529          *
530          * KernelPTA must be offset so we can do direct VA translations
531          */
532         mcontrol(base, KERNEL_KVA_SIZE, MADV_SETMAP,
533                  0 | VPTE_R | VPTE_W | VPTE_V);
534         KernelPTD = (vpte_t *)base;                       /* pg directory */
535         KernelPTA = (vpte_t *)((char *)base + PAGE_SIZE); /* pg table pages */
536         KernelPTA -= KvaStart >> PAGE_SHIFT;
537
538         /*
539          * phys_avail[] represents unallocated physical memory.  MI code
540          * will use phys_avail[] to create the vm_page array.
541          */
542         phys_avail[0] = PAGE_SIZE +
543                         KERNEL_KVA_SIZE / PAGE_SIZE * sizeof(vpte_t);
544         phys_avail[0] = (phys_avail[0] + PAGE_MASK) & ~(vm_paddr_t)PAGE_MASK;
545         phys_avail[1] = Maxmem_bytes;
546
547         /*
548          * (virtual_start, virtual_end) represent unallocated kernel virtual
549          * memory.  MI code will create kernel_map using these parameters.
550          */
551         virtual_start = KvaStart + PAGE_SIZE +
552                         KERNEL_KVA_SIZE / PAGE_SIZE * sizeof(vpte_t);
553         virtual_start = (virtual_start + PAGE_MASK) & ~(vm_offset_t)PAGE_MASK;
554         virtual_end = KvaStart + KERNEL_KVA_SIZE;
555
556         /*
557          * kernel_vm_end could be set to virtual_end but we want some 
558          * indication of how much of the kernel_map we've used, so
559          * set it low and let pmap_growkernel increase it even though we
560          * don't need to create any new page table pages.
561          */
562         kernel_vm_end = virtual_start;
563
564         /*
565          * Allocate space for process 0's UAREA.
566          */
567         proc0paddr = (void *)virtual_start;
568         for (i = 0; i < UPAGES; ++i) {
569                 pmap_kenter_quick(virtual_start, phys_avail[0]);
570                 virtual_start += PAGE_SIZE;
571                 phys_avail[0] += PAGE_SIZE;
572         }
573
574         /*
575          * crashdumpmap
576          */
577         crashdumpmap = virtual_start;
578         virtual_start += MAXDUMPPGS * PAGE_SIZE;
579
580         /*
581          * msgbufp maps the system message buffer
582          */
583         assert((MSGBUF_SIZE & PAGE_MASK) == 0);
584         msgbufp = (void *)virtual_start;
585         for (i = 0; i < (MSGBUF_SIZE >> PAGE_SHIFT); ++i) {
586                 pmap_kenter_quick(virtual_start, phys_avail[0]);
587                 virtual_start += PAGE_SIZE;
588                 phys_avail[0] += PAGE_SIZE;
589         }
590         msgbufinit(msgbufp, MSGBUF_SIZE);
591
592         /*
593          * used by kern_memio for /dev/mem access
594          */
595         ptvmmap = (caddr_t)virtual_start;
596         virtual_start += PAGE_SIZE;
597
598         /*
599          * Bootstrap the kernel_pmap
600          */
601         pmap_bootstrap();
602 }
603
604 /*
605  * Map the per-cpu globaldata for cpu #0.  Allocate the space using
606  * virtual_start and phys_avail[0]
607  */
608 static
609 void
610 init_globaldata(void)
611 {
612         int i;
613         vm_paddr_t pa;
614         vm_offset_t va;
615
616         /*
617          * Reserve enough KVA to cover possible cpus.  This is a considerable
618          * amount of KVA since the privatespace structure includes two 
619          * whole page table mappings.
620          */
621         virtual_start = (virtual_start + SEG_MASK) & ~(vm_offset_t)SEG_MASK;
622         CPU_prvspace = (void *)virtual_start;
623         virtual_start += sizeof(struct privatespace) * SMP_MAXCPU;
624
625         /*
626          * Allocate enough physical memory to cover the mdglobaldata
627          * portion of the space and the idle stack and map the pages
628          * into KVA.  For cpu #0 only.
629          */
630         for (i = 0; i < sizeof(struct mdglobaldata); i += PAGE_SIZE) {
631                 pa = phys_avail[0];
632                 va = (vm_offset_t)&CPU_prvspace[0].mdglobaldata + i;
633                 pmap_kenter_quick(va, pa);
634                 phys_avail[0] += PAGE_SIZE;
635         }
636         for (i = 0; i < sizeof(CPU_prvspace[0].idlestack); i += PAGE_SIZE) {
637                 pa = phys_avail[0];
638                 va = (vm_offset_t)&CPU_prvspace[0].idlestack + i;
639                 pmap_kenter_quick(va, pa);
640                 phys_avail[0] += PAGE_SIZE;
641         }
642
643         /*
644          * Setup the %fs for cpu #0.  The mycpu macro works after this
645          * point.  Note that %gs is used by pthreads.
646          */
647         tls_set_fs(&CPU_prvspace[0], sizeof(struct privatespace));
648 }
649
650 /*
651  * Initialize very low level systems including thread0, proc0, etc.
652  */
653 static
654 void
655 init_vkernel(void)
656 {
657         struct mdglobaldata *gd;
658
659         gd = &CPU_prvspace[0].mdglobaldata;
660         bzero(gd, sizeof(*gd));
661
662         gd->mi.gd_curthread = &thread0;
663         thread0.td_gd = &gd->mi;
664         ncpus = 1;
665         ncpus2 = 1;     /* rounded down power of 2 */
666         ncpus_fit = 1;  /* rounded up power of 2 */
667         /* ncpus2_mask and ncpus_fit_mask are 0 */
668         init_param1();
669         gd->mi.gd_prvspace = &CPU_prvspace[0];
670         mi_gdinit(&gd->mi, 0);
671         cpu_gdinit(gd, 0);
672         mi_proc0init(&gd->mi, proc0paddr);
673         lwp0.lwp_md.md_regs = &proc0_tf;
674
675         /*init_locks();*/
676         cninit();
677         rand_initialize();
678 #if 0   /* #ifdef DDB */
679         kdb_init();
680         if (boothowto & RB_KDB)
681                 Debugger("Boot flags requested debugger");
682 #endif
683         identcpu();
684 #if 0
685         initializecpu();        /* Initialize CPU registers */
686 #endif
687         init_param2((phys_avail[1] - phys_avail[0]) / PAGE_SIZE);
688
689 #if 0
690         /*
691          * Map the message buffer
692          */
693         for (off = 0; off < round_page(MSGBUF_SIZE); off += PAGE_SIZE)
694                 pmap_kenter((vm_offset_t)msgbufp + off, avail_end + off);
695         msgbufinit(msgbufp, MSGBUF_SIZE);
696 #endif
697 #if 0
698         thread0.td_pcb_cr3 ... MMU
699         lwp0.lwp_md.md_regs = &proc0_tf;
700 #endif
701 }
702
703 /*
704  * Filesystem image paths for the virtual kernel are optional.  
705  * If specified they each should point to a disk image, 
706  * the first of which will become the root disk.
707  *
708  * The virtual kernel caches data from our 'disk' just like a normal kernel,
709  * so we do not really want the real kernel to cache the data too.  Use
710  * O_DIRECT to remove the duplication.
711  */
712 static
713 void
714 init_disk(char *diskExp[], int diskFileNum, enum vkdisk_type type)
715 {
716         int i;  
717
718         if (diskFileNum == 0)
719                 return;
720
721         for(i=0; i < diskFileNum; i++){
722                 char *fname;
723                 fname = diskExp[i];
724
725                 if (fname == NULL) {
726                         warnx("Invalid argument to '-r'");
727                         continue;
728                 }
729
730                 if (DiskNum < VKDISK_MAX) {
731                         struct stat st; 
732                         struct vkdisk_info* info = NULL;
733                         int fd;
734                         size_t l = 0;
735
736                         if (type == VKD_DISK)
737                             fd = open(fname, O_RDWR|O_DIRECT|O_EXLOCK|O_NONBLOCK, 0644);
738                         else
739                             fd = open(fname, O_RDONLY|O_DIRECT, 0644);
740                         if (fd < 0 || fstat(fd, &st) < 0) {
741                                 if (errno == EAGAIN)
742                                         fprintf(stderr, "You may already have a vkernel using this disk image!\n");
743                                 err(1, "Unable to open/create %s", fname);
744                                 /* NOT REACHED */
745                         }
746                         /* get rid of O_NONBLOCK, keep O_DIRECT */
747                         if (type == VKD_DISK)
748                                 fcntl(fd, F_SETFL, O_DIRECT);
749
750                         info = &DiskInfo[DiskNum];
751                         l = strlen(fname);
752
753                         info->unit = i;
754                         info->fd = fd;
755                         info->type = type;
756                         memcpy(info->fname, fname, l);
757
758                         if (DiskNum == 0) {
759                                 if (type == VKD_CD) {
760                                     rootdevnames[0] = "cd9660:vcd0a";
761                                 } else if (type == VKD_DISK) {
762                                     rootdevnames[0] = "ufs:vkd0s0a";
763                                     rootdevnames[1] = "ufs:vkd0s1a";
764                                 }
765                         }
766
767                         DiskNum++;
768                 } else {
769                         warnx("vkd%d (%s) > VKDISK_MAX", DiskNum, fname);
770                         continue;
771                 }
772         }
773 }
774
775 static
776 int
777 netif_set_tapflags(int tap_unit, int f, int s)
778 {
779         struct ifreq ifr;
780         int flags;
781
782         bzero(&ifr, sizeof(ifr));
783
784         snprintf(ifr.ifr_name, sizeof(ifr.ifr_name), "tap%d", tap_unit);
785         if (ioctl(s, SIOCGIFFLAGS, &ifr) < 0) {
786                 warn("tap%d: ioctl(SIOCGIFFLAGS) failed", tap_unit);
787                 return -1;
788         }
789
790         /*
791          * Adjust if_flags
792          *
793          * If the flags are already set/cleared, then we return
794          * immediately to avoid extra syscalls
795          */
796         flags = (ifr.ifr_flags & 0xffff) | (ifr.ifr_flagshigh << 16);
797         if (f < 0) {
798                 /* Turn off flags */
799                 f = -f;
800                 if ((flags & f) == 0)
801                         return 0;
802                 flags &= ~f;
803         } else {
804                 /* Turn on flags */
805                 if (flags & f)
806                         return 0;
807                 flags |= f;
808         }
809
810         /*
811          * Fix up ifreq.ifr_name, since it may be trashed
812          * in previous ioctl(SIOCGIFFLAGS)
813          */
814         snprintf(ifr.ifr_name, sizeof(ifr.ifr_name), "tap%d", tap_unit);
815
816         ifr.ifr_flags = flags & 0xffff;
817         ifr.ifr_flagshigh = flags >> 16;
818         if (ioctl(s, SIOCSIFFLAGS, &ifr) < 0) {
819                 warn("tap%d: ioctl(SIOCSIFFLAGS) failed", tap_unit);
820                 return -1;
821         }
822         return 0;
823 }
824
825 static
826 int
827 netif_set_tapaddr(int tap_unit, in_addr_t addr, in_addr_t mask, int s)
828 {
829         struct ifaliasreq ifra;
830         struct sockaddr_in *in;
831
832         bzero(&ifra, sizeof(ifra));
833         snprintf(ifra.ifra_name, sizeof(ifra.ifra_name), "tap%d", tap_unit);
834
835         /* Setup address */
836         in = (struct sockaddr_in *)&ifra.ifra_addr;
837         in->sin_family = AF_INET;
838         in->sin_len = sizeof(*in);
839         in->sin_addr.s_addr = addr;
840
841         if (mask != 0) {
842                 /* Setup netmask */
843                 in = (struct sockaddr_in *)&ifra.ifra_mask;
844                 in->sin_len = sizeof(*in);
845                 in->sin_addr.s_addr = mask;
846         }
847
848         if (ioctl(s, SIOCAIFADDR, &ifra) < 0) {
849                 warn("tap%d: ioctl(SIOCAIFADDR) failed", tap_unit);
850                 return -1;
851         }
852         return 0;
853 }
854
855 static
856 int
857 netif_add_tap2brg(int tap_unit, const char *ifbridge, int s)
858 {
859         struct ifbreq ifbr;
860         struct ifdrv ifd;
861
862         bzero(&ifbr, sizeof(ifbr));
863         snprintf(ifbr.ifbr_ifsname, sizeof(ifbr.ifbr_ifsname),
864                  "tap%d", tap_unit);
865
866         bzero(&ifd, sizeof(ifd));
867         strlcpy(ifd.ifd_name, ifbridge, sizeof(ifd.ifd_name));
868         ifd.ifd_cmd = BRDGADD;
869         ifd.ifd_len = sizeof(ifbr);
870         ifd.ifd_data = &ifbr;
871
872         if (ioctl(s, SIOCSDRVSPEC, &ifd) < 0) {
873                 /*
874                  * 'errno == EEXIST' means that the tap(4) is already
875                  * a member of the bridge(4)
876                  */
877                 if (errno != EEXIST) {
878                         warn("ioctl(%s, SIOCSDRVSPEC) failed", ifbridge);
879                         return -1;
880                 }
881         }
882         return 0;
883 }
884
885 #define TAPDEV_OFLAGS   (O_RDWR | O_NONBLOCK)
886
887 /*
888  * Locate the first unused tap(4) device file if auto mode is requested,
889  * or open the user supplied device file, and bring up the corresponding
890  * tap(4) interface.
891  *
892  * NOTE: Only tap(4) device file is supported currently
893  */
894 static
895 int
896 netif_open_tap(const char *netif, int *tap_unit, int s)
897 {
898         char tap_dev[MAXPATHLEN];
899         int tap_fd, failed;
900         struct stat st;
901         char *dname;
902
903         *tap_unit = -1;
904
905         if (strcmp(netif, "auto") == 0) {
906                 /*
907                  * Find first unused tap(4) device file
908                  */
909                 tap_fd = open("/dev/tap", TAPDEV_OFLAGS);
910                 if (tap_fd < 0) {
911                         warnc(errno, "Unable to find a free tap(4)");
912                         return -1;
913                 }
914         } else {
915                 /*
916                  * User supplied tap(4) device file or unix socket.
917                  */
918                 if (netif[0] == '/')    /* Absolute path */
919                         strlcpy(tap_dev, netif, sizeof(tap_dev));
920                 else
921                         snprintf(tap_dev, sizeof(tap_dev), "/dev/%s", netif);
922
923                 tap_fd = open(tap_dev, TAPDEV_OFLAGS);
924
925                 /*
926                  * If we cannot open normally try to connect to it.
927                  */
928                 if (tap_fd < 0)
929                         tap_fd = unix_connect(tap_dev);
930
931                 if (tap_fd < 0) {
932                         warn("Unable to open %s", tap_dev);
933                         return -1;
934                 }
935         }
936
937         /*
938          * Check whether the device file is a tap(4)
939          */
940         if (fstat(tap_fd, &st) < 0) {
941                 failed = 1;
942         } else if (S_ISCHR(st.st_mode)) {
943                 dname = fdevname(tap_fd);
944                 if (dname)
945                         dname = strstr(dname, "tap");
946                 if (dname) {
947                         /*
948                          * Bring up the corresponding tap(4) interface
949                          */
950                         *tap_unit = strtol(dname + 3, NULL, 10);
951                         printf("TAP UNIT %d\n", *tap_unit);
952                         if (netif_set_tapflags(*tap_unit, IFF_UP, s) == 0)
953                                 failed = 0;
954                         failed = 0;
955                 } else {
956                         failed = 1;
957                 }
958         } else if (S_ISSOCK(st.st_mode)) {
959                 /*
960                  * Special socket connection (typically to vknet).  We
961                  * do not have to do anything.
962                  */
963                 failed = 0;
964         } else {
965                 failed = 1;
966         }
967
968         if (failed) {
969                 warnx("%s is not a tap(4) device or socket", tap_dev);
970                 close(tap_fd);
971                 tap_fd = -1;
972                 *tap_unit = -1;
973         }
974         return tap_fd;
975 }
976
977 static int
978 unix_connect(const char *path)
979 {
980         struct sockaddr_un sunx;
981         int len;
982         int net_fd;
983         int sndbuf = 262144;
984         struct stat st;
985
986         snprintf(sunx.sun_path, sizeof(sunx.sun_path), "%s", path);
987         len = offsetof(struct sockaddr_un, sun_path[strlen(sunx.sun_path)]);
988         ++len;  /* include nul */
989         sunx.sun_family = AF_UNIX;
990         sunx.sun_len = len;
991
992         net_fd = socket(AF_UNIX, SOCK_SEQPACKET, 0);
993         if (net_fd < 0)
994                 return(-1);
995         if (connect(net_fd, (void *)&sunx, len) < 0) {
996                 close(net_fd);
997                 return(-1);
998         }
999         setsockopt(net_fd, SOL_SOCKET, SO_SNDBUF, &sndbuf, sizeof(sndbuf));
1000         if (fstat(net_fd, &st) == 0)
1001                 printf("Network socket buffer: %d bytes\n", st.st_blksize);
1002         fcntl(net_fd, F_SETFL, O_NONBLOCK);
1003         return(net_fd);
1004 }
1005
1006 #undef TAPDEV_MAJOR
1007 #undef TAPDEV_MINOR
1008 #undef TAPDEV_OFLAGS
1009
1010 /*
1011  * Following syntax is supported,
1012  * 1) x.x.x.x             tap(4)'s address is x.x.x.x
1013  *
1014  * 2) x.x.x.x/z           tap(4)'s address is x.x.x.x
1015  *                        tap(4)'s netmask len is z
1016  *
1017  * 3) x.x.x.x:y.y.y.y     tap(4)'s address is x.x.x.x
1018  *                        pseudo netif's address is y.y.y.y
1019  *
1020  * 4) x.x.x.x:y.y.y.y/z   tap(4)'s address is x.x.x.x
1021  *                        pseudo netif's address is y.y.y.y
1022  *                        tap(4) and pseudo netif's netmask len are z
1023  *
1024  * 5) bridgeX             tap(4) will be added to bridgeX
1025  *
1026  * 6) bridgeX:y.y.y.y     tap(4) will be added to bridgeX
1027  *                        pseudo netif's address is y.y.y.y
1028  *
1029  * 7) bridgeX:y.y.y.y/z   tap(4) will be added to bridgeX
1030  *                        pseudo netif's address is y.y.y.y
1031  *                        pseudo netif's netmask len is z
1032  */
1033 static
1034 int
1035 netif_init_tap(int tap_unit, in_addr_t *addr, in_addr_t *mask, int s)
1036 {
1037         in_addr_t tap_addr, netmask, netif_addr;
1038         int next_netif_addr;
1039         char *tok, *masklen_str, *ifbridge;
1040
1041         *addr = 0;
1042         *mask = 0;
1043
1044         tok = strtok(NULL, ":/");
1045         if (tok == NULL) {
1046                 /*
1047                  * Nothing special, simply use tap(4) as backend
1048                  */
1049                 return 0;
1050         }
1051
1052         if (inet_pton(AF_INET, tok, &tap_addr) > 0) {
1053                 /*
1054                  * tap(4)'s address is supplied
1055                  */
1056                 ifbridge = NULL;
1057
1058                 /*
1059                  * If there is next token, then it may be pseudo
1060                  * netif's address or netmask len for tap(4)
1061                  */
1062                 next_netif_addr = 0;
1063         } else {
1064                 /*
1065                  * Not tap(4)'s address, assume it as a bridge(4)
1066                  * iface name
1067                  */
1068                 tap_addr = 0;
1069                 ifbridge = tok;
1070
1071                 /*
1072                  * If there is next token, then it must be pseudo
1073                  * netif's address
1074                  */
1075                 next_netif_addr = 1;
1076         }
1077
1078         netmask = netif_addr = 0;
1079
1080         tok = strtok(NULL, ":/");
1081         if (tok == NULL)
1082                 goto back;
1083
1084         if (inet_pton(AF_INET, tok, &netif_addr) <= 0) {
1085                 if (next_netif_addr) {
1086                         warnx("Invalid pseudo netif address: %s", tok);
1087                         return -1;
1088                 }
1089                 netif_addr = 0;
1090
1091                 /*
1092                  * Current token is not address, then it must be netmask len
1093                  */
1094                 masklen_str = tok;
1095         } else {
1096                 /*
1097                  * Current token is pseudo netif address, if there is next token
1098                  * it must be netmask len
1099                  */
1100                 masklen_str = strtok(NULL, "/");
1101         }
1102
1103         /* Calculate netmask */
1104         if (masklen_str != NULL) {
1105                 u_long masklen;
1106
1107                 masklen = strtoul(masklen_str, NULL, 10);
1108                 if (masklen < 32 && masklen > 0) {
1109                         netmask = htonl(~((1LL << (32 - masklen)) - 1)
1110                                         & 0xffffffff);
1111                 } else {
1112                         warnx("Invalid netmask len: %lu", masklen);
1113                         return -1;
1114                 }
1115         }
1116
1117         /* Make sure there is no more token left */
1118         if (strtok(NULL, ":/") != NULL) {
1119                 warnx("Invalid argument to '-I'");
1120                 return -1;
1121         }
1122
1123 back:
1124         if (tap_unit < 0) {
1125                 /* Do nothing */
1126         } else if (ifbridge == NULL) {
1127                 /* Set tap(4) address/netmask */
1128                 if (netif_set_tapaddr(tap_unit, tap_addr, netmask, s) < 0)
1129                         return -1;
1130         } else {
1131                 /* Tie tap(4) to bridge(4) */
1132                 if (netif_add_tap2brg(tap_unit, ifbridge, s) < 0)
1133                         return -1;
1134         }
1135
1136         *addr = netif_addr;
1137         *mask = netmask;
1138         return 0;
1139 }
1140
1141 /*
1142  * NetifInfo[] will be filled for pseudo netif initialization.
1143  * NetifNum will be bumped to reflect the number of valid entries
1144  * in NetifInfo[].
1145  */
1146 static
1147 void
1148 init_netif(char *netifExp[], int netifExpNum)
1149 {
1150         int i, s;
1151
1152         if (netifExpNum == 0)
1153                 return;
1154
1155         s = socket(AF_INET, SOCK_DGRAM, 0);     /* for ioctl(SIOC) */
1156         if (s < 0)
1157                 return;
1158
1159         for (i = 0; i < netifExpNum; ++i) {
1160                 struct vknetif_info *info;
1161                 in_addr_t netif_addr, netif_mask;
1162                 int tap_fd, tap_unit;
1163                 char *netif;
1164
1165                 netif = strtok(netifExp[i], ":");
1166                 if (netif == NULL) {
1167                         warnx("Invalid argument to '-I'");
1168                         continue;
1169                 }
1170
1171                 /*
1172                  * Open tap(4) device file and bring up the
1173                  * corresponding interface
1174                  */
1175                 tap_fd = netif_open_tap(netif, &tap_unit, s);
1176                 if (tap_fd < 0)
1177                         continue;
1178
1179                 /*
1180                  * Initialize tap(4) and get address/netmask
1181                  * for pseudo netif
1182                  *
1183                  * NB: Rest part of netifExp[i] is passed
1184                  *     to netif_init_tap() implicitly.
1185                  */
1186                 if (netif_init_tap(tap_unit, &netif_addr, &netif_mask, s) < 0) {
1187                         /*
1188                          * NB: Closing tap(4) device file will bring
1189                          *     down the corresponding interface
1190                          */
1191                         close(tap_fd);
1192                         continue;
1193                 }
1194
1195                 info = &NetifInfo[NetifNum];
1196                 info->tap_fd = tap_fd;
1197                 info->tap_unit = tap_unit;
1198                 info->netif_addr = netif_addr;
1199                 info->netif_mask = netif_mask;
1200
1201                 NetifNum++;
1202                 if (NetifNum >= VKNETIF_MAX)    /* XXX will this happen? */
1203                         break;
1204         }
1205         close(s);
1206 }
1207
1208 static
1209 void
1210 writepid( void )
1211 {
1212         pid_t self;
1213         FILE *fp;
1214
1215         if (pid_file != NULL) {
1216                 self = getpid();
1217                 fp = fopen(pid_file, "w");
1218
1219                 if (fp != NULL) {
1220                         fprintf(fp, "%ld\n", (long)self);
1221                         fclose(fp);
1222                 }
1223                 else {
1224                         perror("Warning: couldn't open pidfile");
1225                 }
1226         }
1227 }
1228
1229 static
1230 void
1231 cleanpid( void ) 
1232 {
1233         if (pid_file != NULL) {
1234                 if ( unlink(pid_file) != 0 )
1235                         perror("Warning: couldn't remove pidfile");
1236         }
1237 }
1238
1239 static
1240 void
1241 usage(const char *ctl, ...)
1242 {
1243         va_list va;
1244
1245         va_start(va, ctl);
1246         vfprintf(stderr, ctl, va);
1247         va_end(va);
1248         fprintf(stderr, "\n");
1249         exit(1);
1250 }
1251
1252 void
1253 cpu_reset(void)
1254 {
1255         kprintf("cpu reset, rebooting vkernel\n");
1256         closefrom(3);
1257         cleanpid();
1258         execv(save_av[0], save_av);
1259 }
1260
1261 void
1262 cpu_halt(void)
1263 {
1264         kprintf("cpu halt, exiting vkernel\n");
1265         cleanpid();
1266         exit(0);
1267 }
1268
1269 void
1270 setrealcpu(void)
1271 {
1272         switch(lwp_cpu_lock) {
1273         case LCL_PER_CPU:
1274                 if (bootverbose)
1275                         kprintf("Locking CPU%d to real cpu %d\n",
1276                                 mycpuid, next_cpu);
1277                 usched_set(getpid(), USCHED_SET_CPU, &next_cpu, sizeof(next_cpu));
1278                 next_cpu++;
1279                 if (next_cpu >= real_ncpus)
1280                         next_cpu = 0;
1281                 break;
1282         case LCL_SINGLE_CPU:
1283                 if (bootverbose)
1284                         kprintf("Locking CPU%d to real cpu %d\n",
1285                                 mycpuid, next_cpu);
1286                 usched_set(getpid(), USCHED_SET_CPU, &next_cpu, sizeof(next_cpu));
1287                 break;
1288         default:
1289                 /* do not map virtual cpus to real cpus */
1290                 break;
1291         }
1292 }
1293