This project is more about putting together a developer community rather than a codin...
[ikiwiki.git] / docs / developer / gsoc2010 / index.mdwn
1 [[!meta title="Google Summer of Code 2010"]]
2
3 [[!toc  levels=0]]
4
5 DragonFly BSD is planning to participate (pending acceptance) in the Google Summer of Code program for 2010.
6
7
8 Have a look at our SoC pages from [[2008|docs/developer/GoogleSoC2008/]] and [[2009|docs/developer/gsoc2009]] to get an overview about prior year's projects.  The [Projects Page](/docs/developer/ProjectsPage/) is also a potential source of ideas.
9
10
11 For more details on Google's Summer of Code: [Google's SoC page](http://socghop.appspot.com/)
12
13
14 # Project ideas
15
16 1. VFS Quota System
17 * Kernelland quota support in the VFS layer
18 * Filesystem-agnostic quota support tools for userland
19
20 1. Ultra Fast Boot & Shutdown Speed
21 * Be competitive with GNU/Linux, OSX & MS Windows refinements in this area.
22
23 1. Graphics Kernel Memory Manager Support ( GEM )
24 * Support dealing with graphics NUMA in kernel space for modern graphics hardware
25 * http://en.wikipedia.org/wiki/Graphics_Execution_Manager
26
27 1. Make DragonFly NUMA-aware 
28
29 * Parse related ACPI tables 
30 * NUMA-aware memory allocation
31 * References:
32 [ACPI SLIT parser](http://mail-index.netbsd.org/tech-kern/2009/11/23/msg006518.html)
33 [ACPI SRAT parser](http://mail-index.netbsd.org/tech-kern/2009/11/23/msg006517.html)
34 [NetBSD NUMA diff](http://www.netbsd.org/~cegger/numa2.diff)
35 [NetBSD NUMA x86 diff](http://www.netbsd.org/~cegger/numa_x86.diff)
36
37 1. Security/Hardening improvements
38 * Encrypted swap/filesystems (From NetBSD or OpenBSD?)
39 * Extended toolchain hardening
40 * NX/XD support in kernel (at least for 64 bit kernels, DF doesn’t support PAE IIRC)
41 * More use of randomization (for example in PIDs)
42 * Port OpenBSD’s most recent malloc implementation as an option 
43 * Use blf instead of md5 for passwords etc. (already possible, but not default)
44
45 1. Data Integrity Framework Implementation
46 * Something akin to what was done for Linux: http://oss.oracle.com/projects/data-integrity/
47
48 1. Volume Management based on NetBSD's port of LVM2
49
50     NetBSD reimplemented Linux's device mapper (currently only implementing
51 the linear, zero and error targets; Linux has support for a variety of
52 targets, including crypt, stripe, snap, multipath) as dm(4). Device mapper
53 provides the functionality on which to implement volume management; NetBSD
54 has imported LVM2 (which is GPL), but it is possible to create different
55 tools for volume management (e.g. IBM's EVMS was also built on top of device
56 mapper).
57
58     The goal of this project is to port both the kernel code, dm(4), and the
59 LVM2 userspace libraries and tools from NetBSD. If time remains, the
60 student should also implement a proof of concept "stripe" target or, for the
61 more ambitious, a "crypt" target.
62
63     A possible roadmap for this project would be
64
65     1. Port the dm(4) code
66
67         This code uses proplib instead of binary ioctls for communicating with
68 userspace. Either port proplib, or convert the code to use ioctls.
69
70     1. Port the userspace tools
71
72         Integrate the tools in our source tree using a separate vendor branch, as
73 is normally done for contrib software (see development(7)). Make any
74 DragonFlyBSD-specific changes necessary.
75
76     1. (Optional) Implement either a "stripe" target or a crypt target.
77
78         The stripe target must be designed with robustness and extensibility in
79 mind, though it is not required to go all the way. It should be flexible
80 enough to allow for different RAID level implementations (at least 0, 1
81 and 5). Additionally, it should be possible to keep an internal (i.e. part
82 of the volume) log to speed up resyncing and parity checking. Implementing
83 those features would be ideal, but is not required.
84
85         The crypt target must allow for different ciphers and cipher parameters and
86 should make use of our in-kernel crypto infrastructure. It is probably
87 necessary to do the encryption asynchronously which will require extending
88 the current infrastructure.
89
90 1. Port more of a range of modern WiFi drivers
91 * iwn - Intel WiFi Link 4965/5000/1000/6000 IEEE 802.11a/g/n wireless network devices
92 * http://en.wikipedia.org/wiki/Comparison_of_open_source_wireless_drivers
93
94 1. Make DragonflyBSD Tickless
95 * By default, the clock cyclic fires at 100 Hz, regardless of whether or not any timeouts/callouts are scheduled to fire/expire. This is suboptimal from a power efficiency standpoint, as at least one of the system's CPUs never become quiescent/idle enough to be brought into a low power state.
96 This work involves re-implementing the services presently provided by clock() in a tickless (or event based) fashion, eliminating the need for the system to "wake up", only to realize that there's nothing to do on an otherwise idle system.
97 * http://hub.opensolaris.org/bin/view/Project+tickless/lbolt
98
99 1. Make the DragonflyBSD Dispatcher Power-aware
100 * CPU power management as it it implemented today is relatively isolated from the rest of the system. As such, it is forced to periodically poll to measure the utilization of the system's CPU resources.
101 * This project extends the kernel's existing topology aware scheduling facility to bring "power domain" awareness to the dispatcher. With this awareness in place, the dispatcher can implement coalescence dispatching policy to consolidate utilization onto a smaller subset of CPU domains, freeing up other domains to be power managed. In addition to being domain aware, the dispatcher will also tend to prefer to utilize domains already running at higher power/performance states...this will increase the duration and extent to which domains can remain quiescent, improving the kernel's ability to take advantage of features like deep C-states. Because the dispatcher will track power domain utilization along the way, it can drive active domain state changes in an event driven fashion, eliminating the need for the CPUPM subsystem to poll.
102 * http://hub.opensolaris.org/bin/view/Project+tesla/CPUPM
103
104  (please add)