HAMMER has batch deduplication.
[ikiwiki.git] / docs / developer / hammerwishlist / index.mdwn
1 HAMMER FS specific wishlist:
2
3 * real-time deduplication: <tt>cp</tt> doesn't duplicate a file, instead it will reuse the existing ondisk data, which can later be deduplicated by a batch process.
4
5 * transparent per-PFS compression. This could be performed as a background task.
6   In case a file is compressed, it would be nice if it would be possible to access the compressed data, 
7   for example to send out web-pages compressed over the wire without having to decompress and recompress
8   again.
9
10 * filesystem growing and shrinking (growing is partially implemented, but needs some help).
11
12 * RAID-features: e.g. keep multiple copies of (certain) files on disk (per-PFS setting?). 
13   This could also be performed as a background task. In case multiple copies exists, 
14   the filesystem would try one after the other in case of a CRC failure.
15
16
17 * Clustering
18
19 See also: [Ongoing work](http://www.dragonflybsd.org/presentations/nycbsdcon08/img14.png)