kernel - Cut buffer cache related pmap invalidations in half
authorMatthew Dillon <dillon@apollo.backplane.com>
Mon, 25 Jul 2016 04:52:26 +0000 (21:52 -0700)
committerMatthew Dillon <dillon@apollo.backplane.com>
Mon, 25 Jul 2016 21:34:23 +0000 (14:34 -0700)
commitb9dcb64625bc3a52a0989742e47c7ee36c86dbf7
tree3f2c7be4484c9b04b2c09aef938dd4ecade31f7a
parentf093560f0bb0c0e1042f5ea41e76c6e41fe508ba
kernel - Cut buffer cache related pmap invalidations in half

* Do not bother to invalidate the TLB when tearing down a buffer
  cache buffer.  On the flip side, always invalidate the TLB
  (the page range in question) when entering pages into a buffer
  cache buffer.  Only applicable to normal VMIO buffers.

* Significantly improves buffer cache / filesystem performance with
  no real risk.

* Significantly improves performance for tmpfs teardowns on unmount
  (which typically have to tear-down a lot of buffer cache buffers).
sys/kern/vfs_bio.c