2 years agoipfw: Add ipfrag filter.
Sepherosa Ziehau [Wed, 20 Sep 2017 00:21:58 +0000 (08:21 +0800)]
ipfw: Add ipfrag filter.

Unlike 'frag' filter, which only matches non-first IP fragments,
this filter matches all IP fragments.

2 years agoipfw: Remove unnecessary complexity
Sepherosa Ziehau [Wed, 20 Sep 2017 00:13:57 +0000 (08:13 +0800)]
ipfw: Remove unnecessary complexity

2 years agohammer2 - Remove debugging, adjust iocom
Matthew Dillon [Wed, 20 Sep 2017 00:31:03 +0000 (17:31 -0700)]
hammer2 - Remove debugging, adjust iocom

* Call hammer2_iocom_uninit() before we start cleaning up the hmp.

* Remove numerous debug messages.

2 years agokernel - Fix races in kern_dmsg.c (hammer2)
Matthew Dillon [Wed, 20 Sep 2017 00:29:42 +0000 (17:29 -0700)]
kernel - Fix races in kern_dmsg.c (hammer2)

* Fix kdmsg races during shutdown which can assert or panic

* Fixes numerous hammer2 assertions or panics related to unmounting,
  including mount failures due to missing labels.

2 years agokernel - Remove some kdmsg debugging
Matthew Dillon [Tue, 19 Sep 2017 21:20:25 +0000 (14:20 -0700)]
kernel - Remove some kdmsg debugging

* Remove '<blah> thread terminating' kdmsg debug messages.

2 years agokernel - support dummy reallocblks in devfs
Matthew Dillon [Tue, 19 Sep 2017 21:13:57 +0000 (14:13 -0700)]
kernel - support dummy reallocblks in devfs

* cluster_write() calls VOP_REALLOCBLKS() in certain situations.

* Supply a dummy for devfs's .vop_reallocblks to avoid a panic.

Reported-by: tuxillo
2 years agogpt(8): Add HAMMER and HAMMER2 support
François Tigeot [Tue, 19 Sep 2017 20:15:35 +0000 (22:15 +0200)]
gpt(8): Add HAMMER and HAMMER2 support

This makes it possible to create HAMMER or HAMMER2 partitions
with simple commands such as:

  gpt add -t hammer2 /dev/device

2 years agoboot/loader: Fix the 'crc' command to the intended code.
Sascha Wildner [Tue, 19 Sep 2017 18:24:03 +0000 (20:24 +0200)]
boot/loader: Fix the 'crc' command to the intended code.

It doesn't change the result, but fixes a cppcheck warning.

Reported-by: dcb
Fix-submitted-by: Lubos Boucek
Dragonfly-bug:    <https://bugs.dragonflybsd.org/issues/3060>

2 years agosbin/hammer: Use uuid_compare(3) instead of bcmp(3)
Tomohiro Kusumi [Sat, 16 Sep 2017 17:53:35 +0000 (20:53 +0300)]
sbin/hammer: Use uuid_compare(3) instead of bcmp(3)

2 years agosbin/newfs_hammer: Use uuid_create(3) instead of uuidgen(2)
Tomohiro Kusumi [Sat, 16 Sep 2017 16:02:55 +0000 (19:02 +0300)]
sbin/newfs_hammer: Use uuid_create(3) instead of uuidgen(2)

HAMMER userspace uses uuid_create(3) except for this one.
uuidgen(2) syscall isn't part of the specification.

2 years agosbin/newfs_hammer: Use hwarnx() instead of hwarn()
Tomohiro Kusumi [Sat, 16 Sep 2017 12:23:36 +0000 (15:23 +0300)]
sbin/newfs_hammer: Use hwarnx() instead of hwarn()

This one should be with x.

2 years agohammer2(8): Fix printf.
Sascha Wildner [Tue, 19 Sep 2017 14:23:12 +0000 (16:23 +0200)]
hammer2(8): Fix printf.

2 years agoipfw: Add defrag action.
Sepherosa Ziehau [Sat, 16 Sep 2017 06:17:52 +0000 (14:17 +0800)]
ipfw: Add defrag action.

IP fragment reassembling is almost required for stateful firewall,
and will be needed for in-kernel NAT.

NOTE: Reassemabled IP packets will be passed to the next rule for
further evaluation.

2 years agohammer2 - Fix corruption on sync (2)
Matthew Dillon [Tue, 19 Sep 2017 09:07:51 +0000 (02:07 -0700)]
hammer2 - Fix corruption on sync (2)

* Looping on ONFLUSH to call RB_SCAN() can be endless due to deferrals.
  Just do it twice to catch the indirect block maintenance issue.

2 years agohammer2 - Fix corruption on sync, fix excessive stall, optimize sideq
Matthew Dillon [Tue, 19 Sep 2017 08:35:41 +0000 (01:35 -0700)]
hammer2 - Fix corruption on sync, fix excessive stall, optimize sideq

* Fix topology corruption which can occur due to the new
  hammer2_chain_indirect_maintenance() code.  This code can make
  modifications to the parent from inside the flush code itself.
  This can cause the flush code's RB_SCAN() recursion to miss
  mandatory chains during the flush, resulting in some of the
  topology missing from the synchronized flush.

  This bug could cause corruption due to a crash, but not due to
  a normal unmount, shutdown, or reboot, because that code always
  runs extra sync() calls which corrects the problem.

  Fix the bug by detecting that UPDATE was again set in the parent
  and run the RB_SCAN() again.

* Fix an excessive stall that can occur in the XOP code due to a
  sleep/wakeup race.  This race could cause a VOP operation to stall
  for 60 seconds (it then hit some failsafe code and continued running

  Fix this issue by removing hamemr2_xop_head->check_counter and
  integrating its flagging functions into run_mask.  Increase run_mask
  to 64 bits to accomodate the counter in the upper 32 bits.

* Optimize hammer2_inode_run_sideq().  Avoid running the sideq if the
  number of detached inodes is not significant, except when flushing
  in which case we always want to run the entire sideq.

2 years agohammer2 - augment freemap directive
Matthew Dillon [Tue, 19 Sep 2017 08:34:37 +0000 (01:34 -0700)]
hammer2 - augment freemap directive

* The hammer2 freemap debugging dump now sums up free blocks and
  displays the results, allowing the actual free bytes to be
  compared against df output.

2 years agoUpdate the pciconf(8) database.
Sascha Wildner [Mon, 18 Sep 2017 07:01:58 +0000 (09:01 +0200)]
Update the pciconf(8) database.

September 17, 2017 snapshot from http://pciids.sourceforge.net/

2 years agohammer2 - push missing file (cmd_destroy.c)
Matthew Dillon [Mon, 18 Sep 2017 02:36:14 +0000 (19:36 -0700)]
hammer2 - push missing file (cmd_destroy.c)

* Push missing file for the 'destroy' directive.

2 years agoshm_open(3): Set the FD_CLOEXEC flag for the new fd, per POSIX.
Sascha Wildner [Sun, 17 Sep 2017 16:07:54 +0000 (18:07 +0200)]
shm_open(3): Set the FD_CLOEXEC flag for the new fd, per POSIX.



2 years agoip: Don't double check length.
Sepherosa Ziehau [Sat, 16 Sep 2017 23:47:54 +0000 (07:47 +0800)]
ip: Don't double check length.

2 years agodummynet: ip_input expects ip_off/ip_len in network byte order.
Sepherosa Ziehau [Sat, 16 Sep 2017 22:40:50 +0000 (06:40 +0800)]
dummynet: ip_input expects ip_off/ip_len in network byte order.

2 years agoipfw/ipfw3: Use INTWAIT|NULLOK for mtag allocation.
Sepherosa Ziehau [Sat, 16 Sep 2017 22:27:11 +0000 (06:27 +0800)]
ipfw/ipfw3: Use INTWAIT|NULLOK for mtag allocation.

2 years agodummynet: Don't deliver freed mbuf to callers.
Sepherosa Ziehau [Sat, 16 Sep 2017 22:21:05 +0000 (06:21 +0800)]
dummynet: Don't deliver freed mbuf to callers.

2 years agoip: Move mbuf length assertion into an earlier place.
Sepherosa Ziehau [Sat, 16 Sep 2017 22:02:30 +0000 (06:02 +0800)]
ip: Move mbuf length assertion into an earlier place.

Before mbuf is casted to ip.

2 years agokernel - Order ipfw3 module before other ipfw3_* modules
Matthew Dillon [Sun, 17 Sep 2017 04:50:11 +0000 (21:50 -0700)]
kernel - Order ipfw3 module before other ipfw3_* modules

* Order ipfw3 first, i.e. before any other ipfw3_* modules.  This avoids
  an assertion in the other modules during their init.

Reported-by: shassard (irc)
2 years agohammer2 - Add directive to destroy bad directory entries
Matthew Dillon [Sun, 17 Sep 2017 01:17:16 +0000 (18:17 -0700)]
hammer2 - Add directive to destroy bad directory entries

* Add a directive and ioctl that is capable of destroying bad hammer2
  directory entries.  If topological corruption occurs due to a crash
  (which theoretically shouldn't be possible with HAMMER2), this directive
  allows you to destroy directory entries which do not have working inodes
  and cannot otherwise be destroyed with 'rm'.

* Sysops should only use this directive when absolutely necessary.

2 years agomtag: Use kmalloc flags, instead of just M_WAITOK or M_NOWAIT.
Sepherosa Ziehau [Sat, 16 Sep 2017 06:45:42 +0000 (14:45 +0800)]
mtag: Use kmalloc flags, instead of just M_WAITOK or M_NOWAIT.

This allows more fine-grained mtag allocation control, e.g.

2 years agonetisr: Make dynamic netisr rollup register/unregister MPSAFE.
Sepherosa Ziehau [Sat, 16 Sep 2017 02:54:49 +0000 (10:54 +0800)]
netisr: Make dynamic netisr rollup register/unregister MPSAFE.

2 years agonetisr: Use kmem_alloc3 for netisr thread and netlastfunc.
Sepherosa Ziehau [Sat, 16 Sep 2017 02:07:33 +0000 (10:07 +0800)]
netisr: Use kmem_alloc3 for netisr thread and netlastfunc.

2 years agohammer2 - Fix inode nlinks / directory-entry desynchronization on crash
Matthew Dillon [Fri, 15 Sep 2017 17:21:14 +0000 (10:21 -0700)]
hammer2 - Fix inode nlinks / directory-entry desynchronization on crash

* Hammer2 must flush dirty inodes, buffers, and chains when doing a sync,
  before writing-out the volume header.

* Inodes are flushed in two stages... we flush inodes via vfsyncscan()
  which runs through dirty vnodes, but inodes disassociated from vnodes
  are recorded separately and must also be flushed.  This is handled by

* Fix an ordering bug where hammer2_inode_run_sideq() was being called
  before vfsyncscan() instead of after.  This could result in some dirty
  inodes slipping through the cracks by getting retired by the system
  after the hammer2_inode_run_sideq() call but before vfsyncscan() can
  get to them.

  Fixed by calling hammer2_inode_run_sideq() after vfsyncscan() instead
  of before.

  Note that vnodes cannot normally be dirtied during the serialized portion
  of the flush because the flush serializes against modifying VOPs.  So we
  should not have a second source of desynchronization from that sort of
  activity.  In fact, strategy calls via shared R/W mmap()'s can execute
  concurrent with a flush, but these will have no effect on inode size
  or nlinks.

2 years agotcp: Use primary hash for TCP ports.
Sepherosa Ziehau [Fri, 15 Sep 2017 05:20:39 +0000 (13:20 +0800)]
tcp: Use primary hash for TCP ports.

This fixes the hash aliasing issue, which is caused by port space
devisiion.  Improve TCP connection establish performance a bit.

2 years agotcp/udp: Make sure hash size macro is powerof2
Sepherosa Ziehau [Fri, 15 Sep 2017 04:32:41 +0000 (12:32 +0800)]
tcp/udp: Make sure hash size macro is powerof2

2 years agohammer2 - Instrument error path for indirect block maintenance
Matthew Dillon [Thu, 14 Sep 2017 20:31:45 +0000 (13:31 -0700)]
hammer2 - Instrument error path for indirect block maintenance

* Instrument error path, fix a crash case when 'chain' cannot be modified
  (usually due to a filesystem full error).  Just complain instead.

* Add some temporary debugging for another possible issue under test.

Reported-by: arcade@b1t.name
2 years agokernel - Fix memory ordering race
Matthew Dillon [Thu, 14 Sep 2017 17:36:23 +0000 (10:36 -0700)]
kernel - Fix memory ordering race

* Fix a race in the mtx wait/wakeup code for situations where the
  releasing thread hands lock ownership to the waiter.  In this
  situation the waiter can sometimes succeed without having to do
  additional atomic ops.  However, this also allows speculative reads
  by the waiting cpu to preceed the lock handover.

* Add an mfence to fix this problem.  Add a few cpu_sfence()s (which
  are basically NOPs on Intel) to clarify other bits of code too.

2 years agohammer2 - Remove dead code, clarify comment
Matthew Dillon [Wed, 13 Sep 2017 23:07:27 +0000 (16:07 -0700)]
hammer2 - Remove dead code, clarify comment

* Remove some dead code.

* Clarify the flags passed in to hammer2_chain_getparent() and

2 years agokernel - Fix shared lock bug in kern_mutex.c
Matthew Dillon [Wed, 13 Sep 2017 23:03:19 +0000 (16:03 -0700)]
kernel - Fix shared lock bug in kern_mutex.c

* When the last exclusive lock is unlocked or when downgrading an exclusive
  lock to a shared lock, pending shared links must be processed.  The
  last 'lock count' is transfered to the first link, thus preventing the
  lock from getting ripped out from under the transfer code.

* However, when multiple shared links are pending, it is possible for the
  first recipient link to wakeup and release its lock before the unlock/drop
  code is able to finish its scan, which places the lock in an unexpected
  state.  The lock count was only being incremented within the link scan
  loop, once at a time.

* Fix the problem by applying a lock count representing ALL pending
  shared lock links after the first one before processing the first link.
  This ensures that the lock remains in a shared-lock state while the loop
  is running.

* This fixes a race that can occur in HAMMER2.

2 years agoinstaller - Avoid endless loop for UEFI installations
Antonio Huete Jimenez [Wed, 13 Sep 2017 20:32:12 +0000 (22:32 +0200)]
installer - Avoid endless loop for UEFI installations

- While doing an UEFI installation after selecting the disk if the dialog
  to write changes to the disk is cancelled there was no way to get back
  to the previous screen.
- Fix it by going to the select disk state.

2 years agokernel/hammer2: Rename DEBUG to H2_ZLIB_DEBUG in the zlib code.
Sascha Wildner [Wed, 13 Sep 2017 20:23:43 +0000 (22:23 +0200)]
kernel/hammer2: Rename DEBUG to H2_ZLIB_DEBUG in the zlib code.

This unbreaks LINT64, to which hammer2 was added in cf4ab83ee58092c57
without actually having tested it.

There is a DEBUG kernel option that this conflicts with. Also, most of
this code is userland code, not kernel code.

H2's zlib really needs to be cleaned up better.

2 years agohammer2 - Allow simple 'mount @label <target>' shortcut for snapshots
Matthew Dillon [Wed, 13 Sep 2017 17:33:27 +0000 (10:33 -0700)]
hammer2 - Allow simple 'mount @label <target>' shortcut for snapshots

* If any hammer2 PFS on a device is already mounted, all other PFS's on
  the device can be mounted simply by specifying their label.  There is
  no need to specify the device.  e.g.:

  # hammer2 pfs-list /build
  Type        ClusterId (pfs_clid)                 Label
  MASTER      726d8ab1-9839-11e7-98a7-6145cb9ac050 ROOT
  MASTER      726d8a72-9839-11e7-98a7-6145cb9ac050 LOCAL
  SNAPSHOT    eb19b5fa-98a7-11e7-98a7-6145cb9ac050 ROOT.20170913.102102
  # mount @ROOT.20170913.102102 /mnt

2 years agoipfw: WARNS=6 isn't necessary, it's in the parent Makefile.inc.
Sascha Wildner [Wed, 13 Sep 2017 12:10:57 +0000 (14:10 +0200)]
ipfw: WARNS=6 isn't necessary, it's in the parent Makefile.inc.

2 years agoipfw: Raise WARNS to 6
Sepherosa Ziehau [Wed, 13 Sep 2017 01:41:43 +0000 (09:41 +0800)]
ipfw: Raise WARNS to 6

2 years agoipfw: Raise WARNS to 3
Sepherosa Ziehau [Wed, 13 Sep 2017 01:28:18 +0000 (09:28 +0800)]
ipfw: Raise WARNS to 3

2 years agosshlockout: Add ipfw(8) table support.
Sepherosa Ziehau [Wed, 13 Sep 2017 01:07:45 +0000 (09:07 +0800)]
sshlockout: Add ipfw(8) table support.

2 years agokernel - Fix sys% time reporting
Matthew Dillon [Wed, 13 Sep 2017 02:50:47 +0000 (19:50 -0700)]
kernel - Fix sys% time reporting

* Fix system time reporting in systat -vm 1, systat -pv 1, and process

* Basically the issue is that when coincident systimer interrupts occur,
  such as when the statclock, hardclock, and schedclock all fire at the
  same time, the statclock must execute first in order to properly detect
  the state the current thread is in.  If it does not, it may see a lwkt
  thread schedule by one of the other systimers and improper dock the
  current thread as being in 'system' time.

* The various systimer interrupts could wind up out of phase and
  desynchronized due to the tsc_frequency not being perfectly divisible
  by the requested frequencies.  In addition, various timers could queue
  in an undesirable order due to being different integral frequencies of
  each other.

* Refactor the systimer API a bit, adding new functions which guarantee
  synchronization for nominally requested frequencies and which guarantee
  ordering for coincident systimer events (which statclock uses).  This
  should completely solve the problem.

* Also, if the RQF_INTPEND flag is set, count as interrupt time.  This
  will give us a slightly more accurate understanding of interrupt overhead
  (alternatively we could do this test for just the case where curthread is
  the idlethread, which might be more accurate).

2 years agokernel - Change legacy MBR partition type from 0xA5 to 0x6C
Matthew Dillon [Tue, 12 Sep 2017 23:42:08 +0000 (16:42 -0700)]
kernel - Change legacy MBR partition type from 0xA5 to 0x6C

* Should have done this years ago but finally change the legacy MBR
  partition type DragonFlyBSD uses from 0xA5 (which was shared with
  FreeBSD), to something different 0x6C.

* Makes it less confusing for Grub.

* Does not change EFI boot, which uses 16-byte UUIDs (we already have
  our own) and does not use 8-bit partition ids.

* Boot code and kernel now recognize both 0xA5 and 0x6C.  Existing users
  do *NOT* need to reinstall their boot code.

2 years agomount_udf.8: Correct typo in arguments.
Sascha Wildner [Tue, 12 Sep 2017 19:09:45 +0000 (21:09 +0200)]
mount_udf.8: Correct typo in arguments.

2 years agosshlockout: Style changes; no functional changes.
Sepherosa Ziehau [Tue, 12 Sep 2017 07:22:19 +0000 (15:22 +0800)]
sshlockout: Style changes; no functional changes.

2 years agoipfw: Add per-cpu table support.
Sepherosa Ziehau [Thu, 7 Sep 2017 00:56:57 +0000 (08:56 +0800)]
ipfw: Add per-cpu table support.

This is intended to improve performance and reduce latency for
matching discrete addresses.  Table itself is radix tree.

For exmaple, nginx, 1KB web object, 30K concurrent connections,
1 request/connection.  ipfw is running on the server side.

Comparison between no-match rules and no-match table entries:

                   |  perf-avg | lat-avg | lat-stdev | lat-99%
                   |   (tps)   |  (ms)   |   (ms)    |  (ms)
100 nomatch rules  | 184752.65 |   67.50 |      5.69 |   79.11
100 nomatch tblent | 200754.53 |   61.18 |      5.72 |   73.10

1K nomatch rules   |  90836.43 |  144.72 |     12.28 |  168.97
1K nomatch tblent  | 199750.35 |   61.54 |      5.73 |   72.90

10K nomatch rules  |  14836.69 |  864.46 |    157.49 | 1110.00
10K nomatch tblent | 198412.93 |   62.17 |      5.66 |   73.08

Comparison between number of no-match table entries:

                   |  perf-avg | lat-avg | lat-stdev | lat-99%
                   |   (tps)   |  (ms)   |   (ms)    |  (ms)
no-ipfw            | 210658.80 |   58.01 |      5.20 |   68.73
100 nomatch tblent | 200754.53 |   61.18 |      5.72 |   73.10
1K nomatch tblent  | 199750.35 |   61.54 |      5.73 |   72.90
10K nomatch tblent | 198412.93 |   62.17 |      5.66 |   73.08

It scales pretty well with the number of no-match table entries.
En if it is compared w/ no-ipfw case, the performance and latency
impacts of the ipfw after this commit are pretty small.

2 years agohammer2 - Add daily periodic for hammer2 cleanup
Matthew Dillon [Tue, 12 Sep 2017 04:26:06 +0000 (21:26 -0700)]
hammer2 - Add daily periodic for hammer2 cleanup

* Add a daily periodic for hammer2 cleanups

2 years agoinstaller - Add hammer2 support to the installer
Matthew Dillon [Tue, 12 Sep 2017 00:57:56 +0000 (17:57 -0700)]
installer - Add hammer2 support to the installer

* hammer2 can now be selected as a filesystem in the installer.

* Note that we still for /boot to use UFS.  The boot loader *CAN*
  access a hammer2 /boot, but the small size of the filesystem makes
  it too easy to fill up when doing installkernel or installworld.

* Also fix a minor bug in the installer.  when issuing a 'dumpon device'
  be sure to first issue a 'dumpon off' to avoid dumpon complaints about
  a dump device already being specified.

2 years agohammer2 - Include by default in kernel build
Matthew Dillon [Tue, 12 Sep 2017 00:55:22 +0000 (17:55 -0700)]
hammer2 - Include by default in kernel build

* Include hammer2 by default in the kernel build

2 years agohammer2 - Add 'cleanup' command, retool h2 build for conf/files inclusion
Matthew Dillon [Tue, 12 Sep 2017 00:53:41 +0000 (17:53 -0700)]
hammer2 - Add 'cleanup' command, retool h2 build for conf/files inclusion

* Add a preliminary 'hammer2 cleanup' command that works similar to

* Retool xxhash and zlib prefixing to avoid kernel conflicts and to
  allow hammer2 to be included in conf/files.

2 years agohammer2 - Limit bulkfree cpu and SSD I/O
Matthew Dillon [Mon, 11 Sep 2017 21:46:31 +0000 (14:46 -0700)]
hammer2 - Limit bulkfree cpu and SSD I/O

* Limit resource utilization when running bulkfree.  The default is 5000
  tps (meta-data blocks per second) and can be changed via the
  vfs.hammer2.bulkfree_tps sysctl.

* Designed primarily to limit cpu utilization when meta-data is cached,
  and to limit SSD utilization otherwise.  This feature generally cannot
  be used to limit HDD utilization because it cannot currently distinguish
  between cached and uncached I/O.  Setting a low a number to accomodate
  a HDD will cause bulkfree to take way too long to run.

2 years agokernel - Fix callout_stop/callout_reset rearm race
Matthew Dillon [Mon, 11 Sep 2017 07:11:31 +0000 (00:11 -0700)]
kernel - Fix callout_stop/callout_reset rearm race

* If a callout_reset() occurs while a callout_stop() is running, the
  callout_stop() can wind up blocking forever.  Change the conditional
  to break out of the processing loop to simply wait for the IPI to finish
  executing, and if the callout is still armed due to a callout_reset()
  the callout_stop() simply loops back to the top and retries the stop.

* Can be reproduced when itimers are used heavily (typically ghc processes
  that run during a bulk synth run).

* Race tested and verified to occur, fix appears to solve the problem.

2 years agohammer2 - Fix inode count statistics
Matthew Dillon [Mon, 11 Sep 2017 07:08:24 +0000 (00:08 -0700)]
hammer2 - Fix inode count statistics

* Fix two inode count statistics bugs related to recent work.

  (1) We have to zero out the stats when deleting an indirect block in
      the indirect block collapse case because the underlying children
      will add them back in when they are moved into the prent.  This is
      because we are using the 'trick' of removing the indirect block
      before moving its children to avoid significant code complexity.

  (2) inode_count accounting was improperly counting certain DATA records
      as inodes.

2 years agoif_vtnet - Fix potential vtnet_set_hwaddr call before virtqueues are set up.
Imre Vadász [Sun, 10 Sep 2017 22:21:24 +0000 (00:21 +0200)]
if_vtnet - Fix potential vtnet_set_hwaddr call before virtqueues are set up.

* When VIRTIO_NET_F_MAC isn't negotiated (i.e. the host doesn't give us
  a macaddress), we generate a random mac address. The vtnet_set_hwaddr()
  call to set this mac address, would have tried to use the control
  virtqueue too early, where it isn't yet allocated.

* To fix this case, do the vtnet_set_hwaddr() call for this a bit later,
  after the virtqueues have been set up. (We are already disabling
  promiscuous mode there, so we know the controlq is working there)

2 years agovkernel - Remove 'bootdev' related sysctl.
Antonio Huete Jimenez [Sun, 10 Sep 2017 21:56:30 +0000 (23:56 +0200)]
vkernel - Remove 'bootdev' related sysctl.

- This fixes VKERNEL64 build.

2 years agohammer2 - Add indirect node collapse code
Matthew Dillon [Sun, 10 Sep 2017 17:03:09 +0000 (10:03 -0700)]
hammer2 - Add indirect node collapse code

* Move the contents of an indirect node into its parent when either
  becomes empty enough to accomodate the move.  This is done during
  the flush and incurs no extra overhead or I/O.

* This is not a rebalancing algorithm but it does do a pretty good
  job reducing degenerate indirect nodes in the topology.

* Note that I am not using bref->leaf_count yet.  This will be used
  in a later rebalancing algorithm.

* Fix minor bug in hammer2_chain_create_indirect() where a chain's
  bref was being tested without holding a lock on the chain.

* Remove misc debugging that we no longer need.

2 years agohammer2 - Track leaf counts for topological collapse
Matthew Dillon [Sat, 9 Sep 2017 22:59:25 +0000 (15:59 -0700)]
hammer2 - Track leaf counts for topological collapse

* Track leaf counts through indirect blocks.  This is a prereq to
  being able to efficiently collapse indirect nodes that have become
  too empty to be useful.

* Leaf count is capped at 65535.  Attempting to decrement the count will
  flag the chain to recount (in a later commit).

* Because this count will be used to determine when a collapse is possible,
  we do not track leaf counts through inodes.  That is, an inode counts as
  a leaf.

2 years agodebug - Remove PG_ZERO
Matthew Dillon [Sat, 9 Sep 2017 17:22:53 +0000 (10:22 -0700)]
debug - Remove PG_ZERO

* PG_ZERO no longer exists, remove from debugging utilities.

2 years agokernel - Remove kernel 'bootdev' variable
Matthew Dillon [Sat, 9 Sep 2017 17:20:22 +0000 (10:20 -0700)]
kernel - Remove kernel 'bootdev' variable

* The 'bootdev' variable is no longer used.  It used to default-out the
  root mount to UFS using boot device info passed-in from the boot code,
  but that was disconnected long ago and this code no longer serves
  any purpose.

* We have depended on vfs.root.mountfrom in /boot/loader.conf to tell
  the kernel where the root mount is for a long time now.

2 years agohammer2 - API breadnx / cluster_read API, bulkfree adj
Matthew Dillon [Sat, 9 Sep 2017 17:16:36 +0000 (10:16 -0700)]
hammer2 - API breadnx / cluster_read API, bulkfree adj

* API adjustments for breadnx() and cluster_readx() calls.  Properly
  separate data and meta-data flagging for better swapcache operation.

* Separate cluster read parameters for data and meta-data.  Default
  data to 4 (+3 read-ahead) and meta-data to 1 (no read-ahead).

2 years agohammer - Adjust hammer to new breadnx / cluster_readx API
Matthew Dillon [Sat, 9 Sep 2017 17:15:24 +0000 (10:15 -0700)]
hammer - Adjust hammer to new breadnx / cluster_readx API

* API adjustments for breadnx() and cluster_readx() calls

2 years agokernel - Expand breadnx/breadcb/cluster_readx/cluster_readcb API
Matthew Dillon [Sat, 9 Sep 2017 17:12:35 +0000 (10:12 -0700)]
kernel - Expand breadnx/breadcb/cluster_readx/cluster_readcb API

* Pass B_NOTMETA flagging into breadnx(), breadcb(), cluster_readx(),
  and cluster_readcb().

  Solve issues where data can wind up not being tagged B_NOTMETA
  in read-ahead and clustered buffers.

* Adjust the standard bread(), breadn(), and cluster_read() inlines
  to pass B_NOTMETA.

2 years agohammer2 - Improve swapcache support
Matthew Dillon [Fri, 8 Sep 2017 18:00:40 +0000 (11:00 -0700)]
hammer2 - Improve swapcache support

* Properly set B_NOTMETA on media buffers, which allows swapcache to
  distinguish between data and meta-data buffers.

  This ensures that a user desiring to only swapcache meta-data does
  not blow all the SSD swap on file data, particularly if there is an
  excessive amount of file data.

* Greatly improves bulkfree performance on hard drives when SSD swapcache
  is enabled for meta-data only.

2 years agohammer2 - Do not use transaction for bulkfree pass
Matthew Dillon [Fri, 8 Sep 2017 15:47:47 +0000 (08:47 -0700)]
hammer2 - Do not use transaction for bulkfree pass

* Remove the remaining transaction layer in bulkfree passes.  Do not
  update the modify_tid.  Generally speaking, what this code does is
  allow bulkfree to operate independent of normal flushes, which means
  it no longer stalls flushes (or vise-versa).

  Theoretically it should be ok for a normal flush to 'catch' bulkfree
  modifications in the middle of their work.

2 years agokernel - vfsync() use synchronous bwrite() in low-memory situations
Matthew Dillon [Fri, 8 Sep 2017 15:44:13 +0000 (08:44 -0700)]
kernel - vfsync() use synchronous bwrite() in low-memory situations

* For now, make vfsync() use a synchronous bwrite() in low-memory
  situations and do not call vm_wait_nominal().  This could wind up
  being a chicken-or-egg issue unfortunately.

* Addresses issues where the pageout daemon gets indirectly deadlocked
  when other unrelated kernel threads (aka H2 support threads) are
  flushing buffers.

2 years agokernel - Adjust emergency pager, add D_NOEMERGPGR
Matthew Dillon [Fri, 8 Sep 2017 15:42:06 +0000 (08:42 -0700)]
kernel - Adjust emergency pager, add D_NOEMERGPGR

* Adjust emergency pager and pager thread tests a little.  Allow the
  emergency pager to also page to VCHR devices as long as D_NOEMERGPGR
  is not flagged.

* Add the D_NOEMERGPGR flag and apply to "vn" and "mfs" block devices.

2 years agokernel - Adjust emergency pager
Matthew Dillon [Thu, 7 Sep 2017 22:42:49 +0000 (15:42 -0700)]
kernel - Adjust emergency pager

* Adjust the emergency pager to always try to move some pages from the
  active queue to the inactive queue, just in case the inactive queue
  has plenty of pages (and is thus does not trigger the active scan),
  but none of those pages are anonymous.

* Should fix a rare low-memory deadlock situation.

2 years agokernel - Fix panic() on AMD
Matthew Dillon [Thu, 7 Sep 2017 22:35:54 +0000 (15:35 -0700)]
kernel - Fix panic() on AMD

* The cpu_smp_stopped() function assumed that cpu_mwait_hints[] exists,
  but it might not (could be NULL).

* Conditionalize to avoid insta-panicing all cpus all at the same time
  when one cpu tries to stop the others during a panic().  This fixes
  panics on AMD cpus.

2 years agohammer2 - Allow rm and rmdir to ignore free space reserve
Matthew Dillon [Thu, 7 Sep 2017 03:47:23 +0000 (20:47 -0700)]
hammer2 - Allow rm and rmdir to ignore free space reserve

* Allow rm and rmdir to ignore the free space reserve.  These operations
  do eat more disk space, though if you are doing a rm -rf it's actually
  fairly minimal because H2 is able to optimize it heavily.

  This allows the user to free up disk space by removing files.  The user
  must still run hammer2 bulkfree (possibly twice) to actually free the
  space up.

2 years agohammer2 - Implement error processing and free reserve enforcement
Matthew Dillon [Thu, 7 Sep 2017 02:56:24 +0000 (19:56 -0700)]
hammer2 - Implement error processing and free reserve enforcement

* newfs_hammer2 calculates the correct amount of reserved space.  We
  have to reserve 4MB per 1GB, not 4MB per 2GB, due to a snafu.  This
  is still only 0.4% of the storage.

* Flesh out HAMMER2_ERROR_* codes and make most hammer2 functions return
  a proper error code.

* Add error handling to nearly all code that can dirty a chain, in
  particular to handle ENOSPC issues.  Any dirty buffers that cannot be
  flushed will incur a write error (which in DragonFly typically causes
  the buffer to be retries later).  Any dirty chain that cannot be
  flushed will remain in the topology and can be completed in a later
  flush if space has been freed up.

  We try to avoid allowing the filesystem to get into this situation in
  the first place, but if it does, it should be possible to flush these
  asynchronous modifying chains and buffers once space is freed up via

* Relax class match requirements in the freemap allocator when the freemap
  gets close to full.  This will allow e.g. inodes to be allocated out of
  DATA bitmaps and vise versa, and so forth.  This fixes edge conditions
  where there is enough free space available but it has all been earmarked
  for the wrong data class.

* Try to fix a bug in live_count tracking when destroying an indirect
  block chain or inode chain that has not yet been blockmapped due to
  a drop.  This situation only occurs when chains cannot be flushed due
  to I/O errors or disk full conditions, and are then later destroyed
  (e.g. such as when the governing file is removed).

  This should fix a live_count assertion that can occur under these
  circumstances.  See hammer2_chain_lastdrop().

* Enforce the free reserve requirement for all modifying VOP calls.
  Root users can nominally fill the file system to 97.5%, non-root
  users to 95%.  At 90%, write()s will enforce bawrite() verses bdwrite()
  to try to avoid buffer cache flushes from actually running the
  filesystem out of space.

  This is needed because we do not actually know how much disk space is
  going to be needed at write() time.  Deduplication and compression
  occurs later, at buffer-flush time.

* Do NOT flush the volume header when a vfs sync is unable to completely
  flush a device due to errors.  This ensures that the underlying media
  does not become corrupt.

* Fix an issue where bref.check.freemap.bigmask was not being properly
  reset to -1 when bulkfree is able to free an element.  This bug
  prevented the allocator from recognizing that free space was available
  in that bitmap.

* Modify bulkfree operation to use the live topology when flushing and
  snapshot operations fail due to errors, allowing bulkfree to run.

* Nominal bulkfree operations now runs on the snapshot without a
  transaction (more testing is needed).  This theoretically should allow
  bulkfree to run concurrent with just about any operation including

* Add a freespace tracking heuristic to reduce the overhead that modifying
  VOP calls incur in checking the free reserve requirement.

* hammer2 show dumps additional info for freemap nodes.

2 years agoipfw: Stringent assertions.
Sepherosa Ziehau [Wed, 6 Sep 2017 05:42:15 +0000 (13:42 +0800)]
ipfw: Stringent assertions.

2 years agoipfw: Utilize netisr_domsg_global, which is more expressive.
Sepherosa Ziehau [Wed, 6 Sep 2017 05:22:51 +0000 (13:22 +0800)]
ipfw: Utilize netisr_domsg_global, which is more expressive.

While I'm here, add assertions.

2 years agoipfw: Use netisr wrappers
Sepherosa Ziehau [Wed, 6 Sep 2017 05:11:21 +0000 (13:11 +0800)]
ipfw: Use netisr wrappers

2 years agonetisr: Add wrapper for lwkt_dropmsg()
Sepherosa Ziehau [Wed, 6 Sep 2017 05:10:54 +0000 (13:10 +0800)]
netisr: Add wrapper for lwkt_dropmsg()

2 years agoipfw: It can only be configured in netisr0; make it explicit.
Sepherosa Ziehau [Wed, 6 Sep 2017 05:02:23 +0000 (13:02 +0800)]
ipfw: It can only be configured in netisr0; make it explicit.

2 years agopc64: Setup TSC_AUX register with each cpu's id, when rdtscp is available.
Imre Vadász [Sun, 3 Sep 2017 10:49:20 +0000 (12:49 +0200)]
pc64: Setup TSC_AUX register with each cpu's id, when rdtscp is available.

* This allows userland to utilize the rdtscp instruction, to associate
  timestamps to physical cores, and detect migration between 2 measurements.

2 years agopc64: An mfence is supposed to suffice for TSC_DEADLINE vs. xAPIC ordering.
Imre Vadász [Tue, 5 Sep 2017 20:06:34 +0000 (22:06 +0200)]
pc64: An mfence is supposed to suffice for TSC_DEADLINE vs. xAPIC ordering.

* I accidentally used a too old version of the intel sdm documentation,
  which still described that complicated serialization method, but newest
  documentation claims that an mfence should be used for serializing the
  xAPIC write vs. the wrmsr to the TSC_DEADLINE register.

2 years agoipfw3: Simplify sockopt.
Sepherosa Ziehau [Tue, 5 Sep 2017 05:58:43 +0000 (13:58 +0800)]
ipfw3: Simplify sockopt.

2 years agodummynet: Move ctrl function pointer to dummynet
Sepherosa Ziehau [Tue, 5 Sep 2017 05:54:57 +0000 (13:54 +0800)]
dummynet: Move ctrl function pointer to dummynet

2 years agoipfw: Reindent; no functional changes.
Sepherosa Ziehau [Tue, 5 Sep 2017 05:54:33 +0000 (13:54 +0800)]
ipfw: Reindent; no functional changes.

2 years agoipfw: Simplify sockopt.
Sepherosa Ziehau [Tue, 5 Sep 2017 05:51:21 +0000 (13:51 +0800)]
ipfw: Simplify sockopt.

2 years agoipfw.8: Update for recent rewriting of states/tracks
Sepherosa Ziehau [Tue, 5 Sep 2017 05:39:03 +0000 (13:39 +0800)]
ipfw.8: Update for recent rewriting of states/tracks

2 years agoipfw: Rework states and tracks.
Sepherosa Ziehau [Wed, 16 Aug 2017 03:56:45 +0000 (11:56 +0800)]
ipfw: Rework states and tracks.

- Use RB tree for states and tracks.  And put them into their own RB
  trees.  This avoid worst case hash collision.
- Make states per-cpu.  Upper limit is still shared, and is managed in
  the same fashion as our slab allocator's upper limit, i.e. loosely
  updated, which allows 5% over-allocation at most.
- Use two tiers for tracks.  The top tier is shared, which maintains
  the counter.  The second tier is per-cpu, most of the track looking
  up should be coverd by this tier.  Track counters are updated by
  atomic ops, since per-track upper limit is usually too small to use
  loose updating.
- Implement progressive state/track expiration and keepalive.  It is
  mainly intended to make the packet processing latency more smooth.
- Fix fast TCP state recycling issue by tracking the SEQs in addition
  to the ACKs.

This drastically improves performance, and reduces/stablizes latency.

For exmaple, nginx, 1KB web object, 30K concurrent connections,
1 request/connection.  ipfw is running on the server side.

ipfw non-default setting:
- Max # of states for new-ipfw is 100K (~14MB memory).
- Max # of states for old-ipfw is 500K, and # of hash buckets is 64K.

ipfw rules:
ipfw add 1 check-state
ipfw add allow tcp from any to me 80 setup keep-state
(default deny)

         |  perf-avg | lat-avg | lat-stdev | lat-99% | lat-max
         |   (tps)   |  (ms)   |   (ms)    |  (ms)   |  (ms)
no-ipfw  | 210658.80 |   58.01 |      5.20 |   68.73 |  146.46
new-ipfw | 191626.58 |   64.74 |      5.69 |   75.87 |  166.08
old-ipfw |  43481.19 |  153.76 |     47.32 |  296.61 |  425.09

If it is compared w/ no-ipfw case, the performance and latency impacts
of the ipfw after this commit are pretty small.

2 years agopc64: Add TSC Deadline Mode code for lapic. Avoids lapic timer calibration.
Imre Vadász [Sun, 27 Aug 2017 15:44:05 +0000 (17:44 +0200)]
pc64: Add TSC Deadline Mode code for lapic. Avoids lapic timer calibration.

* Also get rid of the unused get_apic_timer_frequency() function.

2 years agopc64: Make read_apic_timer() return remaining time in microseconds.
Imre Vadász [Sun, 27 Aug 2017 15:03:32 +0000 (17:03 +0200)]
pc64: Make read_apic_timer() return remaining time in microseconds.

* This makes it easier to optionally use the TSC Deadline Mode in the lapic,
  since we no longer need or want to calibrate the lapic timer in that case.

2 years agopc64: Turn CLK_USE_* flags into tunable, skip code when results are unused.
Imre Vadász [Thu, 31 Aug 2017 20:43:41 +0000 (22:43 +0200)]
pc64: Turn CLK_USE_* flags into tunable, skip code when results are unused.

* This should save ca. 1s during bootup, by skipping the i8254 and TSC
  calibration based on the RTC, when we aren't actually using the result
  in any way.

* For now, continue running that calibration code, when booting in verbose
  mode, to keep printing these potentially useful calibration results.

* Setting the hw.calibrate_timers_with_rtc tunable to 1, will enable this
  calibration code, and use those results for the i8254 and TSC frequencies.

2 years agoSync ACPICA with Intel's version 20170831.
Sascha Wildner [Fri, 1 Sep 2017 18:45:30 +0000 (20:45 +0200)]
Sync ACPICA with Intel's version 20170831.

* Support for full 64-bit addresses in Generic Address Structure (GAS).

* PDTT table support.

* Support for octal constants in iasl(8).

* Various other fixes and improvements.

For a more detailed list, please see sys/contrib/dev/acpica/changes.txt.

2 years agosystat - Filter out non-useful devices by default
Matthew Dillon [Fri, 1 Sep 2017 08:23:14 +0000 (01:23 -0700)]
systat - Filter out non-useful devices by default

* Filter out md*, pass*, and sg* in the -iostat and -vmstat displays.
  Users are not usually interested in stats on these devices.

2 years agokernel - Add kabylake NIC PCI IDs
Matthew Dillon [Thu, 31 Aug 2017 20:21:57 +0000 (13:21 -0700)]
kernel - Add kabylake NIC PCI IDs

* Add Kabylake NIC PCI ids.

E1000_DEV_ID_PCH_SPT_I219_LM3          0x15B9  /* LEWISBURG PCH */
E1000_DEV_ID_PCH_SPT_I219_LM4          0x15D7
E1000_DEV_ID_PCH_SPT_I219_V4           0x15D8
E1000_DEV_ID_PCH_SPT_I219_LM5          0x15E3
E1000_DEV_ID_PCH_SPT_I219_V5           0x15D6

Taken-from: FreeBSD

2 years agoClean up namespace in <sys/mman.h>, <sys/resource.h> and <sys/syslog.h>.
Sascha Wildner [Thu, 31 Aug 2017 19:11:37 +0000 (21:11 +0200)]
Clean up namespace in <sys/mman.h>, <sys/resource.h> and <sys/syslog.h>.

2 years agoDefine rlim_t as __int64_t directly, not via quad_t.
Sascha Wildner [Sat, 26 Aug 2017 07:40:04 +0000 (09:40 +0200)]
Define rlim_t as __int64_t directly, not via quad_t.

2 years agosys/boot: Disable -fstack-protector for now.
Sascha Wildner [Thu, 31 Aug 2017 19:10:09 +0000 (21:10 +0200)]
sys/boot: Disable -fstack-protector for now.

The rest of world builds fine with -fstack-protector*

2 years agohammer2 - error handling 2/N (chain_lookup/chain_next)
Matthew Dillon [Thu, 31 Aug 2017 05:11:46 +0000 (22:11 -0700)]
hammer2 - error handling 2/N (chain_lookup/chain_next)

* Implement error handling for hammer2_chain_lookup() and

* Shim use cases for this commit.  Ultimately the intent is to
  convert the entire error path to HAMMER2_ERROR_* codes.

2 years agohammer2 - Embed cache_index heuristic in chain structure
Matthew Dillon [Thu, 31 Aug 2017 02:49:29 +0000 (19:49 -0700)]
hammer2 - Embed cache_index heuristic in chain structure

* Embed the cache_index heuristic in the hammer2_chain structure and get
  rid of all the code that passed it in to various API functions.  This
  substantially cleans-up the API.

* Adjust comments for upcoming error handling work.

2 years agohammer2 - error handling 1/N (chain_scan)
Matthew Dillon [Thu, 31 Aug 2017 01:46:14 +0000 (18:46 -0700)]
hammer2 - error handling 1/N (chain_scan)

* Make HAMMER2_ERROR_* bit flags so they can be OR'd together.

* Change hammer2_chain_scan() to return an error code instead of the
  passed-in bref pointer.

* Adjust the vfsops recovery scan and bulkfree to the new API.

2 years agohammer2 - Remove TIMER debugging
Matthew Dillon [Wed, 30 Aug 2017 16:49:39 +0000 (09:49 -0700)]
hammer2 - Remove TIMER debugging

* Remove TIMER debugging

* Adjust some comments

2 years agolibc: Reduce -Wmissing-prototypes warnings a bit.
Sascha Wildner [Wed, 30 Aug 2017 20:30:50 +0000 (22:30 +0200)]
libc: Reduce -Wmissing-prototypes warnings a bit.

2 years agosystat - clarify 'Free' in systat -vm 1
Matthew Dillon [Wed, 30 Aug 2017 06:56:42 +0000 (23:56 -0700)]
systat - clarify 'Free' in systat -vm 1

* Clarify Free by indicating i+c+f (inactive + cache + free).  That is,
  the Free memory reported in the upper left counts the Inactive page
  queue as part of its total, even though it isn't quite free.

* The main reason for this is that when the memory pressure de-stresses,
  the VM system doesn't bother wasting time moving pages out of the inactive
  queue, even though they are effectively freeable.

  On the otherhand, if the system is under significant memory pressure,
  the inactive queue will itself become stressed and minimize.

  This makes it a fairly accurate representation of what is potentially
  freeable (albeit with some effort by the paging system).