urcu.c: declare noop urcu_init() function non-static
[urcu.git] / urcu-static.h
index f1aab2f2dfed0123070e3d608fec00701a3b364d..1921097dbb8596a9d134fecdea5e2bcfe9444c2d 100644 (file)
 #define YIELD_READ     (1 << 0)
 #define YIELD_WRITE    (1 << 1)
 
-/* Updates without DEBUG_FULL_MB are much slower. Account this in the delay */
-#ifdef DEBUG_FULL_MB
+/*
+ * Updates without CONFIG_URCU_AVOID_SIGNALS are much slower. Account this in
+ * the delay.
+ */
+#ifdef CONFIG_URCU_AVOID_SIGNALS
 /* maximum sleep delay, in us */
 #define MAX_SLEEP 50
 #else
@@ -161,7 +164,7 @@ static inline void debug_yield_init(void)
 }
 #endif
 
-#ifdef DEBUG_FULL_MB
+#ifdef CONFIG_URCU_AVOID_SIGNALS
 static inline void reader_barrier()
 {
        smp_mb();
@@ -212,22 +215,16 @@ static inline void _rcu_read_lock(void)
 
        tmp = urcu_active_readers;
        /* urcu_gp_ctr = RCU_GP_COUNT | (~RCU_GP_CTR_BIT or RCU_GP_CTR_BIT) */
-       /*
-        * The data dependency "read urcu_gp_ctr, write urcu_active_readers",
-        * serializes those two memory operations. The memory barrier in the
-        * signal handler ensures we receive the proper memory commit barriers
-        * required by _STORE_SHARED and _LOAD_SHARED whenever communication
-        * with the writer is needed.
-        */
-       if (likely(!(tmp & RCU_GP_CTR_NEST_MASK)))
+       if (likely(!(tmp & RCU_GP_CTR_NEST_MASK))) {
                _STORE_SHARED(urcu_active_readers, _LOAD_SHARED(urcu_gp_ctr));
-       else
+               /*
+                * Set active readers count for outermost nesting level before
+                * accessing the pointer. See force_mb_all_threads().
+                */
+               reader_barrier();
+       } else {
                _STORE_SHARED(urcu_active_readers, tmp + RCU_GP_COUNT);
-       /*
-        * Increment active readers count before accessing the pointer.
-        * See force_mb_all_threads().
-        */
-       reader_barrier();
+       }
 }
 
 static inline void _rcu_read_unlock(void)
@@ -236,6 +233,9 @@ static inline void _rcu_read_unlock(void)
        /*
         * Finish using rcu before decrementing the pointer.
         * See force_mb_all_threads().
+        * Formally only needed for outermost nesting level, but leave barrier
+        * in place for nested unlocks to remove a branch from the common case
+        * (no nesting).
         */
        _STORE_SHARED(urcu_active_readers, urcu_active_readers - RCU_GP_COUNT);
 }
@@ -263,7 +263,7 @@ static inline void _rcu_read_unlock(void)
 
 /**
  * _rcu_xchg_pointer - same as rcu_assign_pointer, but returns the previous
- * pointer to the data structure, which can be safely freed after waitin for a
+ * pointer to the data structure, which can be safely freed after waiting for a
  * quiescent state using synchronize_rcu().
  */
 
This page took 0.023419 seconds and 4 git commands to generate.