Spelling cleanups within comments and documentation
authorEtienne Bergeron <etienne.bergeron@gmail.com>
Wed, 13 Feb 2013 02:33:16 +0000 (21:33 -0500)
committerMathieu Desnoyers <mathieu.desnoyers@efficios.com>
Wed, 13 Feb 2013 02:33:16 +0000 (21:33 -0500)
Signed-off-by: Mathieu Desnoyers <mathieu.desnoyers@efficios.com>
CodingStyle
rculfhash.c
tests/test_urcu_gc.c
urcu-wait.h
urcu/static/lfstack.h
urcu/static/wfcqueue.h
urcu/tls-compat.h
urcu/wfcqueue.h

index f3f6ba27a5587baa8fd9e9ebef707707b7b1d051..5a33e8d6b3c886fa54443c935a4052470645d352 100644 (file)
@@ -1,6 +1,6 @@
 Userspace RCU Coding Style
 
 Userspace RCU Coding Style
 
-The coding style used for this project follows the the Linux kernel
+The coding style used for this project follows the Linux kernel
 guide lines. Please refer to:
 
 - Linux kernel Documentation/CodingStyle document for details,
 guide lines. Please refer to:
 
 - Linux kernel Documentation/CodingStyle document for details,
index 3650ed384015c44a327f5eff7b9aa5d9050ca84e..8c3d6218d1501cb567a3270b2db17c3ed9bc14b0 100644 (file)
  * Split-counters lazily update the global counter each 1024
  * addition/removal. It automatically keeps track of resize required.
  * We use the bucket length as indicator for need to expand for small
  * Split-counters lazily update the global counter each 1024
  * addition/removal. It automatically keeps track of resize required.
  * We use the bucket length as indicator for need to expand for small
- * tables and machines lacking per-cpu data suppport.
+ * tables and machines lacking per-cpu data support.
  */
 #define COUNT_COMMIT_ORDER             10
 #define DEFAULT_SPLIT_COUNT_MASK       0xFUL
  */
 #define COUNT_COMMIT_ORDER             10
 #define DEFAULT_SPLIT_COUNT_MASK       0xFUL
index 777e04bb3f3d9bbced330d9bc0d6411d0e8978db..ca8c45b0e0bfaf4d2ddd3d0059868efc5f577348 100644 (file)
@@ -1,7 +1,7 @@
 /*
  * test_urcu_gc.c
  *
 /*
  * test_urcu_gc.c
  *
- * Userspace RCU library - test program (with baatch reclamation)
+ * Userspace RCU library - test program (with batch reclamation)
  *
  * Copyright February 2009 - Mathieu Desnoyers <mathieu.desnoyers@efficios.com>
  *
  *
  * Copyright February 2009 - Mathieu Desnoyers <mathieu.desnoyers@efficios.com>
  *
index ff7d2ccfbafa1073d432645369fdd9a6d81bc30a..d00842a04b26484d67bdde4ed9a7550baf926039 100644 (file)
@@ -148,7 +148,7 @@ void urcu_adaptative_busy_wait(struct urcu_wait_node *wait)
                URCU_WAIT_WAITING, NULL, NULL, 0);
 skip_futex_wait:
 
                URCU_WAIT_WAITING, NULL, NULL, 0);
 skip_futex_wait:
 
-       /* Tell waker thread than we are runnning. */
+       /* Tell waker thread than we are running. */
        uatomic_or(&wait->state, URCU_WAIT_RUNNING);
 
        /*
        uatomic_or(&wait->state, URCU_WAIT_RUNNING);
 
        /*
index fe9e8abe1fe266eeae3d5a3a8fd91187fb8b8d17..0be959436e7d4577c4e6e7673dad6b49fae74469 100644 (file)
@@ -118,7 +118,7 @@ bool _cds_lfs_empty(struct cds_lfs_stack *s)
  * always performing an exclusive cacheline access, rather than doing
  * non-exclusive followed by exclusive cacheline access (which would be
  * required if we first read the old head value). This design decision
  * always performing an exclusive cacheline access, rather than doing
  * non-exclusive followed by exclusive cacheline access (which would be
  * required if we first read the old head value). This design decision
- * might be revisited after more throrough benchmarking on various
+ * might be revisited after more thorough benchmarking on various
  * platforms.
  *
  * Returns 0 if the stack was empty prior to adding the node.
  * platforms.
  *
  * Returns 0 if the stack was empty prior to adding the node.
index 4b3535aaa83207a4f4eb801dc63150bef8f28bbc..af7a8c6e7d4e3b1a7876347eb5cfb52db8e88046 100644 (file)
@@ -536,7 +536,7 @@ ___cds_wfcq_splice_nonblocking(
  *
  * Content written into the node before enqueue is guaranteed to be
  * consistent, but no other memory ordering is ensured.
  *
  * Content written into the node before enqueue is guaranteed to be
  * consistent, but no other memory ordering is ensured.
- * Mutual exlusion with cds_wfcq_splice_blocking and dequeue lock is
+ * Mutual exclusion with cds_wfcq_splice_blocking and dequeue lock is
  * ensured.
  * It is valid to reuse and free a dequeued node immediately.
  */
  * ensured.
  * It is valid to reuse and free a dequeued node immediately.
  */
@@ -559,7 +559,7 @@ _cds_wfcq_dequeue_blocking(struct cds_wfcq_head *head,
  * dest_q must be already initialized.
  * Content written into the node before enqueue is guaranteed to be
  * consistent, but no other memory ordering is ensured.
  * dest_q must be already initialized.
  * Content written into the node before enqueue is guaranteed to be
  * consistent, but no other memory ordering is ensured.
- * Mutual exlusion with cds_wfcq_dequeue_blocking and dequeue lock is
+ * Mutual exclusion with cds_wfcq_dequeue_blocking and dequeue lock is
  * ensured.
  * Returns enum cds_wfcq_ret which indicates the state of the src or
  * dest queue. Never returns CDS_WFCQ_RET_WOULDBLOCK.
  * ensured.
  * Returns enum cds_wfcq_ret which indicates the state of the src or
  * dest queue. Never returns CDS_WFCQ_RET_WOULDBLOCK.
index 601336b0db6599312bf4277a668f129c8e7c1645..a44b88d03066a5d5a847491496fe430f820b6ef9 100644 (file)
@@ -44,7 +44,7 @@ extern "C" {
  *     typedef int my_int_array_type[4];
  *     DEFINE_URCU_TLS(my_int_array_type, var_name);
  *
  *     typedef int my_int_array_type[4];
  *     DEFINE_URCU_TLS(my_int_array_type, var_name);
  *
- * Another exmaple:
+ * Another example:
  *     typedef void (*call_rcu_flavor)(struct rcu_head *, XXXX);
  *     DECLARE_URCU_TLS(call_rcu_flavor, p_call_rcu);
  *
  *     typedef void (*call_rcu_flavor)(struct rcu_head *, XXXX);
  *     DECLARE_URCU_TLS(call_rcu_flavor, p_call_rcu);
  *
index b6be9f3dfaad4ca5bea9db29ad72dd043d1ffada..4ce8fe962296406b7b69eb75992ea9d910ef6f08 100644 (file)
@@ -192,7 +192,7 @@ extern bool cds_wfcq_enqueue(struct cds_wfcq_head *head,
  * Content written into the node before enqueue is guaranteed to be
  * consistent, but no other memory ordering is ensured.
  * It is valid to reuse and free a dequeued node immediately.
  * Content written into the node before enqueue is guaranteed to be
  * consistent, but no other memory ordering is ensured.
  * It is valid to reuse and free a dequeued node immediately.
- * Mutual exlusion with cds_wfcq_dequeue_blocking and dequeue lock is
+ * Mutual exclusion with cds_wfcq_dequeue_blocking and dequeue lock is
  * ensured.
  */
 extern struct cds_wfcq_node *cds_wfcq_dequeue_blocking(
  * ensured.
  */
 extern struct cds_wfcq_node *cds_wfcq_dequeue_blocking(
@@ -206,7 +206,7 @@ extern struct cds_wfcq_node *cds_wfcq_dequeue_blocking(
  * dest_q must be already initialized.
  * Content written into the node before enqueue is guaranteed to be
  * consistent, but no other memory ordering is ensured.
  * dest_q must be already initialized.
  * Content written into the node before enqueue is guaranteed to be
  * consistent, but no other memory ordering is ensured.
- * Mutual exlusion with cds_wfcq_dequeue_blocking and dequeue lock is
+ * Mutual exclusion with cds_wfcq_dequeue_blocking and dequeue lock is
  * ensured.
  *
  * Returns enum cds_wfcq_ret which indicates the state of the src or
  * ensured.
  *
  * Returns enum cds_wfcq_ret which indicates the state of the src or
This page took 0.029353 seconds and 4 git commands to generate.