bcache: fix code comments style
authorColy Li <colyli@suse.de>
Sat, 11 Aug 2018 05:19:55 +0000 (13:19 +0800)
committerJens Axboe <axboe@kernel.dk>
Sat, 11 Aug 2018 21:46:42 +0000 (15:46 -0600)
This patch fixes 3 style issues warned by checkpatch.pl,
- Comment lines are not aligned
- Comments use "/*" on subsequent lines
- Comment lines use a trailing "*/"

Signed-off-by: Coly Li <colyli@suse.de>
Reviewed-by: Shenghui Wang <shhuiw@foxmail.com>
Signed-off-by: Jens Axboe <axboe@kernel.dk>
drivers/md/bcache/bset.c
drivers/md/bcache/super.c
drivers/md/bcache/writeback.c

index b6a3f9d291a968c5e1a00f84ba8538e7c8c34b4d..8f07fa6e17394b5c0c54f7250f960f7361fd2111 100644 (file)
@@ -402,7 +402,8 @@ static unsigned int inorder_prev(unsigned int j, unsigned int size)
        return j;
 }
 
-/* I have no idea why this code works... and I'm the one who wrote it
+/*
+ * I have no idea why this code works... and I'm the one who wrote it
  *
  * However, I do know what it does:
  * Given a binary tree constructed in an array (i.e. how you normally implement
@@ -795,7 +796,8 @@ static void bch_bset_fix_lookup_table(struct btree_keys *b,
        if (!t->size)
                return;
 
-       /* k is the key we just inserted; we need to find the entry in the
+       /*
+        * k is the key we just inserted; we need to find the entry in the
         * lookup table for the first key that is strictly greater than k:
         * it's either k's cacheline or the next one
         */
@@ -803,7 +805,8 @@ static void bch_bset_fix_lookup_table(struct btree_keys *b,
               table_to_bkey(t, j) <= k)
                j++;
 
-       /* Adjust all the lookup table entries, and find a new key for any that
+       /*
+        * Adjust all the lookup table entries, and find a new key for any that
         * have gotten too big
         */
        for (; j < t->size; j++) {
index 2a7be104557e1769c730bdbc851921f4c6f1f475..01fc3c015a58cec9f135de1c1f9fca38f714c11a 100644 (file)
@@ -465,8 +465,8 @@ static struct uuid_entry *uuid_find_empty(struct cache_set *c)
  * Bucket priorities/gens:
  *
  * For each bucket, we store on disk its
  * 8 bit gen
  * 16 bit priority
*   8 bit gen
 16 bit priority
  *
  * See alloc.c for an explanation of the gen. The priority is used to implement
  * lru (and in the future other) cache replacement policies; for most purposes
@@ -934,8 +934,10 @@ void bch_cached_dev_run(struct cached_dev *dc)
 
        add_disk(d->disk);
        bd_link_disk_holder(dc->bdev, dc->disk.disk);
-       /* won't show up in the uevent file, use udevadm monitor -e instead
-        * only class / kset properties are persistent */
+       /*
+        * won't show up in the uevent file, use udevadm monitor -e instead
+        * only class / kset properties are persistent
+        */
        kobject_uevent_env(&disk_to_dev(d->disk)->kobj, KOBJ_CHANGE, env);
        kfree(env[1]);
        kfree(env[2]);
@@ -1104,8 +1106,9 @@ int bch_cached_dev_attach(struct cached_dev *dc, struct cache_set *c,
                }
        }
 
-       /* Deadlocks since we're called via sysfs...
-       sysfs_remove_file(&dc->kobj, &sysfs_attach);
+       /*
+        * Deadlocks since we're called via sysfs...
+        * sysfs_remove_file(&dc->kobj, &sysfs_attach);
         */
 
        if (bch_is_zero(u->uuid, 16)) {
@@ -1468,9 +1471,10 @@ bool bch_cache_set_error(struct cache_set *c, const char *fmt, ...)
        if (test_and_set_bit(CACHE_SET_IO_DISABLE, &c->flags))
                pr_info("CACHE_SET_IO_DISABLE already set");
 
-       /* XXX: we can be called from atomic context
-       acquire_console_sem();
-       */
+       /*
+        * XXX: we can be called from atomic context
+        * acquire_console_sem();
+        */
 
        pr_err("bcache: error on %pU: ", c->sb.set_uuid);
 
index e40bf0e403e7f21cbdc2cde76f499c9c8b222b38..6be05bd7ca6711637ac04b57bc5c244caaa95f4b 100644 (file)
@@ -468,7 +468,8 @@ static void read_dirty(struct cached_dev *dc)
 
                        down(&dc->in_flight);
 
-                       /* We've acquired a semaphore for the maximum
+                       /*
+                        * We've acquired a semaphore for the maximum
                         * simultaneous number of writebacks; from here
                         * everything happens asynchronously.
                         */