mm: docs: fix parameter names mismatch
authorMike Rapoport <rppt@linux.vnet.ibm.com>
Tue, 6 Feb 2018 23:42:16 +0000 (15:42 -0800)
committerLinus Torvalds <torvalds@linux-foundation.org>
Wed, 7 Feb 2018 02:32:48 +0000 (18:32 -0800)
There are several places where parameter descriptions do no match the
actual code.  Fix it.

Link: http://lkml.kernel.org/r/1516700871-22279-3-git-send-email-rppt@linux.vnet.ibm.com
Signed-off-by: Mike Rapoport <rppt@linux.vnet.ibm.com>
Cc: Jonathan Corbet <corbet@lwn.net>
Signed-off-by: Andrew Morton <akpm@linux-foundation.org>
Signed-off-by: Linus Torvalds <torvalds@linux-foundation.org>
mm/bootmem.c
mm/maccess.c
mm/memcontrol.c
mm/process_vm_access.c
mm/swap.c
mm/z3fold.c
mm/zbud.c
mm/zpool.c

index 6aef64254203d72d0277400e7171a982c2bc06d3..9e197987b67ddce7bd80adf8e7ff4582d7db3ca5 100644 (file)
@@ -410,7 +410,7 @@ void __init free_bootmem_node(pg_data_t *pgdat, unsigned long physaddr,
 
 /**
  * free_bootmem - mark a page range as usable
- * @addr: starting physical address of the range
+ * @physaddr: starting physical address of the range
  * @size: size of the range in bytes
  *
  * Partial pages will be considered reserved and left as they are.
index 78f9274dd49d06f11f87beae9520a0e1267dc3ff..ec00be51a24fd6a9639897fafeea3abd45b9d3f4 100644 (file)
@@ -70,7 +70,7 @@ EXPORT_SYMBOL_GPL(probe_kernel_write);
  * strncpy_from_unsafe: - Copy a NUL terminated string from unsafe address.
  * @dst:   Destination address, in kernel space.  This buffer must be at
  *         least @count bytes long.
- * @src:   Unsafe address.
+ * @unsafe_addr: Unsafe address.
  * @count: Maximum number of bytes to copy, including the trailing NUL.
  *
  * Copies a NUL-terminated string from unsafe address to kernel buffer.
index 3793e22977c05a7ab4b0c2407c8979b9020af2d4..13b35ffa021e3b0d22492a42cda31832c3327969 100644 (file)
@@ -917,7 +917,7 @@ int mem_cgroup_scan_tasks(struct mem_cgroup *memcg,
 /**
  * mem_cgroup_page_lruvec - return lruvec for isolating/putting an LRU page
  * @page: the page
- * @zone: zone of the page
+ * @pgdat: pgdat of the page
  *
  * This function is only safe when following the LRU page isolation
  * and putback protocol: the LRU lock must be held, and the page must
index 16424b9ae4240a9b051edff0a93b8d3f84c5b9a4..f24c297dba6f3d76c8c1fa8de308b12c4148c75f 100644 (file)
@@ -25,7 +25,7 @@
 /**
  * process_vm_rw_pages - read/write pages from task specified
  * @pages: array of pointers to pages we want to copy
- * @start_offset: offset in page to start copying from/to
+ * @offset: offset in page to start copying from/to
  * @len: number of bytes to copy
  * @iter: where to copy to/from locally
  * @vm_write: 0 means copy from, 1 means copy to
index 10568b1548d4dd62ed309ac187f0b84b2328ed70..567a7b96e41d63a06fe9f2332e7141161ee141a0 100644 (file)
--- a/mm/swap.c
+++ b/mm/swap.c
@@ -913,11 +913,11 @@ EXPORT_SYMBOL(__pagevec_lru_add);
  * @pvec:      Where the resulting entries are placed
  * @mapping:   The address_space to search
  * @start:     The starting entry index
- * @nr_entries:        The maximum number of entries
+ * @nr_pages:  The maximum number of pages
  * @indices:   The cache indices corresponding to the entries in @pvec
  *
  * pagevec_lookup_entries() will search for and return a group of up
- * to @nr_entries pages and shadow entries in the mapping.  All
+ * to @nr_pages pages and shadow entries in the mapping.  All
  * entries are placed in @pvec.  pagevec_lookup_entries() takes a
  * reference against actual pages in @pvec.
  *
index 39e19125d6a019439e5795cbf9be5d54ad2d3349..d589d318727fa3a17bddfa3e0a8ef34c091f745f 100644 (file)
@@ -769,7 +769,7 @@ static void z3fold_free(struct z3fold_pool *pool, unsigned long handle)
 /**
  * z3fold_reclaim_page() - evicts allocations from a pool page and frees it
  * @pool:      pool from which a page will attempt to be evicted
- * @retires:   number of pages on the LRU list for which eviction will
+ * @retries:   number of pages on the LRU list for which eviction will
  *             be attempted before failing
  *
  * z3fold reclaim is different from normal system reclaim in that it is done
@@ -779,7 +779,7 @@ static void z3fold_free(struct z3fold_pool *pool, unsigned long handle)
  * z3fold and the user, however.
  *
  * To avoid these, this is how z3fold_reclaim_page() should be called:
-
+ *
  * The user detects a page should be reclaimed and calls z3fold_reclaim_page().
  * z3fold_reclaim_page() will remove a z3fold page from the pool LRU list and
  * call the user-defined eviction handler with the pool and handle as
index b42322e50f6308f9445fe83380f29973e99864b3..28458f7d1e84b1fabd07a314109fbf9e8f05419b 100644 (file)
--- a/mm/zbud.c
+++ b/mm/zbud.c
@@ -466,7 +466,7 @@ void zbud_free(struct zbud_pool *pool, unsigned long handle)
 /**
  * zbud_reclaim_page() - evicts allocations from a pool page and frees it
  * @pool:      pool from which a page will attempt to be evicted
- * @retires:   number of pages on the LRU list for which eviction will
+ * @retries:   number of pages on the LRU list for which eviction will
  *             be attempted before failing
  *
  * zbud reclaim is different from normal system reclaim in that the reclaim is
@@ -476,7 +476,7 @@ void zbud_free(struct zbud_pool *pool, unsigned long handle)
  * the user, however.
  *
  * To avoid these, this is how zbud_reclaim_page() should be called:
-
+ *
  * The user detects a page should be reclaimed and calls zbud_reclaim_page().
  * zbud_reclaim_page() will remove a zbud page from the pool LRU list and call
  * the user-defined eviction handler with the pool and handle as arguments.
index be67bcffb9ef1ddd70f93ac664d1730d2dcb1d45..f8cb83e7699bba6f015fa60fa35bab214c71975e 100644 (file)
@@ -201,7 +201,7 @@ struct zpool *zpool_create_pool(const char *type, const char *name, gfp_t gfp,
 
 /**
  * zpool_destroy_pool() - Destroy a zpool
- * @pool:      The zpool to destroy.
+ * @zpool:     The zpool to destroy.
  *
  * Implementations must guarantee this to be thread-safe,
  * however only when destroying different pools.  The same
@@ -224,7 +224,7 @@ void zpool_destroy_pool(struct zpool *zpool)
 
 /**
  * zpool_get_type() - Get the type of the zpool
- * @pool:      The zpool to check
+ * @zpool:     The zpool to check
  *
  * This returns the type of the pool.
  *
@@ -239,7 +239,7 @@ const char *zpool_get_type(struct zpool *zpool)
 
 /**
  * zpool_malloc() - Allocate memory
- * @pool:      The zpool to allocate from.
+ * @zpool:     The zpool to allocate from.
  * @size:      The amount of memory to allocate.
  * @gfp:       The GFP flags to use when allocating memory.
  * @handle:    Pointer to the handle to set
@@ -261,7 +261,7 @@ int zpool_malloc(struct zpool *zpool, size_t size, gfp_t gfp,
 
 /**
  * zpool_free() - Free previously allocated memory
- * @pool:      The zpool that allocated the memory.
+ * @zpool:     The zpool that allocated the memory.
  * @handle:    The handle to the memory to free.
  *
  * This frees previously allocated memory.  This does not guarantee
@@ -280,7 +280,7 @@ void zpool_free(struct zpool *zpool, unsigned long handle)
 
 /**
  * zpool_shrink() - Shrink the pool size
- * @pool:      The zpool to shrink.
+ * @zpool:     The zpool to shrink.
  * @pages:     The number of pages to shrink the pool.
  * @reclaimed: The number of pages successfully evicted.
  *
@@ -304,11 +304,11 @@ int zpool_shrink(struct zpool *zpool, unsigned int pages,
 
 /**
  * zpool_map_handle() - Map a previously allocated handle into memory
- * @pool:      The zpool that the handle was allocated from
+ * @zpool:     The zpool that the handle was allocated from
  * @handle:    The handle to map
- * @mm:                How the memory should be mapped
+ * @mapmode:   How the memory should be mapped
  *
- * This maps a previously allocated handle into memory.  The @mm
+ * This maps a previously allocated handle into memory.  The @mapmode
  * param indicates to the implementation how the memory will be
  * used, i.e. read-only, write-only, read-write.  If the
  * implementation does not support it, the memory will be treated
@@ -332,7 +332,7 @@ void *zpool_map_handle(struct zpool *zpool, unsigned long handle,
 
 /**
  * zpool_unmap_handle() - Unmap a previously mapped handle
- * @pool:      The zpool that the handle was allocated from
+ * @zpool:     The zpool that the handle was allocated from
  * @handle:    The handle to unmap
  *
  * This unmaps a previously mapped handle.  Any locks or other
@@ -347,7 +347,7 @@ void zpool_unmap_handle(struct zpool *zpool, unsigned long handle)
 
 /**
  * zpool_get_total_size() - The total size of the pool
- * @pool:      The zpool to check
+ * @zpool:     The zpool to check
  *
  * This returns the total size in bytes of the pool.
  *