RDMA/rxe: Fix a race condition in rxe_requester()
authorBart Van Assche <bart.vanassche@wdc.com>
Fri, 12 Jan 2018 23:11:58 +0000 (15:11 -0800)
committerDoug Ledford <dledford@redhat.com>
Thu, 18 Jan 2018 19:49:19 +0000 (14:49 -0500)
The rxe driver works as follows:
* The send queue, receive queue and completion queues are implemented as
  circular buffers.
* ib_post_send() and ib_post_recv() calls are serialized through a spinlock.
* Removing elements from various queues happens from tasklet
  context. Tasklets are guaranteed to run on at most one CPU. This serializes
  access to these queues. See also rxe_completer(), rxe_requester() and
  rxe_responder().
* rxe_completer() processes the skbs queued onto qp->resp_pkts.
* rxe_requester() handles the send queue (qp->sq.queue).
* rxe_responder() processes the skbs queued onto qp->req_pkts.

Since rxe_drain_req_pkts() processes qp->req_pkts, calling
rxe_drain_req_pkts() from rxe_requester() is racy. Hence this patch.

Reported-by: Moni Shoua <monis@mellanox.com>
Signed-off-by: Bart Van Assche <bart.vanassche@wdc.com>
Cc: stable@vger.kernel.org
Signed-off-by: Doug Ledford <dledford@redhat.com>
drivers/infiniband/sw/rxe/rxe_loc.h
drivers/infiniband/sw/rxe/rxe_req.c
drivers/infiniband/sw/rxe/rxe_resp.c

index d7472a442a2cf108e3a549810fdfcb0f211b7446..96c3a6c5c4b5c0290bf255f7f5a80523a6eba4c4 100644 (file)
@@ -237,7 +237,6 @@ int rxe_srq_from_attr(struct rxe_dev *rxe, struct rxe_srq *srq,
 
 void rxe_release(struct kref *kref);
 
-void rxe_drain_req_pkts(struct rxe_qp *qp, bool notify);
 int rxe_completer(void *arg);
 int rxe_requester(void *arg);
 int rxe_responder(void *arg);
index 26a7f923045b51e3aacb89edbaf5996707230c87..7bdaf71b82213bea1cf66f606d5e517706d2647c 100644 (file)
@@ -594,15 +594,8 @@ int rxe_requester(void *arg)
        rxe_add_ref(qp);
 
 next_wqe:
-       if (unlikely(!qp->valid)) {
-               rxe_drain_req_pkts(qp, true);
+       if (unlikely(!qp->valid || qp->req.state == QP_STATE_ERROR))
                goto exit;
-       }
-
-       if (unlikely(qp->req.state == QP_STATE_ERROR)) {
-               rxe_drain_req_pkts(qp, true);
-               goto exit;
-       }
 
        if (unlikely(qp->req.state == QP_STATE_RESET)) {
                qp->req.wqe_index = consumer_index(qp->sq.queue);
index f07324f2cde2077f8141f4c92cb020825de751c1..d37bb9b97569e5beac01147c24f0fc31efd7d49e 100644 (file)
@@ -1209,7 +1209,7 @@ static enum resp_states do_class_d1e_error(struct rxe_qp *qp)
        }
 }
 
-void rxe_drain_req_pkts(struct rxe_qp *qp, bool notify)
+static void rxe_drain_req_pkts(struct rxe_qp *qp, bool notify)
 {
        struct sk_buff *skb;