radeon: Split out ring locking and allocation
authorMatthew Garrett <mjg@redhat.com>
Fri, 30 Apr 2010 19:24:17 +0000 (15:24 -0400)
committerDave Airlie <airlied@redhat.com>
Tue, 18 May 2010 08:21:45 +0000 (18:21 +1000)
We need to handle the ring while we've already locked it, so split out
the allocation and commit functions in order to allow them to be used.

Signed-off-by: Matthew Garrett <mjg@redhat.com>
Signed-off-by: Dave Airlie <airlied@redhat.com>
drivers/gpu/drm/radeon/radeon.h
drivers/gpu/drm/radeon/radeon_ring.c

index 93ac88e..e39e2b4 100644 (file)
@@ -471,7 +471,9 @@ int radeon_ib_test(struct radeon_device *rdev);
 extern void radeon_ib_bogus_add(struct radeon_device *rdev, struct radeon_ib *ib);
 /* Ring access between begin & end cannot sleep */
 void radeon_ring_free_size(struct radeon_device *rdev);
+int radeon_ring_alloc(struct radeon_device *rdev, unsigned ndw);
 int radeon_ring_lock(struct radeon_device *rdev, unsigned ndw);
+void radeon_ring_commit(struct radeon_device *rdev);
 void radeon_ring_unlock_commit(struct radeon_device *rdev);
 void radeon_ring_unlock_undo(struct radeon_device *rdev);
 int radeon_ring_test(struct radeon_device *rdev);
index f6e1e8d..6cc4259 100644 (file)
@@ -258,31 +258,41 @@ void radeon_ring_free_size(struct radeon_device *rdev)
        }
 }
 
-int radeon_ring_lock(struct radeon_device *rdev, unsigned ndw)
+int radeon_ring_alloc(struct radeon_device *rdev, unsigned ndw)
 {
        int r;
 
        /* Align requested size with padding so unlock_commit can
         * pad safely */
        ndw = (ndw + rdev->cp.align_mask) & ~rdev->cp.align_mask;
-       mutex_lock(&rdev->cp.mutex);
        while (ndw > (rdev->cp.ring_free_dw - 1)) {
                radeon_ring_free_size(rdev);
                if (ndw < rdev->cp.ring_free_dw) {
                        break;
                }
                r = radeon_fence_wait_next(rdev);
-               if (r) {
-                       mutex_unlock(&rdev->cp.mutex);
+               if (r)
                        return r;
-               }
        }
        rdev->cp.count_dw = ndw;
        rdev->cp.wptr_old = rdev->cp.wptr;
        return 0;
 }
 
-void radeon_ring_unlock_commit(struct radeon_device *rdev)
+int radeon_ring_lock(struct radeon_device *rdev, unsigned ndw)
+{
+       int r;
+
+       mutex_lock(&rdev->cp.mutex);
+       r = radeon_ring_alloc(rdev, ndw);
+       if (r) {
+               mutex_unlock(&rdev->cp.mutex);
+               return r;
+       }
+       return 0;
+}
+
+void radeon_ring_commit(struct radeon_device *rdev)
 {
        unsigned count_dw_pad;
        unsigned i;
@@ -295,6 +305,11 @@ void radeon_ring_unlock_commit(struct radeon_device *rdev)
        }
        DRM_MEMORYBARRIER();
        radeon_cp_commit(rdev);
+}
+
+void radeon_ring_unlock_commit(struct radeon_device *rdev)
+{
+       radeon_ring_commit(rdev);
        mutex_unlock(&rdev->cp.mutex);
 }