Lines Matching refs:reset_domain

265 	struct amdgpu_reset_domain *reset_domain = container_of(ref,  in amdgpu_reset_destroy_reset_domain()  local
268 if (reset_domain->wq) in amdgpu_reset_destroy_reset_domain()
269 destroy_workqueue(reset_domain->wq); in amdgpu_reset_destroy_reset_domain()
271 kvfree(reset_domain); in amdgpu_reset_destroy_reset_domain()
277 struct amdgpu_reset_domain *reset_domain; in amdgpu_reset_create_reset_domain() local
279 reset_domain = kvzalloc(sizeof(struct amdgpu_reset_domain), GFP_KERNEL); in amdgpu_reset_create_reset_domain()
280 if (!reset_domain) { in amdgpu_reset_create_reset_domain()
285 reset_domain->type = type; in amdgpu_reset_create_reset_domain()
286 kref_init(&reset_domain->refcount); in amdgpu_reset_create_reset_domain()
288 reset_domain->wq = create_singlethread_workqueue(wq_name); in amdgpu_reset_create_reset_domain()
289 if (!reset_domain->wq) { in amdgpu_reset_create_reset_domain()
291 amdgpu_reset_put_reset_domain(reset_domain); in amdgpu_reset_create_reset_domain()
296 atomic_set(&reset_domain->in_gpu_reset, 0); in amdgpu_reset_create_reset_domain()
297 atomic_set(&reset_domain->reset_res, 0); in amdgpu_reset_create_reset_domain()
298 init_rwsem(&reset_domain->sem); in amdgpu_reset_create_reset_domain()
300 return reset_domain; in amdgpu_reset_create_reset_domain()
303 void amdgpu_device_lock_reset_domain(struct amdgpu_reset_domain *reset_domain) in amdgpu_device_lock_reset_domain() argument
305 atomic_set(&reset_domain->in_gpu_reset, 1); in amdgpu_device_lock_reset_domain()
306 down_write(&reset_domain->sem); in amdgpu_device_lock_reset_domain()
310 void amdgpu_device_unlock_reset_domain(struct amdgpu_reset_domain *reset_domain) in amdgpu_device_unlock_reset_domain() argument
312 atomic_set(&reset_domain->in_gpu_reset, 0); in amdgpu_device_unlock_reset_domain()
313 up_write(&reset_domain->sem); in amdgpu_device_unlock_reset_domain()