106N/A typedef struct _drm_intel_bufmgr_gem {
106N/A drm_intel_bufmgr bufmgr;
106N/A struct _drm_intel_bo_gem {
3778N/A drm_intel_bo_gem *bo_gem = (drm_intel_bo_gem *) bo;
106N/A- atomic_inc(&bo_gem->refcount);
1247N/A- atomic_set(&bo_gem->refcount, 1);
1273N/A bo_gem->validate_index = -1;
106N/A bo_gem->reloc_tree_fences = 0;
3661N/A bo_gem->used_as_reloc_target = false;
3778N/A DRMINITLISTHEAD(&bo_gem->vma_list);
3996N/A- atomic_set(&bo_gem->refcount, 1);
4561N/A bo_gem->validate_index = -1;
4561N/A bo_gem->reloc_tree_fences = 0;
4561N/A bo_gem->used_as_reloc_target = false;
3996N/A- atomic_set(&bo_gem->refcount, 1);
106N/A bo_gem->validate_index = -1;
1874N/A drm_intel_bo_gem *bo_gem = (drm_intel_bo_gem *) bo;
1874N/A- assert(atomic_read(&bo_gem->refcount) > 0);
1874N/A- if (atomic_dec_and_test(&bo_gem->refcount))
1247N/A+ assert(bo_gem->refcount > 0);
1247N/A+ if (--bo_gem->refcount == 0)
106N/A drm_intel_gem_bo_unreference_final(bo, time);
727N/A drm_intel_bo_gem *bo_gem = (drm_intel_bo_gem *) bo;
1247N/A- assert(atomic_read(&bo_gem->refcount) > 0);
1247N/A+ assert(bo_gem->refcount > 0);
1247N/A if (atomic_add_unless(&bo_gem->refcount, -1, 1)) {
1247N/A drm_intel_bufmgr_gem *bufmgr_gem =
1247N/A pthread_mutex_lock(&bufmgr_gem->lock);
1247N/A- if (atomic_dec_and_test(&bo_gem->refcount)) {
1247N/A+ if (--bo_gem->refcount == 0) {
247N/A bo_gem->gem_handle = handle;
106N/A- atomic_set(&bo_gem->refcount, 1);
bo_gem->validate_index = -1;
DRMLISTFOREACHENTRY(bufmgr_gem, &bufmgr_list, managers) {
if (bufmgr_gem->fd == fd) {
- atomic_inc(&bufmgr_gem->refcount);
+ bufmgr_gem->refcount++;
if (atomic_add_unless(&bufmgr_gem->refcount, -1, 1)) {
pthread_mutex_lock(&bufmgr_list_mutex);
- if (atomic_dec_and_test(&bufmgr_gem->refcount)) {
+ if (--bufmgr_gem->refcount == 0) {
DRMLISTDEL(&bufmgr_gem->managers);
drm_intel_bufmgr_gem_destroy(bufmgr);
- atomic_set(&bufmgr_gem->refcount, 1);
+ bufmgr_gem->refcount = 1;
if (pthread_mutex_init(&bufmgr_gem->lock, NULL) != 0) {