@@ -25,8 +25,11 @@ define amdgpu_kernel void @uniform_conditional_max_short_forward_branch(ptr addr
25
25
; GCN-NEXT: s_load_b32 s0, s[4:5], 0x2c
26
26
; GCN-NEXT: s_wait_kmcnt 0x0
27
27
; GCN-NEXT: s_cmp_eq_u32 s0, 0
28
- ; GCN-NEXT: s_cbranch_scc1 .LBB0_2
29
- ; GCN-NEXT: ; %bb.1: ; %bb2
28
+ ; GCN-NEXT: s_cbranch_scc0 .LBB0_1
29
+ ; GCN-NEXT: ; %bb.3: ; %bb
30
+ ; GCN-NEXT: s_add_pc_i64 .LBB0_2-.Lpost_addpc0
31
+ ; GCN-NEXT: .Lpost_addpc0:
32
+ ; GCN-NEXT: .LBB0_1: ; %bb2
30
33
; GCN-NEXT: ;;#ASMSTART
31
34
; GCN-NEXT: v_nop_e64
32
35
; GCN-NEXT: v_nop_e64
@@ -64,8 +67,8 @@ define amdgpu_kernel void @uniform_conditional_min_long_forward_branch(ptr addrs
64
67
; GCN-NEXT: s_cmp_eq_u32 s0, 0
65
68
; GCN-NEXT: s_cbranch_scc0 .LBB1_1
66
69
; GCN-NEXT: ; %bb.3: ; %bb0
67
- ; GCN-NEXT: s_add_pc_i64 .LBB1_2-.Lpost_addpc0
68
- ; GCN-NEXT: .Lpost_addpc0 :
70
+ ; GCN-NEXT: s_add_pc_i64 .LBB1_2-.Lpost_addpc1
71
+ ; GCN-NEXT: .Lpost_addpc1 :
69
72
; GCN-NEXT: .LBB1_1: ; %bb2
70
73
; GCN-NEXT: ;;#ASMSTART
71
74
; GCN-NEXT: v_nop_e64
@@ -106,8 +109,8 @@ define amdgpu_kernel void @uniform_conditional_min_long_forward_vcnd_branch(ptr
106
109
; GCN-NEXT: s_cmp_eq_f32 s0, 0
107
110
; GCN-NEXT: s_cbranch_scc0 .LBB2_1
108
111
; GCN-NEXT: ; %bb.3: ; %bb0
109
- ; GCN-NEXT: s_add_pc_i64 .LBB2_2-.Lpost_addpc1
110
- ; GCN-NEXT: .Lpost_addpc1 :
112
+ ; GCN-NEXT: s_add_pc_i64 .LBB2_2-.Lpost_addpc2
113
+ ; GCN-NEXT: .Lpost_addpc2 :
111
114
; GCN-NEXT: .LBB2_1: ; %bb2
112
115
; GCN-NEXT: ;;#ASMSTART
113
116
; GCN-NEXT: ; 32 bytes
@@ -157,8 +160,8 @@ define amdgpu_kernel void @min_long_forward_vbranch(ptr addrspace(1) %arg) #0 {
157
160
; GCN-NEXT: v_cmpx_ne_u32_e32 0, v2
158
161
; GCN-NEXT: s_cbranch_execnz .LBB3_1
159
162
; GCN-NEXT: ; %bb.3: ; %bb
160
- ; GCN-NEXT: s_add_pc_i64 .LBB3_2-.Lpost_addpc2
161
- ; GCN-NEXT: .Lpost_addpc2 :
163
+ ; GCN-NEXT: s_add_pc_i64 .LBB3_2-.Lpost_addpc3
164
+ ; GCN-NEXT: .Lpost_addpc3 :
162
165
; GCN-NEXT: .LBB3_1: ; %bb2
163
166
; GCN-NEXT: ;;#ASMSTART
164
167
; GCN-NEXT: ; 32 bytes
@@ -209,8 +212,8 @@ define amdgpu_kernel void @long_backward_sbranch(ptr addrspace(1) %arg) #0 {
209
212
; GCN-NEXT: s_cbranch_scc0 .LBB4_2
210
213
; GCN-NEXT: ; %bb.3: ; %bb2
211
214
; GCN-NEXT: ; in Loop: Header=BB4_1 Depth=1
212
- ; GCN-NEXT: s_add_pc_i64 .LBB4_1-.Lpost_addpc3
213
- ; GCN-NEXT: .Lpost_addpc3 :
215
+ ; GCN-NEXT: s_add_pc_i64 .LBB4_1-.Lpost_addpc4
216
+ ; GCN-NEXT: .Lpost_addpc4 :
214
217
; GCN-NEXT: .LBB4_2: ; %bb3
215
218
; GCN-NEXT: s_endpgm
216
219
bb:
@@ -242,8 +245,8 @@ define amdgpu_kernel void @uniform_unconditional_min_long_forward_branch(ptr add
242
245
; GCN-NEXT: s_mov_b32 s0, -1
243
246
; GCN-NEXT: s_cbranch_scc0 .LBB5_1
244
247
; GCN-NEXT: ; %bb.7: ; %bb0
245
- ; GCN-NEXT: s_add_pc_i64 .LBB5_4-.Lpost_addpc5
246
- ; GCN-NEXT: .Lpost_addpc5 :
248
+ ; GCN-NEXT: s_add_pc_i64 .LBB5_4-.Lpost_addpc6
249
+ ; GCN-NEXT: .Lpost_addpc6 :
247
250
; GCN-NEXT: .LBB5_1: ; %Flow
248
251
; GCN-NEXT: s_and_not1_b32 vcc_lo, exec_lo, s0
249
252
; GCN-NEXT: s_cbranch_vccnz .LBB5_3
@@ -268,11 +271,11 @@ define amdgpu_kernel void @uniform_unconditional_min_long_forward_branch(ptr add
268
271
; GCN-NEXT: s_sleep 0
269
272
; GCN-NEXT: s_cbranch_execnz .LBB5_5
270
273
; GCN-NEXT: ; %bb.9: ; %bb3
271
- ; GCN-NEXT: s_add_pc_i64 .LBB5_2-.Lpost_addpc6
272
- ; GCN-NEXT: .Lpost_addpc6 :
274
+ ; GCN-NEXT: s_add_pc_i64 .LBB5_2-.Lpost_addpc7
275
+ ; GCN-NEXT: .Lpost_addpc7 :
273
276
; GCN-NEXT: .LBB5_5: ; %bb3
274
- ; GCN-NEXT: s_add_pc_i64 .LBB5_3-.Lpost_addpc4
275
- ; GCN-NEXT: .Lpost_addpc4 :
277
+ ; GCN-NEXT: s_add_pc_i64 .LBB5_3-.Lpost_addpc5
278
+ ; GCN-NEXT: .Lpost_addpc5 :
276
279
bb0:
277
280
%tmp = icmp ne i32 %arg1 , 0
278
281
br i1 %tmp , label %bb2 , label %bb3
@@ -310,8 +313,8 @@ define amdgpu_kernel void @uniform_unconditional_min_long_backward_branch(ptr ad
310
313
; GCN-NEXT: s_cbranch_vccz .LBB6_2
311
314
; GCN-NEXT: ; %bb.3: ; %loop
312
315
; GCN-NEXT: ; in Loop: Header=BB6_1 Depth=1
313
- ; GCN-NEXT: s_add_pc_i64 .LBB6_1-.Lpost_addpc7
314
- ; GCN-NEXT: .Lpost_addpc7 :
316
+ ; GCN-NEXT: s_add_pc_i64 .LBB6_1-.Lpost_addpc8
317
+ ; GCN-NEXT: .Lpost_addpc8 :
315
318
; GCN-NEXT: .LBB6_2: ; %DummyReturnBlock
316
319
; GCN-NEXT: s_endpgm
317
320
entry:
@@ -350,8 +353,8 @@ define amdgpu_kernel void @expand_requires_expand(i32 %cond0) #0 {
350
353
; GCN-NEXT: s_and_not1_b32 vcc_lo, exec_lo, s0
351
354
; GCN-NEXT: s_cbranch_vccz .LBB7_3
352
355
; GCN-NEXT: ; %bb.5: ; %Flow
353
- ; GCN-NEXT: s_add_pc_i64 .LBB7_4-.Lpost_addpc8
354
- ; GCN-NEXT: .Lpost_addpc8 :
356
+ ; GCN-NEXT: s_add_pc_i64 .LBB7_4-.Lpost_addpc9
357
+ ; GCN-NEXT: .Lpost_addpc9 :
355
358
; GCN-NEXT: .LBB7_3: ; %bb2
356
359
; GCN-NEXT: ;;#ASMSTART
357
360
; GCN-NEXT: v_nop_e64
@@ -406,8 +409,8 @@ define amdgpu_kernel void @uniform_inside_divergent(ptr addrspace(1) %out, i32 %
406
409
; GCN-NEXT: v_cmpx_gt_u32_e32 16, v0
407
410
; GCN-NEXT: s_cbranch_execnz .LBB8_1
408
411
; GCN-NEXT: ; %bb.4: ; %entry
409
- ; GCN-NEXT: s_add_pc_i64 .LBB8_3-.Lpost_addpc9
410
- ; GCN-NEXT: .Lpost_addpc9 :
412
+ ; GCN-NEXT: s_add_pc_i64 .LBB8_3-.Lpost_addpc10
413
+ ; GCN-NEXT: .Lpost_addpc10 :
411
414
; GCN-NEXT: .LBB8_1: ; %if
412
415
; GCN-NEXT: s_load_b96 s[0:2], s[4:5], 0x24
413
416
; GCN-NEXT: v_mov_b32_e32 v0, 0
@@ -465,8 +468,8 @@ define amdgpu_kernel void @analyze_mask_branch() #0 {
465
468
; GCN-NEXT: s_and_not1_saveexec_b32 s0, s0
466
469
; GCN-NEXT: s_cbranch_execnz .LBB9_3
467
470
; GCN-NEXT: ; %bb.6: ; %Flow1
468
- ; GCN-NEXT: s_add_pc_i64 .LBB9_5-.Lpost_addpc10
469
- ; GCN-NEXT: .Lpost_addpc10 :
471
+ ; GCN-NEXT: s_add_pc_i64 .LBB9_5-.Lpost_addpc11
472
+ ; GCN-NEXT: .Lpost_addpc11 :
470
473
; GCN-NEXT: .LBB9_3: ; %loop.preheader
471
474
; GCN-NEXT: s_mov_b32 vcc_lo, 0
472
475
; GCN-NEXT: .LBB9_4: ; %loop
@@ -484,8 +487,8 @@ define amdgpu_kernel void @analyze_mask_branch() #0 {
484
487
; GCN-NEXT: s_cbranch_vccnz .LBB9_5
485
488
; GCN-NEXT: ; %bb.8: ; %loop
486
489
; GCN-NEXT: ; in Loop: Header=BB9_4 Depth=1
487
- ; GCN-NEXT: s_add_pc_i64 .LBB9_4-.Lpost_addpc11
488
- ; GCN-NEXT: .Lpost_addpc11 :
490
+ ; GCN-NEXT: s_add_pc_i64 .LBB9_4-.Lpost_addpc12
491
+ ; GCN-NEXT: .Lpost_addpc12 :
489
492
; GCN-NEXT: .LBB9_5: ; %UnifiedReturnBlock
490
493
; GCN-NEXT: s_endpgm
491
494
entry:
@@ -528,20 +531,20 @@ define amdgpu_kernel void @long_branch_hang(ptr addrspace(1) nocapture %arg, i32
528
531
; GCN-NEXT: s_cmp_lt_i32 s3, 6
529
532
; GCN-NEXT: s_cbranch_scc0 .LBB10_1
530
533
; GCN-NEXT: ; %bb.10: ; %bb
531
- ; GCN-NEXT: s_add_pc_i64 .LBB10_4-.Lpost_addpc13
532
- ; GCN-NEXT: .Lpost_addpc13 :
534
+ ; GCN-NEXT: s_add_pc_i64 .LBB10_4-.Lpost_addpc14
535
+ ; GCN-NEXT: .Lpost_addpc14 :
533
536
; GCN-NEXT: .LBB10_1: ; %Flow
534
537
; GCN-NEXT: s_and_not1_b32 vcc_lo, exec_lo, s7
535
538
; GCN-NEXT: s_cbranch_vccnz .LBB10_2
536
539
; GCN-NEXT: ; %bb.12: ; %Flow
537
- ; GCN-NEXT: s_add_pc_i64 .LBB10_5-.Lpost_addpc14
538
- ; GCN-NEXT: .Lpost_addpc14 :
540
+ ; GCN-NEXT: s_add_pc_i64 .LBB10_5-.Lpost_addpc15
541
+ ; GCN-NEXT: .Lpost_addpc15 :
539
542
; GCN-NEXT: .LBB10_2: ; %Flow5
540
543
; GCN-NEXT: s_and_not1_b32 vcc_lo, exec_lo, s0
541
544
; GCN-NEXT: s_cbranch_vccz .LBB10_3
542
545
; GCN-NEXT: ; %bb.14: ; %Flow5
543
- ; GCN-NEXT: s_add_pc_i64 .LBB10_6-.Lpost_addpc15
544
- ; GCN-NEXT: .Lpost_addpc15 :
546
+ ; GCN-NEXT: s_add_pc_i64 .LBB10_6-.Lpost_addpc16
547
+ ; GCN-NEXT: .Lpost_addpc16 :
545
548
; GCN-NEXT: .LBB10_3: ; %bb14
546
549
; GCN-NEXT: s_cmp_lt_i32 s1, 9
547
550
; GCN-NEXT: s_cselect_b32 s0, -1, 0
@@ -553,8 +556,8 @@ define amdgpu_kernel void @long_branch_hang(ptr addrspace(1) nocapture %arg, i32
553
556
; GCN-NEXT: s_delay_alu instid0(SALU_CYCLE_1)
554
557
; GCN-NEXT: v_cndmask_b32_e64 v0, 0, 1, s0
555
558
; GCN-NEXT: ; %bb.8: ; %bb14
556
- ; GCN-NEXT: s_add_pc_i64 .LBB10_7-.Lpost_addpc12
557
- ; GCN-NEXT: .Lpost_addpc12 :
559
+ ; GCN-NEXT: s_add_pc_i64 .LBB10_7-.Lpost_addpc13
560
+ ; GCN-NEXT: .Lpost_addpc13 :
558
561
; GCN-NEXT: .LBB10_4: ; %bb13
559
562
; GCN-NEXT: ;;#ASMSTART
560
563
; GCN-NEXT: v_nop_e64
@@ -565,8 +568,8 @@ define amdgpu_kernel void @long_branch_hang(ptr addrspace(1) nocapture %arg, i32
565
568
; GCN-NEXT: s_sleep 0
566
569
; GCN-NEXT: s_cbranch_execz .LBB10_5
567
570
; GCN-NEXT: ; %bb.16: ; %bb13
568
- ; GCN-NEXT: s_add_pc_i64 .LBB10_2-.Lpost_addpc16
569
- ; GCN-NEXT: .Lpost_addpc16 :
571
+ ; GCN-NEXT: s_add_pc_i64 .LBB10_2-.Lpost_addpc17
572
+ ; GCN-NEXT: .Lpost_addpc17 :
570
573
; GCN-NEXT: .LBB10_5: ; %bb9
571
574
; GCN-NEXT: s_cmp_lt_i32 s3, 11
572
575
; GCN-NEXT: s_cselect_b32 s0, -1, 0
@@ -577,8 +580,8 @@ define amdgpu_kernel void @long_branch_hang(ptr addrspace(1) nocapture %arg, i32
577
580
; GCN-NEXT: s_and_not1_b32 vcc_lo, exec_lo, s0
578
581
; GCN-NEXT: s_cbranch_vccnz .LBB10_6
579
582
; GCN-NEXT: ; %bb.18: ; %bb9
580
- ; GCN-NEXT: s_add_pc_i64 .LBB10_3-.Lpost_addpc17
581
- ; GCN-NEXT: .Lpost_addpc17 :
583
+ ; GCN-NEXT: s_add_pc_i64 .LBB10_3-.Lpost_addpc18
584
+ ; GCN-NEXT: .Lpost_addpc18 :
582
585
; GCN-NEXT: .LBB10_6:
583
586
; GCN-NEXT: ; implicit-def: $vgpr0
584
587
; GCN-NEXT: .LBB10_7: ; %bb19
0 commit comments