1  /* { dg-final { check-function-bodies "**" "" "-DCHECK_ASM" } } */
       2  
       3  #include "test_sve_acle.h"
       4  
       5  /*
       6  ** sra_1_u64_tied1:
       7  **	usra	z0\.d, z1\.d, #1
       8  **	ret
       9  */
      10  TEST_UNIFORM_Z (sra_1_u64_tied1, svuint64_t,
      11  		z0 = svsra_n_u64 (z0, z1, 1),
      12  		z0 = svsra (z0, z1, 1))
      13  
      14  /*
      15  ** sra_1_u64_tied2:
      16  **	mov	(z[0-9]+\.d), z0\.d
      17  **	movprfx	z0, z1
      18  **	usra	z0\.d, \1, #1
      19  **	ret
      20  */
      21  TEST_UNIFORM_Z (sra_1_u64_tied2, svuint64_t,
      22  		z0 = svsra_n_u64 (z1, z0, 1),
      23  		z0 = svsra (z1, z0, 1))
      24  
      25  /*
      26  ** sra_1_u64_untied:
      27  **	movprfx	z0, z1
      28  **	usra	z0\.d, z2\.d, #1
      29  **	ret
      30  */
      31  TEST_UNIFORM_Z (sra_1_u64_untied, svuint64_t,
      32  		z0 = svsra_n_u64 (z1, z2, 1),
      33  		z0 = svsra (z1, z2, 1))
      34  
      35  /*
      36  ** sra_2_u64_tied1:
      37  **	usra	z0\.d, z1\.d, #2
      38  **	ret
      39  */
      40  TEST_UNIFORM_Z (sra_2_u64_tied1, svuint64_t,
      41  		z0 = svsra_n_u64 (z0, z1, 2),
      42  		z0 = svsra (z0, z1, 2))
      43  
      44  /*
      45  ** sra_2_u64_tied2:
      46  **	mov	(z[0-9]+\.d), z0\.d
      47  **	movprfx	z0, z1
      48  **	usra	z0\.d, \1, #2
      49  **	ret
      50  */
      51  TEST_UNIFORM_Z (sra_2_u64_tied2, svuint64_t,
      52  		z0 = svsra_n_u64 (z1, z0, 2),
      53  		z0 = svsra (z1, z0, 2))
      54  
      55  /*
      56  ** sra_2_u64_untied:
      57  **	movprfx	z0, z1
      58  **	usra	z0\.d, z2\.d, #2
      59  **	ret
      60  */
      61  TEST_UNIFORM_Z (sra_2_u64_untied, svuint64_t,
      62  		z0 = svsra_n_u64 (z1, z2, 2),
      63  		z0 = svsra (z1, z2, 2))
      64  
      65  /*
      66  ** sra_64_u64_tied1:
      67  **	usra	z0\.d, z1\.d, #64
      68  **	ret
      69  */
      70  TEST_UNIFORM_Z (sra_64_u64_tied1, svuint64_t,
      71  		z0 = svsra_n_u64 (z0, z1, 64),
      72  		z0 = svsra (z0, z1, 64))
      73  
      74  /*
      75  ** sra_64_u64_tied2:
      76  **	mov	(z[0-9]+\.d), z0\.d
      77  **	movprfx	z0, z1
      78  **	usra	z0\.d, \1, #64
      79  **	ret
      80  */
      81  TEST_UNIFORM_Z (sra_64_u64_tied2, svuint64_t,
      82  		z0 = svsra_n_u64 (z1, z0, 64),
      83  		z0 = svsra (z1, z0, 64))
      84  
      85  /*
      86  ** sra_64_u64_untied:
      87  **	movprfx	z0, z1
      88  **	usra	z0\.d, z2\.d, #64
      89  **	ret
      90  */
      91  TEST_UNIFORM_Z (sra_64_u64_untied, svuint64_t,
      92  		z0 = svsra_n_u64 (z1, z2, 64),
      93  		z0 = svsra (z1, z2, 64))