(root)/
gcc-13.2.0/
gcc/
testsuite/
gcc.target/
aarch64/
sve/
acle/
asm/
mul_lane_f16.c
       1  /* { dg-final { check-function-bodies "**" "" "-DCHECK_ASM" } } */
       2  
       3  #include "test_sve_acle.h"
       4  
       5  /*
       6  ** mul_lane_0_f16_tied1:
       7  **	fmul	z0\.h, z0\.h, z1\.h\[0\]
       8  **	ret
       9  */
      10  TEST_UNIFORM_Z (mul_lane_0_f16_tied1, svfloat16_t,
      11  		z0 = svmul_lane_f16 (z0, z1, 0),
      12  		z0 = svmul_lane (z0, z1, 0))
      13  
      14  /*
      15  ** mul_lane_0_f16_tied2:
      16  **	fmul	z0\.h, z1\.h, z0\.h\[0\]
      17  **	ret
      18  */
      19  TEST_UNIFORM_Z (mul_lane_0_f16_tied2, svfloat16_t,
      20  		z0 = svmul_lane_f16 (z1, z0, 0),
      21  		z0 = svmul_lane (z1, z0, 0))
      22  
      23  /*
      24  ** mul_lane_0_f16_untied:
      25  **	fmul	z0\.h, z1\.h, z2\.h\[0\]
      26  **	ret
      27  */
      28  TEST_UNIFORM_Z (mul_lane_0_f16_untied, svfloat16_t,
      29  		z0 = svmul_lane_f16 (z1, z2, 0),
      30  		z0 = svmul_lane (z1, z2, 0))
      31  
      32  /*
      33  ** mul_lane_1_f16:
      34  **	fmul	z0\.h, z1\.h, z2\.h\[1\]
      35  **	ret
      36  */
      37  TEST_UNIFORM_Z (mul_lane_1_f16, svfloat16_t,
      38  		z0 = svmul_lane_f16 (z1, z2, 1),
      39  		z0 = svmul_lane (z1, z2, 1))
      40  
      41  /*
      42  ** mul_lane_2_f16:
      43  **	fmul	z0\.h, z1\.h, z2\.h\[2\]
      44  **	ret
      45  */
      46  TEST_UNIFORM_Z (mul_lane_2_f16, svfloat16_t,
      47  		z0 = svmul_lane_f16 (z1, z2, 2),
      48  		z0 = svmul_lane (z1, z2, 2))
      49  
      50  /*
      51  ** mul_lane_3_f16:
      52  **	fmul	z0\.h, z1\.h, z2\.h\[3\]
      53  **	ret
      54  */
      55  TEST_UNIFORM_Z (mul_lane_3_f16, svfloat16_t,
      56  		z0 = svmul_lane_f16 (z1, z2, 3),
      57  		z0 = svmul_lane (z1, z2, 3))
      58  
      59  /*
      60  ** mul_lane_4_f16:
      61  **	fmul	z0\.h, z1\.h, z2\.h\[4\]
      62  **	ret
      63  */
      64  TEST_UNIFORM_Z (mul_lane_4_f16, svfloat16_t,
      65  		z0 = svmul_lane_f16 (z1, z2, 4),
      66  		z0 = svmul_lane (z1, z2, 4))
      67  
      68  /*
      69  ** mul_lane_5_f16:
      70  **	fmul	z0\.h, z1\.h, z2\.h\[5\]
      71  **	ret
      72  */
      73  TEST_UNIFORM_Z (mul_lane_5_f16, svfloat16_t,
      74  		z0 = svmul_lane_f16 (z1, z2, 5),
      75  		z0 = svmul_lane (z1, z2, 5))
      76  
      77  /*
      78  ** mul_lane_6_f16:
      79  **	fmul	z0\.h, z1\.h, z2\.h\[6\]
      80  **	ret
      81  */
      82  TEST_UNIFORM_Z (mul_lane_6_f16, svfloat16_t,
      83  		z0 = svmul_lane_f16 (z1, z2, 6),
      84  		z0 = svmul_lane (z1, z2, 6))
      85  
      86  /*
      87  ** mul_lane_7_f16:
      88  **	fmul	z0\.h, z1\.h, z2\.h\[7\]
      89  **	ret
      90  */
      91  TEST_UNIFORM_Z (mul_lane_7_f16, svfloat16_t,
      92  		z0 = svmul_lane_f16 (z1, z2, 7),
      93  		z0 = svmul_lane (z1, z2, 7))
      94  
      95  /*
      96  ** mul_lane_z7_f16:
      97  **	fmul	z0\.h, z1\.h, z7\.h\[7\]
      98  **	ret
      99  */
     100  TEST_DUAL_Z (mul_lane_z7_f16, svfloat16_t, svfloat16_t,
     101  	     z0 = svmul_lane_f16 (z1, z7, 7),
     102  	     z0 = svmul_lane (z1, z7, 7))
     103  
     104  /*
     105  ** mul_lane_z8_f16:
     106  **	str	d8, \[sp, -16\]!
     107  **	mov	(z[0-7])\.d, z8\.d
     108  **	fmul	z0\.h, z1\.h, \1\.h\[7\]
     109  **	ldr	d8, \[sp\], 16
     110  **	ret
     111  */
     112  TEST_DUAL_LANE_REG (mul_lane_z8_f16, svfloat16_t, svfloat16_t, z8,
     113  		    z0 = svmul_lane_f16 (z1, z8, 7),
     114  		    z0 = svmul_lane (z1, z8, 7))