/glibc-2.36/sysdeps/x86_64/fpu/multiarch/ |
D | svml_s_atanhf8_core_avx2.S | 58 vsubps %ymm3, %ymm5, %ymm1 61 vrcpps %ymm1, %ymm7 62 vsubps %ymm1, %ymm5, %ymm9 67 vfnmadd213ps %ymm5, %ymm6, %ymm1 70 vfnmadd231ps %ymm6, %ymm7, %ymm1 98 vfmadd213ps %ymm1, %ymm1, %ymm1 118 vmulps %ymm1, %ymm4, %ymm6 119 vfmadd213ps %ymm2, %ymm2, %ymm1 120 vaddps %ymm1, %ymm6, %ymm1 126 vaddps %ymm1, %ymm4, %ymm2 [all …]
|
D | svml_s_tanhf8_core_avx2.S | 94 vpsrld $14, %ymm2, %ymm1 117 vextracti128 $1, %ymm1, %xmm2 131 vinsertf128 $1, 16(%rsi, %rax), %ymm1, %ymm1 138 vunpcklpd %ymm1, %ymm5, %ymm3 139 vunpckhpd %ymm1, %ymm5, %ymm1 155 vfmadd213pd %ymm3, %ymm5, %ymm1 177 vfmadd213pd %ymm4, %ymm5, %ymm1 178 vfmadd213pd %ymm7, %ymm5, %ymm1 181 vcvtpd2ps %ymm1, %xmm1 182 vinsertf128 $1, %xmm2, %ymm1, %ymm1 [all …]
|
D | svml_d_pow4_core_avx2.S | 98 vmovapd %ymm1, %ymm11 99 vxorpd %ymm1, %ymm1, %ymm1 127 vgatherdpd %ymm2, 11712(%rax,%xmm9), %ymm1 144 vmulpd %ymm1, %ymm13, %ymm6 152 vfmsub213pd %ymm6, %ymm1, %ymm9 155 vfmadd213pd %ymm9, %ymm1, %ymm3 158 vaddpd %ymm2, %ymm8, %ymm1 161 vaddpd %ymm13, %ymm1, %ymm8 164 vsubpd %ymm8, %ymm1, %ymm6 167 vaddpd %ymm6, %ymm13, %ymm1 [all …]
|
D | svml_s_asinhf8_core_avx2.S | 69 vmovups sTopMask8+__svml_sasinh_data_internal(%rip), %ymm1 82 vandps %ymm1, %ymm13, %ymm2 145 vandps %ymm1, %ymm0, %ymm10 181 vmulps %ymm12, %ymm11, %ymm1 185 vfmadd213ps %ymm14, %ymm13, %ymm1 186 vaddps %ymm0, %ymm1, %ymm2 191 vaddps %ymm10, %ymm1, %ymm1 226 vblendvps %ymm11, %ymm10, %ymm1, %ymm12 227 vsubps %ymm14, %ymm6, %ymm1 232 vaddps %ymm1, %ymm2, %ymm13 [all …]
|
D | svml_s_log2f8_core_avx2.S | 56 vpsubd %ymm4, %ymm0, %ymm1 59 vpand iOffExpoMask+__svml_slog2_data_internal(%rip), %ymm1, %ymm3 60 vpsrad $23, %ymm1, %ymm2 61 vmovups sPoly+__svml_slog2_data_internal(%rip), %ymm1 65 vfmadd213ps sPoly+32+__svml_slog2_data_internal(%rip), %ymm13, %ymm1 70 vfmadd213ps %ymm9, %ymm11, %ymm1 71 vfmadd213ps %ymm10, %ymm11, %ymm1 72 vfmadd213ps %ymm12, %ymm11, %ymm1 73 vfmadd213ps sPoly+256+__svml_slog2_data_internal(%rip), %ymm13, %ymm1 78 vfmadd213ps %ymm14, %ymm13, %ymm1 [all …]
|
D | svml_s_powf8_core_avx2.S | 104 vmovdqa %ymm1, %ymm9 119 vcvtps2pd %xmm9, %ymm1 179 vmulpd %ymm1, %ymm11, %ymm10 185 vsubpd __dbHALF(%rdx), %ymm15, %ymm1 187 vaddpd __dbShifter(%rdx), %ymm1, %ymm14 189 vmovups (%rax), %ymm1 194 vpermps %ymm10, %ymm1, %ymm3 195 vpermps %ymm2, %ymm1, %ymm10 197 vpcmpgtd _INF(%rdx), %ymm8, %ymm1 201 vpor %ymm8, %ymm1, %ymm1 [all …]
|
D | svml_d_sin4_core_avx2.S | 59 vsubpd %ymm5, %ymm6, %ymm1 66 vfnmadd231pd %ymm1, %ymm7, %ymm0 70 vfnmadd231pd __dPI2_FMA(%rax), %ymm1, %ymm0 73 vfnmadd132pd __dPI3_FMA(%rax), %ymm0, %ymm1 79 vmulpd %ymm1, %ymm1, %ymm0 82 vxorpd %ymm5, %ymm1, %ymm6 83 vmovupd __dC7_sin(%rax), %ymm1 84 vfmadd213pd __dC6_sin(%rax), %ymm0, %ymm1 85 vfmadd213pd __dC5_sin(%rax), %ymm0, %ymm1 86 vfmadd213pd __dC4_sin(%rax), %ymm0, %ymm1 [all …]
|
D | svml_s_sincosf8_core_avx2.S | 63 vmovups __sInvPI(%rax), %ymm1 72 vfmadd213ps __sRShifter(%rax), %ymm4, %ymm1 75 vpslld $31, %ymm1, %ymm0 78 vsubps __sRShifter(%rax), %ymm1, %ymm1 83 vfnmadd231ps %ymm1, %ymm13, %ymm7 84 vfnmadd231ps __sPI2_FMA(%rax), %ymm1, %ymm7 89 vaddps %ymm6, %ymm1, %ymm6 95 vfnmadd213ps %ymm7, %ymm13, %ymm1 102 vxorps %ymm0, %ymm1, %ymm15 107 vmulps %ymm3, %ymm3, %ymm1 [all …]
|
D | svml_s_log10f8_core_avx2.S | 60 vpsubd %ymm4, %ymm0, %ymm1 63 vpand iOffExpoMask+__svml_slog10_data_internal(%rip), %ymm1, %ymm3 64 vpsrad $23, %ymm1, %ymm2 66 vcvtdq2ps %ymm2, %ymm1 68 vmulps L2L+__svml_slog10_data_internal(%rip), %ymm1, %ymm14 83 vfmadd132ps L2H+__svml_slog10_data_internal(%rip), %ymm15, %ymm1 88 # LOE rbx r12 r13 r14 r15 edx ymm0 ymm1 95 vmovaps %ymm1, %ymm0 110 vmovups %ymm1, 64(%rsp) 111 # LOE rbx r12 r13 r14 r15 edx ymm1 [all …]
|
D | svml_s_exp2f8_core_avx2.S | 68 vmovups __svml_sexp2_data_internal(%rip), %ymm1 74 vaddps %ymm1, %ymm0, %ymm6 75 vsubps %ymm1, %ymm6, %ymm4 97 vpaddd %ymm8, %ymm7, %ymm1 102 # LOE rbx r12 r13 r14 r15 edx ymm0 ymm1 109 vmovaps %ymm1, %ymm0 124 vmovups %ymm1, 64(%rsp) 125 # LOE rbx r12 r13 r14 r15 edx ymm1 173 vmovups 64(%rsp), %ymm1 183 # LOE rbx r12 r13 r14 r15 ymm1
|
D | svml_s_tanf8_core_avx2.S | 118 vandps %ymm10, %ymm12, %ymm1 119 vfmadd213ps %ymm2, %ymm1, %ymm5 125 vfnmadd213ps %ymm1, %ymm8, %ymm3 151 vcmpnle_uqps _sRangeReductionVal+__svml_stan_data_internal(%rip), %ymm1, %ymm10 168 # LOE r12 r13 r14 r15 eax ymm0 ymm1 ymm10 ymm11 ymm12 281 vpand .FLT_16(%rip), %ymm1, %ymm5 349 vpand .FLT_17(%rip), %ymm1, %ymm7 425 vpand .FLT_20(%rip), %ymm1, %ymm3 501 vandps .FLT_29(%rip), %ymm1, %ymm0 517 vandps %ymm1, %ymm5, %ymm1 [all …]
|
D | svml_s_asinf8_core_avx2.S | 69 vminps %ymm12, %ymm7, %ymm1 74 vmulps %ymm1, %ymm1, %ymm6 76 vfmadd213ps poly_coeff+96+__svml_sasin_data_internal(%rip), %ymm1, %ymm7 83 vfmadd213ps poly_coeff+32+__svml_sasin_data_internal(%rip), %ymm1, %ymm8 90 vfmadd213ps poly_coeff+128+__svml_sasin_data_internal(%rip), %ymm1, %ymm8 92 vmulps %ymm8, %ymm1, %ymm1 94 vfmadd213ps %ymm3, %ymm3, %ymm1 96 vaddps %ymm1, %ymm0, %ymm10
|
D | svml_d_log4_core_avx2.S | 58 vcmpnle_uqpd _MaxNorm(%rax), %ymm5, %ymm1 69 vorpd %ymm1, %ymm7, %ymm3 70 vmovupd _One(%rax), %ymm1 77 vfmsub213pd %ymm1, %ymm2, %ymm4 80 vxorpd %ymm1, %ymm1, %ymm1 81 vgatherqpd %ymm6, _LogRcp_lookup(%rax,%ymm3), %ymm1 106 vaddpd %ymm1, %ymm6, %ymm4
|
D | svml_d_exp104_core_avx2.S | 79 vsubpd %ymm3, %ymm0, %ymm1 83 vfnmadd213pd %ymm2, %ymm1, %ymm3 87 vfnmadd132pd _dbInvLg2_10lo+__svml_dexp10_data_internal(%rip), %ymm3, %ymm1 98 vfmadd213pd _dPC4+__svml_dexp10_data_internal(%rip), %ymm1, %ymm4 99 vfmadd213pd _dPC3+__svml_dexp10_data_internal(%rip), %ymm1, %ymm4 100 vfmadd213pd _dPC2+__svml_dexp10_data_internal(%rip), %ymm1, %ymm4 103 vfmadd213pd _dPC1+__svml_dexp10_data_internal(%rip), %ymm1, %ymm4 106 vmulpd %ymm4, %ymm1, %ymm1 136 vfmadd213pd %ymm5, %ymm5, %ymm1 139 vpaddq %ymm6, %ymm1, %ymm0
|
D | svml_s_erfcf8_core_avx2.S | 65 vmovups _SRound+__svml_serfc_data_internal(%rip), %ymm1 75 vaddps %ymm1, %ymm4, %ymm8 77 vsubps %ymm1, %ymm8, %ymm12 89 vmulps %ymm0, %ymm12, %ymm1 90 vfmadd213ps _poly1_1+__svml_serfc_data_internal(%rip), %ymm1, %ymm3 91 vfmadd213ps _poly3_1+__svml_serfc_data_internal(%rip), %ymm1, %ymm2 92 vfmadd213ps _poly1_2+__svml_serfc_data_internal(%rip), %ymm1, %ymm3 96 vfmadd213ps _poly1_3+__svml_serfc_data_internal(%rip), %ymm1, %ymm3 138 vfmadd213ps %ymm2, %ymm1, %ymm3 141 vcmplt_oqps _UF_Threshold+__svml_serfc_data_internal(%rip), %ymm6, %ymm1 [all …]
|
D | svml_s_expf8_core_avx2.S | 57 vmovups __sPC5(%rax), %ymm1 80 vfmadd213ps __sPC4(%rax), %ymm0, %ymm1 83 vfmadd213ps __sPC3(%rax), %ymm0, %ymm1 86 vfmadd213ps __sPC2(%rax), %ymm0, %ymm1 89 vfmadd213ps __sPC1(%rax), %ymm0, %ymm1 92 vfmadd213ps __sPC0(%rax), %ymm0, %ymm1 101 vmulps %ymm1, %ymm6, %ymm0
|
/glibc-2.36/sysdeps/x86_64/multiarch/ |
D | memrchr-avx2.S | 61 vpcmpeqb -(VEC_SIZE - 1)(%rax), %ymm0, %ymm1 62 vpmovmskb %ymm1, %ecx 102 vpcmpeqb -(VEC_SIZE)(%rax), %ymm0, %ymm1 105 vpmovmskb %ymm1, %ecx 116 vpcmpeqb -(VEC_SIZE * 2 - 1)(%rax), %ymm0, %ymm1 117 vpmovmskb %ymm1, %ecx 134 vpcmpeqb (%rsi), %ymm0, %ymm1 135 vpmovmskb %ymm1, %ecx 161 vpcmpeqb -(VEC_SIZE * 2 - 1)(%rax), %ymm0, %ymm1 162 vpmovmskb %ymm1, %ecx [all …]
|
D | memcmpeq-avx2.S | 67 vmovdqu (%rsi), %ymm1 68 VPCMPEQ (%rdi), %ymm1, %ymm1 69 vpmovmskb %ymm1, %eax 112 vmovdqu -(VEC_SIZE * 4)(%rsi), %ymm1 116 VPCMPEQ -(VEC_SIZE * 4)(%rdi), %ymm1, %ymm1 125 vpand %ymm1, %ymm2, %ymm2 179 vmovdqu -(VEC_SIZE * 1)(%rsi, %rdx), %ymm1 180 VPCMPEQ -(VEC_SIZE * 1)(%rdi, %rdx), %ymm1, %ymm1 181 vpmovmskb %ymm1, %eax 187 vmovdqu -(VEC_SIZE * 2)(%rsi, %rdx), %ymm1 [all …]
|
D | memchr-avx2.S | 82 VPCMPEQ (%rdi), %ymm0, %ymm1 83 vpmovmskb %ymm1, %eax 175 VPCMPEQ 1(%rdi), %ymm0, %ymm1 176 vpmovmskb %ymm1, %eax 185 VPCMPEQ (VEC_SIZE + 1)(%rdi), %ymm0, %ymm1 186 vpmovmskb %ymm1, %eax 190 VPCMPEQ (VEC_SIZE * 2 + 1)(%rdi), %ymm0, %ymm1 191 vpmovmskb %ymm1, %eax 195 VPCMPEQ (VEC_SIZE * 3 + 1)(%rdi), %ymm0, %ymm1 196 vpmovmskb %ymm1, %eax [all …]
|
D | strlen-avx2.S | 76 VPCMPEQ (%rdi), %ymm0, %ymm1 77 vpmovmskb %ymm1, %eax 236 VPCMPEQ 1(%rdi), %ymm0, %ymm1 242 vpmovmskb %ymm1, %eax 246 VPCMPEQ (VEC_SIZE + 1)(%rdi), %ymm0, %ymm1 247 vpmovmskb %ymm1, %eax 251 VPCMPEQ (VEC_SIZE * 2 + 1)(%rdi), %ymm0, %ymm1 252 vpmovmskb %ymm1, %eax 256 VPCMPEQ (VEC_SIZE * 3 + 1)(%rdi), %ymm0, %ymm1 257 vpmovmskb %ymm1, %eax [all …]
|
D | strcmp-avx2.S | 287 CMP_R1_S2_ymm (%ymm0, (%rsi), %ymm2, %ymm1) 291 vpandn %ymm1, %ymm2, %ymm1 294 vpmovmskb %ymm1, %ecx 457 CMP_R1_S2_ymm (%ymm0, VEC_SIZE(%rsi), %ymm2, %ymm1) 459 vpandn %ymm1, %ymm2, %ymm1 460 vpmovmskb %ymm1, %ecx 470 CMP_R1_S2_ymm (%ymm0, (VEC_SIZE * 2)(%rsi), %ymm2, %ymm1) 472 vpandn %ymm1, %ymm2, %ymm1 473 vpmovmskb %ymm1, %ecx 478 CMP_R1_S2_ymm (%ymm0, (VEC_SIZE * 3)(%rsi), %ymm2, %ymm1) [all …]
|
D | memcmp-avx2-movbe.S | 84 vmovdqu (%rsi), %ymm1 85 VPCMPEQ (%rdi), %ymm1, %ymm1 86 vpmovmskb %ymm1, %eax 129 vmovdqu -(VEC_SIZE * 4)(%rsi, %rdx), %ymm1 136 VPCMPEQ (%rdi), %ymm1, %ymm1 145 vpand %ymm1, %ymm2, %ymm5 211 vpmovmskb %ymm1, %eax 252 vmovdqu (%rsi, %rdi), %ymm1 253 VPCMPEQ (%rdi), %ymm1, %ymm1 264 vpand %ymm1, %ymm2, %ymm5 [all …]
|
D | strrchr-avx2.S | 67 vmovdqu (%rdi), %ymm1 69 VPCMPEQ %ymm1, %ymm0, %ymm6 75 VPCMPEQ %ymm1, %ymm7, %ymm1 76 vpmovmskb %ymm1, %eax 105 VPCMPEQ %ymm1, %ymm7, %ymm6 268 VPMIN %ymm4, %ymm5, %ymm1 271 VPCMPEQ %ymm1, %ymm0, %ymm1 272 vpor %ymm5, %ymm1, %ymm9 278 vpmovmskb %ymm1, %ecx 324 vmovdqu (%rsi), %ymm1 [all …]
|
D | strcat-avx2.S | 76 vpcmpeqb (VEC_SIZE * 2)(%rax), %ymm6, %ymm1 77 vpmovmskb %ymm1, %edx 97 vpcmpeqb (VEC_SIZE * 2)(%rax), %ymm6, %ymm1 98 vpmovmskb %ymm1, %edx 118 vpcmpeqb (VEC_SIZE * 2)(%rax), %ymm6, %ymm1 119 vpmovmskb %ymm1, %edx 139 vpcmpeqb (VEC_SIZE * 2)(%rax), %ymm6, %ymm1 140 vpmovmskb %ymm1, %edx 166 vpcmpeqb VEC_SIZE(%rax), %ymm6, %ymm1 168 vpmovmskb %ymm1, %edx [all …]
|
D | strchr-avx2.S | 69 VPCMPEQ %ymm2, %ymm1, %ymm2 163 VPCMPEQ %ymm2, %ymm1, %ymm2 171 VPCMPEQ %ymm2, %ymm1, %ymm2 179 VPCMPEQ %ymm2, %ymm1, %ymm2 187 VPCMPEQ %ymm2, %ymm1, %ymm2 222 VPCMPEQ %ymm7, %ymm1, %ymm7 228 VPCMPEQ %ymm2, %ymm1, %ymm2 234 VPCMPEQ %ymm3, %ymm1, %ymm3 239 VPCMPEQ %ymm4, %ymm1, %ymm4 296 VPCMPEQ %ymm2, %ymm1, %ymm2
|