/freebsd-current/contrib/llvm-project/clang/lib/Headers/ |
H A D | avx512vlintrin.h | 233 _mm256_mask_add_epi32(__m256i __W, __mmask8 __U, __m256i __A, __m256i __B) 235 return (__m256i)__builtin_ia32_selectd_256((__mmask8)__U, 241 _mm256_maskz_add_epi32(__mmask8 __U, __m256i __A, __m256i __B) 243 return (__m256i)__builtin_ia32_selectd_256((__mmask8)__U, 249 _mm256_mask_add_epi64(__m256i __W, __mmask8 __U, __m256i __A, __m256i __B) 251 return (__m256i)__builtin_ia32_selectq_256((__mmask8)__U, 257 _mm256_maskz_add_epi64(__mmask8 __U, __m256i __A, __m256i __B) 259 return (__m256i)__builtin_ia32_selectq_256((__mmask8)__U, 265 _mm256_mask_sub_epi32(__m256i __W, __mmask8 __U, __m256i __A, __m256i __B) 267 return (__m256i)__builtin_ia32_selectd_256((__mmask8)__ [all...] |
H A D | avx512vldqintrin.h | 33 _mm256_mask_mullo_epi64(__m256i __W, __mmask8 __U, __m256i __A, __m256i __B) { 34 return (__m256i)__builtin_ia32_selectq_256((__mmask8)__U, 40 _mm256_maskz_mullo_epi64(__mmask8 __U, __m256i __A, __m256i __B) { 41 return (__m256i)__builtin_ia32_selectq_256((__mmask8)__U, 52 _mm_mask_mullo_epi64(__m128i __W, __mmask8 __U, __m128i __A, __m128i __B) { 53 return (__m128i)__builtin_ia32_selectq_128((__mmask8)__U, 59 _mm_maskz_mullo_epi64(__mmask8 __U, __m128i __A, __m128i __B) { 60 return (__m128i)__builtin_ia32_selectq_128((__mmask8)__U, 66 _mm256_mask_andnot_pd(__m256d __W, __mmask8 __U, __m256d __A, __m256d __B) { 67 return (__m256d)__builtin_ia32_selectpd_256((__mmask8)__ [all...] |
H A D | avx512dqintrin.h | 23 static __inline __mmask8 __DEFAULT_FN_ATTRS 24 _knot_mask8(__mmask8 __M) 29 static __inline__ __mmask8 __DEFAULT_FN_ATTRS 30 _kand_mask8(__mmask8 __A, __mmask8 __B) 32 return (__mmask8)__builtin_ia32_kandqi((__mmask8)__A, (__mmask8)__B); 35 static __inline__ __mmask8 __DEFAULT_FN_ATTRS 36 _kandn_mask8(__mmask8 __ [all...] |
H A D | avx512vlcdintrin.h | 27 _mm_broadcastmb_epi64 (__mmask8 __A) 33 _mm256_broadcastmb_epi64 (__mmask8 __A) 58 _mm_mask_conflict_epi64 (__m128i __W, __mmask8 __U, __m128i __A) 60 return (__m128i)__builtin_ia32_selectq_128((__mmask8)__U, 66 _mm_maskz_conflict_epi64 (__mmask8 __U, __m128i __A) 68 return (__m128i)__builtin_ia32_selectq_128((__mmask8)__U, 80 _mm256_mask_conflict_epi64 (__m256i __W, __mmask8 __U, __m256i __A) 82 return (__m256i)__builtin_ia32_selectq_256((__mmask8)__U, 88 _mm256_maskz_conflict_epi64 (__mmask8 __U, __m256i __A) 90 return (__m256i)__builtin_ia32_selectq_256((__mmask8)__ [all...] |
H A D | avx512vlvp2intersectintrin.h | 56 _mm256_2intersect_epi32(__m256i __a, __m256i __b, __mmask8 *__m0, __mmask8 *__m1) { 76 _mm256_2intersect_epi64(__m256i __a, __m256i __b, __mmask8 *__m0, __mmask8 *__m1) { 96 _mm_2intersect_epi32(__m128i __a, __m128i __b, __mmask8 *__m0, __mmask8 *__m1) { 116 _mm_2intersect_epi64(__m128i __a, __m128i __b, __mmask8 *__m0, __mmask8 *__m1) {
|
H A D | avx512vlbf16intrin.h | 63 _mm_mask_cvtne2ps_pbh(__m128bh __W, __mmask8 __U, __m128 __A, __m128 __B) { 64 return (__m128bh)__builtin_ia32_selectpbf_128((__mmask8)__U, 85 _mm_maskz_cvtne2ps_pbh(__mmask8 __U, __m128 __A, __m128 __B) { 86 return (__m128bh)__builtin_ia32_selectpbf_128((__mmask8)__U, 184 _mm_mask_cvtneps_pbh(__m128bh __W, __mmask8 __U, __m128 __A) { 187 (__mmask8)__U); 204 _mm_maskz_cvtneps_pbh(__mmask8 __U, __m128 __A) { 207 (__mmask8)__U); 237 _mm256_mask_cvtneps_pbh(__m128bh __W, __mmask8 __U, __m256 __A) { 240 (__mmask8)__ [all...] |
H A D | avx512vpopcntdqvlintrin.h | 34 _mm_mask_popcnt_epi64(__m128i __W, __mmask8 __U, __m128i __A) { 36 (__mmask8)__U, (__v2di)_mm_popcnt_epi64(__A), (__v2di)__W); 40 _mm_maskz_popcnt_epi64(__mmask8 __U, __m128i __A) { 50 _mm_mask_popcnt_epi32(__m128i __W, __mmask8 __U, __m128i __A) { 52 (__mmask8)__U, (__v4si)_mm_popcnt_epi32(__A), (__v4si)__W); 56 _mm_maskz_popcnt_epi32(__mmask8 __U, __m128i __A) { 66 _mm256_mask_popcnt_epi64(__m256i __W, __mmask8 __U, __m256i __A) { 68 (__mmask8)__U, (__v4di)_mm256_popcnt_epi64(__A), (__v4di)__W); 72 _mm256_maskz_popcnt_epi64(__mmask8 __U, __m256i __A) { 82 _mm256_mask_popcnt_epi32(__m256i __W, __mmask8 __ [all...] |
H A D | avx512vlfp16intrin.h | 107 __mmask8 __U, 114 static __inline__ __m128h __DEFAULT_FN_ATTRS128 _mm_maskz_add_ph(__mmask8 __U, 144 __mmask8 __U, 151 static __inline__ __m128h __DEFAULT_FN_ATTRS128 _mm_maskz_sub_ph(__mmask8 __U, 181 __mmask8 __U, 188 static __inline__ __m128h __DEFAULT_FN_ATTRS128 _mm_maskz_mul_ph(__mmask8 __U, 218 __mmask8 __U, 225 static __inline__ __m128h __DEFAULT_FN_ATTRS128 _mm_maskz_div_ph(__mmask8 __U, 259 __mmask8 __U, 263 (__mmask8)__ [all...] |
H A D | avx512cdintrin.h | 29 _mm512_mask_conflict_epi64 (__m512i __W, __mmask8 __U, __m512i __A) 31 return (__m512i)__builtin_ia32_selectq_512((__mmask8)__U, 37 _mm512_maskz_conflict_epi64 (__mmask8 __U, __m512i __A) 39 return (__m512i)__builtin_ia32_selectq_512((__mmask8)__U, 95 _mm512_mask_lzcnt_epi64 (__m512i __W, __mmask8 __U, __m512i __A) 97 return (__m512i)__builtin_ia32_selectq_512((__mmask8)__U, 103 _mm512_maskz_lzcnt_epi64 (__mmask8 __U, __m512i __A) 105 return (__m512i)__builtin_ia32_selectq_512((__mmask8)__U, 111 _mm512_broadcastmb_epi64 (__mmask8 __A)
|
H A D | avx512pfintrin.h | 18 __builtin_ia32_gatherpfdpd((__mmask8)(mask), (__v8si)(__m256i)(index), \ 23 __builtin_ia32_gatherpfdpd((__mmask8) -1, (__v8si)(__m256i)(index), \ 38 __builtin_ia32_gatherpfqpd((__mmask8)(mask), (__v8di)(__m512i)(index), \ 43 __builtin_ia32_gatherpfqpd((__mmask8) -1, (__v8di)(__m512i)(index), \ 48 __builtin_ia32_gatherpfqps((__mmask8)(mask), (__v8di)(__m512i)(index), \ 52 __builtin_ia32_gatherpfqps((__mmask8) -1, (__v8di)(__m512i)(index), \ 56 __builtin_ia32_scatterpfdpd((__mmask8)-1, (__v8si)(__m256i)(index), \ 61 __builtin_ia32_scatterpfdpd((__mmask8)(mask), (__v8si)(__m256i)(index), \ 75 __builtin_ia32_scatterpfqpd((__mmask8)-1, (__v8di)(__m512i)(index), \ 80 __builtin_ia32_scatterpfqpd((__mmask8)(mas [all...] |
H A D | avx512vp2intersectintrin.h | 72 _mm512_2intersect_epi64(__m512i __a, __m512i __b, __mmask8 *__m0, __mmask8 *__m1) {
|
H A D | avx512vlvnniintrin.h | 180 _mm256_mask_dpbusd_epi32(__m256i __S, __mmask8 __U, __m256i __A, __m256i __B) 188 _mm256_maskz_dpbusd_epi32(__mmask8 __U, __m256i __S, __m256i __A, __m256i __B) 196 _mm256_mask_dpbusds_epi32(__m256i __S, __mmask8 __U, __m256i __A, __m256i __B) 204 _mm256_maskz_dpbusds_epi32(__mmask8 __U, __m256i __S, __m256i __A, __m256i __B) 212 _mm256_mask_dpwssd_epi32(__m256i __S, __mmask8 __U, __m256i __A, __m256i __B) 220 _mm256_maskz_dpwssd_epi32(__mmask8 __U, __m256i __S, __m256i __A, __m256i __B) 228 _mm256_mask_dpwssds_epi32(__m256i __S, __mmask8 __U, __m256i __A, __m256i __B) 236 _mm256_maskz_dpwssds_epi32(__mmask8 __U, __m256i __S, __m256i __A, __m256i __B) 244 _mm_mask_dpbusd_epi32(__m128i __S, __mmask8 __U, __m128i __A, __m128i __B) 252 _mm_maskz_dpbusd_epi32(__mmask8 __ [all...] |
H A D | avx512fintrin.h | 41 typedef unsigned char __mmask8; typedef 243 _mm512_mask_broadcastq_epi64 (__m512i __O, __mmask8 __M, __m128i __A) 252 _mm512_maskz_broadcastq_epi64 (__mmask8 __M, __m128i __A) 335 _mm512_maskz_set1_epi64(__mmask8 __M, long long __A) 671 _mm512_mask_and_epi64(__m512i __src, __mmask8 __k, __m512i __a, __m512i __b) 673 return (__m512i) __builtin_ia32_selectq_512 ((__mmask8) __k, 679 _mm512_maskz_and_epi64(__mmask8 __k, __m512i __a, __m512i __b) 719 _mm512_mask_andnot_epi64(__m512i __W, __mmask8 __U, __m512i __A, __m512i __B) 721 return (__m512i)__builtin_ia32_selectq_512((__mmask8)__U, 727 _mm512_maskz_andnot_epi64(__mmask8 __ [all...] |
H A D | avx512fp16intrin.h | 579 __mmask8 __U, 586 static __inline__ __m128h __DEFAULT_FN_ATTRS128 _mm_maskz_add_sh(__mmask8 __U, 596 (__mmask8)-1, (int)(R))) 601 (__mmask8)(U), (int)(R))) 606 (__mmask8)(U), (int)(R))) 615 __mmask8 __U, 622 static __inline__ __m128h __DEFAULT_FN_ATTRS128 _mm_maskz_sub_sh(__mmask8 __U, 632 (__mmask8)-1, (int)(R))) 637 (__mmask8)(U), (int)(R))) 642 (__mmask8)( [all...] |
H A D | avx512ifmavlintrin.h | 44 _mm_mask_madd52hi_epu64 (__m128i __W, __mmask8 __M, __m128i __X, __m128i __Y) 52 _mm_maskz_madd52hi_epu64 (__mmask8 __M, __m128i __X, __m128i __Y, __m128i __Z) 60 _mm256_mask_madd52hi_epu64 (__m256i __W, __mmask8 __M, __m256i __X, __m256i __Y) 68 _mm256_maskz_madd52hi_epu64 (__mmask8 __M, __m256i __X, __m256i __Y, __m256i __Z) 76 _mm_mask_madd52lo_epu64 (__m128i __W, __mmask8 __M, __m128i __X, __m128i __Y) 84 _mm_maskz_madd52lo_epu64 (__mmask8 __M, __m128i __X, __m128i __Y, __m128i __Z) 92 _mm256_mask_madd52lo_epu64 (__m256i __W, __mmask8 __M, __m256i __X, __m256i __Y) 100 _mm256_maskz_madd52lo_epu64 (__mmask8 __M, __m256i __X, __m256i __Y, __m256i __Z)
|
H A D | avx512vlbwintrin.h | 70 ((__mmask8)__builtin_ia32_cmpw128_mask((__v8hi)(__m128i)(a), \ 72 (__mmask8)-1)) 75 ((__mmask8)__builtin_ia32_cmpw128_mask((__v8hi)(__m128i)(a), \ 77 (__mmask8)(m))) 80 ((__mmask8)__builtin_ia32_ucmpw128_mask((__v8hi)(__m128i)(a), \ 82 (__mmask8)-1)) 85 ((__mmask8)__builtin_ia32_ucmpw128_mask((__v8hi)(__m128i)(a), \ 87 (__mmask8)(m))) 380 _mm_mask_add_epi16(__m128i __W, __mmask8 __U, __m128i __A, __m128i __B) { 381 return (__m128i)__builtin_ia32_selectw_128((__mmask8)__ [all...] |
H A D | avx512ifmaintrin.h | 30 _mm512_mask_madd52hi_epu64 (__m512i __W, __mmask8 __M, __m512i __X, __m512i __Y) 38 _mm512_maskz_madd52hi_epu64 (__mmask8 __M, __m512i __X, __m512i __Y, __m512i __Z) 53 _mm512_mask_madd52lo_epu64 (__m512i __W, __mmask8 __M, __m512i __X, __m512i __Y) 61 _mm512_maskz_madd52lo_epu64 (__mmask8 __M, __m512i __X, __m512i __Y, __m512i __Z)
|
H A D | avx512vpopcntdqintrin.h | 29 _mm512_mask_popcnt_epi64(__m512i __W, __mmask8 __U, __m512i __A) { 31 (__mmask8)__U, (__v8di)_mm512_popcnt_epi64(__A), (__v8di)__W); 35 _mm512_maskz_popcnt_epi64(__mmask8 __U, __m512i __A) {
|
H A D | avx512erintrin.h | 20 (__mmask8)-1, (int)(R))) 24 (__v8df)(__m512d)(S), (__mmask8)(M), \ 30 (__mmask8)(M), (int)(R))) 69 (__mmask8)-1, (int)(R))) 73 (__v8df)(__m512d)(S), (__mmask8)(M), \ 79 (__mmask8)(M), (int)(R))) 118 (__mmask8)-1, (int)(R))) 124 (__mmask8)(M), (int)(R))) 130 (__mmask8)(M), (int)(R))) 145 (__mmask8) [all...] |
H A D | avx512vlvbmi2intrin.h | 28 _mm_mask_compress_epi16(__m128i __S, __mmask8 __U, __m128i __D) 36 _mm_maskz_compress_epi16(__mmask8 __U, __m128i __D) 60 _mm_mask_compressstoreu_epi16(void *__P, __mmask8 __U, __m128i __D) 74 _mm_mask_expand_epi16(__m128i __S, __mmask8 __U, __m128i __D) 82 _mm_maskz_expand_epi16(__mmask8 __U, __m128i __D) 106 _mm_mask_expandloadu_epi16(__m128i __S, __mmask8 __U, void const *__P) 114 _mm_maskz_expandloadu_epi16(__mmask8 __U, void const *__P) 252 ((__m256i)__builtin_ia32_selectq_256((__mmask8)(U), \ 257 ((__m256i)__builtin_ia32_selectq_256((__mmask8)(U), \ 266 ((__m128i)__builtin_ia32_selectq_128((__mmask8)( [all...] |
H A D | avx512vlbitalgintrin.h | 56 _mm_mask_popcnt_epi16(__m128i __A, __mmask8 __U, __m128i __B) 58 return (__m128i) __builtin_ia32_selectw_128((__mmask8) __U, 64 _mm_maskz_popcnt_epi16(__mmask8 __U, __m128i __B)
|
H A D | avx512vbmi2intrin.h | 136 ((__m512i)__builtin_ia32_selectq_512((__mmask8)(U), \ 141 ((__m512i)__builtin_ia32_selectq_512((__mmask8)(U), \ 178 ((__m512i)__builtin_ia32_selectq_512((__mmask8)(U), \ 183 ((__m512i)__builtin_ia32_selectq_512((__mmask8)(U), \ 223 _mm512_mask_shldv_epi64(__m512i __A, __mmask8 __U, __m512i __B, __m512i __C) 231 _mm512_maskz_shldv_epi64(__mmask8 __U, __m512i __A, __m512i __B, __m512i __C) 292 _mm512_mask_shrdv_epi64(__m512i __A, __mmask8 __U, __m512i __B, __m512i __C) 300 _mm512_maskz_shrdv_epi64(__mmask8 __U, __m512i __A, __m512i __B, __m512i __C)
|
/freebsd-current/contrib/llvm-project/llvm/lib/Support/BLAKE3/ |
H A D | blake3_avx512.c | 1118 _mm256_mask_storeu_epi32(&out[0 * sizeof(__m256i)], (__mmask8)-1, _mm512_castsi512_si256(padded[0])); 1119 _mm256_mask_storeu_epi32(&out[1 * sizeof(__m256i)], (__mmask8)-1, _mm512_castsi512_si256(padded[1])); 1120 _mm256_mask_storeu_epi32(&out[2 * sizeof(__m256i)], (__mmask8)-1, _mm512_castsi512_si256(padded[2])); 1121 _mm256_mask_storeu_epi32(&out[3 * sizeof(__m256i)], (__mmask8)-1, _mm512_castsi512_si256(padded[3])); 1122 _mm256_mask_storeu_epi32(&out[4 * sizeof(__m256i)], (__mmask8)-1, _mm512_castsi512_si256(padded[4])); 1123 _mm256_mask_storeu_epi32(&out[5 * sizeof(__m256i)], (__mmask8)-1, _mm512_castsi512_si256(padded[5])); 1124 _mm256_mask_storeu_epi32(&out[6 * sizeof(__m256i)], (__mmask8)-1, _mm512_castsi512_si256(padded[6])); 1125 _mm256_mask_storeu_epi32(&out[7 * sizeof(__m256i)], (__mmask8)-1, _mm512_castsi512_si256(padded[7])); 1126 _mm256_mask_storeu_epi32(&out[8 * sizeof(__m256i)], (__mmask8)-1, _mm512_castsi512_si256(padded[8])); 1127 _mm256_mask_storeu_epi32(&out[9 * sizeof(__m256i)], (__mmask8) [all...] |