Lines Matching defs:__b

44 _mm256_add_pd(__m256d __a, __m256d __b)
46 return __a+__b;
50 _mm256_add_ps(__m256 __a, __m256 __b)
52 return __a+__b;
56 _mm256_sub_pd(__m256d __a, __m256d __b)
58 return __a-__b;
62 _mm256_sub_ps(__m256 __a, __m256 __b)
64 return __a-__b;
68 _mm256_addsub_pd(__m256d __a, __m256d __b)
70 return (__m256d)__builtin_ia32_addsubpd256((__v4df)__a, (__v4df)__b);
74 _mm256_addsub_ps(__m256 __a, __m256 __b)
76 return (__m256)__builtin_ia32_addsubps256((__v8sf)__a, (__v8sf)__b);
80 _mm256_div_pd(__m256d __a, __m256d __b)
82 return __a / __b;
86 _mm256_div_ps(__m256 __a, __m256 __b)
88 return __a / __b;
92 _mm256_max_pd(__m256d __a, __m256d __b)
94 return (__m256d)__builtin_ia32_maxpd256((__v4df)__a, (__v4df)__b);
98 _mm256_max_ps(__m256 __a, __m256 __b)
100 return (__m256)__builtin_ia32_maxps256((__v8sf)__a, (__v8sf)__b);
104 _mm256_min_pd(__m256d __a, __m256d __b)
106 return (__m256d)__builtin_ia32_minpd256((__v4df)__a, (__v4df)__b);
110 _mm256_min_ps(__m256 __a, __m256 __b)
112 return (__m256)__builtin_ia32_minps256((__v8sf)__a, (__v8sf)__b);
116 _mm256_mul_pd(__m256d __a, __m256d __b)
118 return __a * __b;
122 _mm256_mul_ps(__m256 __a, __m256 __b)
124 return __a * __b;
166 _mm256_and_pd(__m256d __a, __m256d __b)
168 return (__m256d)((__v4di)__a & (__v4di)__b);
172 _mm256_and_ps(__m256 __a, __m256 __b)
174 return (__m256)((__v8si)__a & (__v8si)__b);
178 _mm256_andnot_pd(__m256d __a, __m256d __b)
180 return (__m256d)(~(__v4di)__a & (__v4di)__b);
184 _mm256_andnot_ps(__m256 __a, __m256 __b)
186 return (__m256)(~(__v8si)__a & (__v8si)__b);
190 _mm256_or_pd(__m256d __a, __m256d __b)
192 return (__m256d)((__v4di)__a | (__v4di)__b);
196 _mm256_or_ps(__m256 __a, __m256 __b)
198 return (__m256)((__v8si)__a | (__v8si)__b);
202 _mm256_xor_pd(__m256d __a, __m256d __b)
204 return (__m256d)((__v4di)__a ^ (__v4di)__b);
208 _mm256_xor_ps(__m256 __a, __m256 __b)
210 return (__m256)((__v8si)__a ^ (__v8si)__b);
215 _mm256_hadd_pd(__m256d __a, __m256d __b)
217 return (__m256d)__builtin_ia32_haddpd256((__v4df)__a, (__v4df)__b);
221 _mm256_hadd_ps(__m256 __a, __m256 __b)
223 return (__m256)__builtin_ia32_haddps256((__v8sf)__a, (__v8sf)__b);
227 _mm256_hsub_pd(__m256d __a, __m256d __b)
229 return (__m256d)__builtin_ia32_hsubpd256((__v4df)__a, (__v4df)__b);
233 _mm256_hsub_ps(__m256 __a, __m256 __b)
235 return (__m256)__builtin_ia32_hsubps256((__v8sf)__a, (__v8sf)__b);
319 _mm256_blendv_pd(__m256d __a, __m256d __b, __m256d __c)
322 (__v4df)__a, (__v4df)__b, (__v4df)__c);
326 _mm256_blendv_ps(__m256 __a, __m256 __b, __m256 __c)
329 (__v8sf)__a, (__v8sf)__b, (__v8sf)__c);
341 __m256 __b = (b); \
342 (__m256)__builtin_shufflevector((__v8sf)__a, (__v8sf)__b, \
350 __m256d __b = (b); \
351 (__m256d)__builtin_shufflevector((__v4df)__a, (__v4df)__b, \
393 __m128d __b = (b); \
394 (__m128d)__builtin_ia32_cmppd((__v2df)__a, (__v2df)__b, (c)); })
398 __m128 __b = (b); \
399 (__m128)__builtin_ia32_cmpps((__v4sf)__a, (__v4sf)__b, (c)); })
403 __m256d __b = (b); \
404 (__m256d)__builtin_ia32_cmppd256((__v4df)__a, (__v4df)__b, (c)); })
408 __m256 __b = (b); \
409 (__m256)__builtin_ia32_cmpps256((__v8sf)__a, (__v8sf)__b, (c)); })
413 __m128d __b = (b); \
414 (__m128d)__builtin_ia32_cmpsd((__v2df)__a, (__v2df)__b, (c)); })
418 __m128 __b = (b); \
419 (__m128)__builtin_ia32_cmpss((__v4sf)__a, (__v4sf)__b, (c)); })
437 __v8si __b = (__v8si)__a;
438 return __b[__imm & 7];
444 __v16hi __b = (__v16hi)__a;
445 return __b[__imm & 15];
451 __v32qi __b = (__v32qi)__a;
452 return __b[__imm & 31];
459 __v4di __b = (__v4di)__a;
460 return __b[__imm & 3];
481 _mm256_insert_epi32(__m256i __a, int __b, int const __imm)
484 __c[__imm & 7] = __b;
489 _mm256_insert_epi16(__m256i __a, int __b, int const __imm)
492 __c[__imm & 15] = __b;
497 _mm256_insert_epi8(__m256i __a, int __b, int const __imm)
500 __c[__imm & 31] = __b;
506 _mm256_insert_epi64(__m256i __a, int __b, int const __imm)
509 __c[__imm & 3] = __b;
584 _mm256_unpackhi_pd(__m256d __a, __m256d __b)
586 return __builtin_shufflevector(__a, __b, 1, 5, 1+2, 5+2);
590 _mm256_unpacklo_pd(__m256d __a, __m256d __b)
592 return __builtin_shufflevector(__a, __b, 0, 4, 0+2, 4+2);
596 _mm256_unpackhi_ps(__m256 __a, __m256 __b)
598 return __builtin_shufflevector(__a, __b, 2, 10, 2+1, 10+1, 6, 14, 6+1, 14+1);
602 _mm256_unpacklo_ps(__m256 __a, __m256 __b)
604 return __builtin_shufflevector(__a, __b, 0, 8, 0+1, 8+1, 4, 12, 4+1, 12+1);
609 _mm_testz_pd(__m128d __a, __m128d __b)
611 return __builtin_ia32_vtestzpd((__v2df)__a, (__v2df)__b);
615 _mm_testc_pd(__m128d __a, __m128d __b)
617 return __builtin_ia32_vtestcpd((__v2df)__a, (__v2df)__b);
621 _mm_testnzc_pd(__m128d __a, __m128d __b)
623 return __builtin_ia32_vtestnzcpd((__v2df)__a, (__v2df)__b);
627 _mm_testz_ps(__m128 __a, __m128 __b)
629 return __builtin_ia32_vtestzps((__v4sf)__a, (__v4sf)__b);
633 _mm_testc_ps(__m128 __a, __m128 __b)
635 return __builtin_ia32_vtestcps((__v4sf)__a, (__v4sf)__b);
639 _mm_testnzc_ps(__m128 __a, __m128 __b)
641 return __builtin_ia32_vtestnzcps((__v4sf)__a, (__v4sf)__b);
645 _mm256_testz_pd(__m256d __a, __m256d __b)
647 return __builtin_ia32_vtestzpd256((__v4df)__a, (__v4df)__b);
651 _mm256_testc_pd(__m256d __a, __m256d __b)
653 return __builtin_ia32_vtestcpd256((__v4df)__a, (__v4df)__b);
657 _mm256_testnzc_pd(__m256d __a, __m256d __b)
659 return __builtin_ia32_vtestnzcpd256((__v4df)__a, (__v4df)__b);
663 _mm256_testz_ps(__m256 __a, __m256 __b)
665 return __builtin_ia32_vtestzps256((__v8sf)__a, (__v8sf)__b);
669 _mm256_testc_ps(__m256 __a, __m256 __b)
671 return __builtin_ia32_vtestcps256((__v8sf)__a, (__v8sf)__b);
675 _mm256_testnzc_ps(__m256 __a, __m256 __b)
677 return __builtin_ia32_vtestnzcps256((__v8sf)__a, (__v8sf)__b);
681 _mm256_testz_si256(__m256i __a, __m256i __b)
683 return __builtin_ia32_ptestz256((__v4di)__a, (__v4di)__b);
687 _mm256_testc_si256(__m256i __a, __m256i __b)
689 return __builtin_ia32_ptestc256((__v4di)__a, (__v4di)__b);
693 _mm256_testnzc_si256(__m256i __a, __m256i __b)
695 return __builtin_ia32_ptestnzc256((__v4di)__a, (__v4di)__b);
897 _mm256_stream_si256(__m256i *__a, __m256i __b)
899 __builtin_ia32_movntdq256((__v4di *)__a, (__v4di)__b);
903 _mm256_stream_pd(double *__a, __m256d __b)
905 __builtin_ia32_movntpd256(__a, (__v4df)__b);
916 _mm256_set_pd(double __a, double __b, double __c, double __d)
918 return (__m256d){ __d, __c, __b, __a };
922 _mm256_set_ps(float __a, float __b, float __c, float __d,
925 return (__m256){ __h, __g, __f, __e, __d, __c, __b, __a };
964 _mm256_set_epi64x(long long __a, long long __b, long long __c, long long __d)
966 return (__m256i)(__v4di){ __d, __c, __b, __a };
971 _mm256_setr_pd(double __a, double __b, double __c, double __d)
973 return (__m256d){ __a, __b, __c, __d };
977 _mm256_setr_ps(float __a, float __b, float __c, float __d,
980 return (__m256){ __a, __b, __c, __d, __e, __f, __g, __h };
1018 _mm256_setr_epi64x(long long __a, long long __b, long long __c, long long __d)
1020 return (__m256i)(__v4di){ __a, __b, __c, __d };
1050 _mm256_set1_epi8(char __b)
1052 return (__m256i)(__v32qi){ __b, __b, __b, __b, __b, __b, __b, __b, __b, __b,
1053 __b, __b, __b, __b, __b, __b, __b, __b, __b, __b, __b, __b, __b, __b, __b,
1054 __b, __b, __b, __b, __b, __b, __b };