Lines Matching refs:vec_and

318 						 vec_and((vec_uint4)(_c), vec_splat_u32(1)))))
323 #define si_and(_a, _b) ((qword)(vec_and((vec_uint4)(_a), (vec_uint4)(_b))))
328 return ((qword)(vec_and((vec_char16)(a),
334 return ((qword)(vec_and((vec_short8)(a),
341 return ((qword)(vec_and((vec_int4)(a),
367 #define si_bgx(_a, _b, _c) ((qword)(vec_and(vec_or(vec_cmpgt((vec_uint4)(_b), (vec_uint4)(_a)), \
368 vec_and(vec_cmpeq((vec_uint4)(_b), (vec_uint4)(_a)), \
404 aabs = vec_and((vec_uint4)a,sign_mask);
405 babs = vec_and((vec_uint4)b,sign_mask);
409 biteq = vec_and(biteq,(vec_uint4)vec_slo((vec_uchar16)biteq,x.v));
423 anan = (vec_uint4)vec_or(a_gt,vec_and((vec_uint4)vec_slo((vec_uchar16)a_gt,x.v),ahi_inf));
458 vec_uint4 aabs = vec_and((vec_uint4)a, sign_mask);
459 vec_uint4 babs = vec_and((vec_uint4)b, sign_mask);
464 a_nan = vec_or(a_nan, vec_and((vec_uint4)vec_slo((vec_uchar16)a_nan,x.v),a_inf));
470 b_nan = vec_or(b_nan, vec_and((vec_uint4)vec_slo((vec_uchar16)b_nan,x.v),b_inf));
479 vec_uint4 eqgt = vec_and(eq,vec_slo(gt_lo,x.v));
557 biteq = vec_and(biteq,(vec_uint4)vec_slo((vec_uchar16)biteq,x.v));
560 aabs = vec_and((vec_uint4)a,sign_mask);
561 babs = vec_and((vec_uint4)b,sign_mask);
575 anan = (vec_uint4)vec_or(a_gt,vec_and((vec_uint4)vec_slo((vec_uchar16)a_gt,x.v),ahi_inf));
579 iszero = vec_and(iszero,(vec_uint4)vec_slo((vec_uchar16)iszero,x.v));
643 vec_uint4 aabs = vec_and((vec_uint4)a, sign_mask);
644 vec_uint4 babs = vec_and((vec_uint4)b, sign_mask);
649 a_nan = vec_or(a_nan, vec_and((vec_uint4)vec_slo((vec_uchar16)a_nan,x.v),a_inf));
655 b_nan = vec_or(b_nan, vec_and((vec_uint4)vec_slo((vec_uchar16)b_nan,x.v),b_inf));
670 vec_uint4 aneg = vec_add(vec_add(vec_splat_u32(0), vec_nor(aabs, aabs)), vec_and(abor, vec_splat_u32(1)));
678 vec_uint4 bneg = vec_add(vec_nor(babs, babs), vec_and(bbor, vec_splat_u32(1)));
689 vec_uint4 eqgt = vec_and(eq,vec_slo(gt_lo,x.v));
744 vec_uint4 aabs = vec_and((vec_uint4)a,sign_mask);
763 a_nan = vec_or(a_nan, vec_and((vec_uint4)vec_slo((vec_uchar16)a_nan,x.v),a_inf));
770 a_inf = vec_and((vec_uint4)vec_slo((vec_uchar16)a_inf,x.v), a_inf);
777 result = vec_or(vec_and(a_inf, sign), result);
784 iszero = vec_and(iszero,(vec_uint4)vec_slo((vec_uchar16)iszero,x.v));
796 result = vec_or(vec_and(isdenorm, sign), result);
807 result = vec_or(vec_and(iszero, sign), result);
820 vec_and((vec_uint4)(_c), vec_splat_u32(1))))))
854 cnt = vec_add(cnt_hi, vec_and(cnt_lo, vec_cmpeq(cnt_hi, four)));
860 cnt = vec_add(cnt, vec_and(tmp1, vec_cmpeq(cnt, eight)));
861 cnt = vec_add(cnt, vec_and(tmp2, vec_cmpeq(cnt, sixteen)));
862 cnt = vec_add(cnt, vec_and(tmp3, vec_cmpeq(cnt, twentyfour)));
955 bits = vec_sl(vec_and((vec_uchar16)(a), vec_splat_u8(1)), ((vec_uchar16){7, 6, 5, 4, 3, 2, 1, 0,
969 bits = vec_sl(vec_and((vec_ushort8)(a), vec_splat_u16(1)), ((vec_ushort8){7, 6, 5, 4, 3, 2, 1, 0}));
981 bits = vec_sl(vec_and((vec_uint4)(a), vec_splat_u32(1)), ((vec_uint4){3, 2, 1, 0}));
1069 return ((qword)(vec_msum(vec_and((vec_short8)(a),
1257 d = vec_and((vec_uchar16)(a), (vec_uchar16)(b));
1348 return ((qword)(vec_and(tmp, ((vec_uchar16){0xFF,0xFF,0xFF,0xFF, 0x00,0x00,0x00,0x00,
1498 return ((qword)(vec_and(vec_sro((vec_uchar16)(a), x.v), mask)));
1517 return ((qword)(vec_and(vec_sro((vec_uchar16)(a), x.v), mask)));
1576 x = vec_and(vec_splat((vec_uchar16)(count), 3), vec_splat_u8(7));
1614 return ((qword)(vec_and(vec_sro((vec_uchar16)(a), x.v), mask)));
1736 return ((qword)(vec_and(vec_slo((vec_uchar16)(a), x.v), mask)));
1751 return ((qword)(vec_and(vec_slo((vec_uchar16)(a), x.v), mask)));
1768 return ((qword)(vec_and(vec_slo((vec_uchar16)(a), x.v), mask)));
1825 vec_and((vec_uint4)(_c), vec_splat_u32(1)))))