Lines Matching refs:zSig1

368 the concatenation of `zSig0' and `zSig1' into a double-precision floating-
375 `zSig0' and `zSig1' concatenated form a complete, normalized significand.
379 packFloat64( flag zSign, int16 zExp, bits32 zSig0, bits32 zSig1 )
384 ( ( (bits64) zSig0 )<<32 ) + zSig1 );
392 and extended significand formed by the concatenation of `zSig0', `zSig1',
413 flag zSign, int16 zExp, bits32 zSig0, bits32 zSig1, bits32 zSig2 )
437 && eq64( 0x001FFFFF, 0xFFFFFFFF, zSig0, zSig1 )
455 || lt64( zSig0, zSig1, 0x001FFFFF, 0xFFFFFFFF );
457 zSig0, zSig1, zSig2, - zExp, &zSig0, &zSig1, &zSig2 );
475 add64( zSig0, zSig1, 0, 1, &zSig0, &zSig1 );
476 zSig1 &= ~ ( ( zSig2 + zSig2 == 0 ) & roundNearestEven );
479 if ( ( zSig0 | zSig1 ) == 0 ) zExp = 0;
481 return packFloat64( zSign, zExp, zSig0, zSig1 );
488 and significand formed by the concatenation of `zSig0' and `zSig1', and
498 flag zSign, int16 zExp, bits32 zSig0, bits32 zSig1 )
504 zSig0 = zSig1;
505 zSig1 = 0;
511 shortShift64Left( zSig0, zSig1, shiftCount, &zSig0, &zSig1 );
515 zSig0, zSig1, 0, - shiftCount, &zSig0, &zSig1, &zSig2 );
518 return roundAndPackFloat64( zSign, zExp, zSig0, zSig1, zSig2 );
552 bits32 zSig0, zSig1;
560 zSig1 = 0;
563 shift64Right( absA, 0, - shiftCount, &zSig0, &zSig1 );
565 return packFloat64( zSign, 0x412 - shiftCount, zSig0, zSig1 );
696 bits32 aSig, zSig0, zSig1;
710 shift64Right( aSig, 0, 3, &zSig0, &zSig1 );
711 return packFloat64( aSign, aExp + 0x380, zSig0, zSig1 );
982 bits32 aSig, bSig, zSig0, zSig1;
1020 mul32To64( aSig, bSig, &zSig0, &zSig1 );
1021 zSig0 |= ( zSig1 != 0 );
1670 bits32 aSig0, aSig1, bSig0, bSig1, zSig0, zSig1, zSig2;
1717 add64( aSig0, aSig1, bSig0, bSig1, &zSig0, &zSig1 );
1718 if ( aExp == 0 ) return packFloat64( zSign, 0, zSig0, zSig1 );
1725 add64( aSig0, aSig1, bSig0, bSig1, &zSig0, &zSig1 );
1730 shift64ExtraRightJamming( zSig0, zSig1, zSig2, 1, &zSig0, &zSig1, &zSig2 );
1732 return roundAndPackFloat64( zSign, zExp, zSig0, zSig1, zSig2 );
1748 bits32 aSig0, aSig1, bSig0, bSig1, zSig0, zSig1;
1792 sub64( bSig0, bSig1, aSig0, aSig1, &zSig0, &zSig1 );
1810 sub64( aSig0, aSig1, bSig0, bSig1, &zSig0, &zSig1 );
1814 return normalizeRoundAndPackFloat64( zSign, zExp - 10, zSig0, zSig1 );
1873 bits32 aSig0, aSig1, bSig0, bSig1, zSig0, zSig1, zSig2, zSig3;
1912 mul64To128( aSig0, aSig1, bSig0, bSig1, &zSig0, &zSig1, &zSig2, &zSig3 );
1913 add64( zSig0, zSig1, aSig0, aSig1, &zSig0, &zSig1 );
1917 zSig0, zSig1, zSig2, 1, &zSig0, &zSig1, &zSig2 );
1920 return roundAndPackFloat64( zSign, zExp, zSig0, zSig1, zSig2 );
1935 bits32 aSig0, aSig1, bSig0, bSig1, zSig0, zSig1, zSig2;
1989 zSig1 = estimateDiv64To32( rem1, rem2, bSig0 );
1990 if ( ( zSig1 & 0x3FF ) <= 4 ) {
1991 mul64By32To96( bSig0, bSig1, zSig1, &term1, &term2, &term3 );
1994 --zSig1;
1997 zSig1 |= ( ( rem1 | rem2 | rem3 ) != 0 );
1999 shift64ExtraRightJamming( zSig0, zSig1, 0, 11, &zSig0, &zSig1, &zSig2 );
2000 return roundAndPackFloat64( zSign, zExp, zSig0, zSig1, zSig2 );
2121 bits32 aSig0, aSig1, zSig0, zSig1, zSig2, doubleZSig0;
2158 zSig1 = estimateDiv64To32( rem1, 0, doubleZSig0 );
2159 if ( ( zSig1 & 0x1FF ) <= 5 ) {
2160 if ( zSig1 == 0 ) zSig1 = 1;
2161 mul32To64( doubleZSig0, zSig1, &term1, &term2 );
2163 mul32To64( zSig1, zSig1, &term2, &term3 );
2166 --zSig1;
2167 shortShift64Left( 0, zSig1, 1, &term2, &term3 );
2172 zSig1 |= ( ( rem1 | rem2 | rem3 ) != 0 );
2174 shift64ExtraRightJamming( zSig0, zSig1, 0, 10, &zSig0, &zSig1, &zSig2 );
2175 return roundAndPackFloat64( 0, zExp, zSig0, zSig1, zSig2 );