Lines Matching defs:zSig0

368 the concatenation of `zSig0' and `zSig1' into a double-precision floating-
370 positions, the three fields `zSign', `zExp', and `zSig0' are simply added
372 that any integer portion of `zSig0' will be added into the exponent. Since
375 `zSig0' and `zSig1' concatenated form a complete, normalized significand.
379 packFloat64( flag zSign, int16 zExp, bits32 zSig0, bits32 zSig1 )
384 ( ( (bits64) zSig0 )<<32 ) + zSig1 );
392 and extended significand formed by the concatenation of `zSig0', `zSig1',
413 flag zSign, int16 zExp, bits32 zSig0, bits32 zSig1, bits32 zSig2 )
437 && eq64( 0x001FFFFF, 0xFFFFFFFF, zSig0, zSig1 )
455 || lt64( zSig0, zSig1, 0x001FFFFF, 0xFFFFFFFF );
457 zSig0, zSig1, zSig2, - zExp, &zSig0, &zSig1, &zSig2 );
475 add64( zSig0, zSig1, 0, 1, &zSig0, &zSig1 );
479 if ( ( zSig0 | zSig1 ) == 0 ) zExp = 0;
481 return packFloat64( zSign, zExp, zSig0, zSig1 );
488 and significand formed by the concatenation of `zSig0' and `zSig1', and
498 flag zSign, int16 zExp, bits32 zSig0, bits32 zSig1 )
503 if ( zSig0 == 0 ) {
504 zSig0 = zSig1;
508 shiftCount = countLeadingZeros32( zSig0 ) - 11;
511 shortShift64Left( zSig0, zSig1, shiftCount, &zSig0, &zSig1 );
515 zSig0, zSig1, 0, - shiftCount, &zSig0, &zSig1, &zSig2 );
518 return roundAndPackFloat64( zSign, zExp, zSig0, zSig1, zSig2 );
552 bits32 zSig0, zSig1;
559 zSig0 = absA<<shiftCount;
563 shift64Right( absA, 0, - shiftCount, &zSig0, &zSig1 );
565 return packFloat64( zSign, 0x412 - shiftCount, zSig0, zSig1 );
696 bits32 aSig, zSig0, zSig1;
710 shift64Right( aSig, 0, 3, &zSig0, &zSig1 );
711 return packFloat64( aSign, aExp + 0x380, zSig0, zSig1 );
982 bits32 aSig, bSig, zSig0, zSig1;
1020 mul32To64( aSig, bSig, &zSig0, &zSig1 );
1021 zSig0 |= ( zSig1 != 0 );
1022 if ( 0 <= (sbits32) ( zSig0<<1 ) ) {
1023 zSig0 <<= 1;
1026 return roundAndPackFloat32( zSign, zExp, zSig0 );
1670 bits32 aSig0, aSig1, bSig0, bSig1, zSig0, zSig1, zSig2;
1717 add64( aSig0, aSig1, bSig0, bSig1, &zSig0, &zSig1 );
1718 if ( aExp == 0 ) return packFloat64( zSign, 0, zSig0, zSig1 );
1720 zSig0 |= 0x00200000;
1725 add64( aSig0, aSig1, bSig0, bSig1, &zSig0, &zSig1 );
1727 if ( zSig0 < 0x00200000 ) goto roundAndPack;
1730 shift64ExtraRightJamming( zSig0, zSig1, zSig2, 1, &zSig0, &zSig1, &zSig2 );
1732 return roundAndPackFloat64( zSign, zExp, zSig0, zSig1, zSig2 );
1748 bits32 aSig0, aSig1, bSig0, bSig1, zSig0, zSig1;
1792 sub64( bSig0, bSig1, aSig0, aSig1, &zSig0, &zSig1 );
1810 sub64( aSig0, aSig1, bSig0, bSig1, &zSig0, &zSig1 );
1814 return normalizeRoundAndPackFloat64( zSign, zExp - 10, zSig0, zSig1 );
1873 bits32 aSig0, aSig1, bSig0, bSig1, zSig0, zSig1, zSig2, zSig3;
1912 mul64To128( aSig0, aSig1, bSig0, bSig1, &zSig0, &zSig1, &zSig2, &zSig3 );
1913 add64( zSig0, zSig1, aSig0, aSig1, &zSig0, &zSig1 );
1915 if ( 0x00200000 <= zSig0 ) {
1917 zSig0, zSig1, zSig2, 1, &zSig0, &zSig1, &zSig2 );
1920 return roundAndPackFloat64( zSign, zExp, zSig0, zSig1, zSig2 );
1935 bits32 aSig0, aSig1, bSig0, bSig1, zSig0, zSig1, zSig2;
1982 zSig0 = estimateDiv64To32( aSig0, aSig1, bSig0 );
1983 mul64By32To96( bSig0, bSig1, zSig0, &term0, &term1, &term2 );
1986 --zSig0;
1999 shift64ExtraRightJamming( zSig0, zSig1, 0, 11, &zSig0, &zSig1, &zSig2 );
2000 return roundAndPackFloat64( zSign, zExp, zSig0, zSig1, zSig2 );
2121 bits32 aSig0, aSig1, zSig0, zSig1, zSig2, doubleZSig0;
2147 zSig0 = ( estimateSqrt32( aExp, term0 )>>1 ) + 1;
2148 if ( zSig0 == 0 ) zSig0 = 0x7FFFFFFF;
2149 doubleZSig0 = zSig0 + zSig0;
2151 mul32To64( zSig0, zSig0, &term0, &term1 );
2154 --zSig0;
2174 shift64ExtraRightJamming( zSig0, zSig1, 0, 10, &zSig0, &zSig1, &zSig2 );
2175 return roundAndPackFloat64( 0, zExp, zSig0, zSig1, zSig2 );