• Home
  • History
  • Annotate
  • Raw
  • Download
  • only in /netgear-R7000-V1.0.7.12_1.2.5/ap/gpl/openssl/crypto/aes/asm/

Lines Matching refs:SZ

74 $SZ=4;
97 $_inp="16*$SZ+0*8(%rsp)";
98 $_out="16*$SZ+1*8(%rsp)";
99 $_end="16*$SZ+2*8(%rsp)";
100 $_key="16*$SZ+3*8(%rsp)";
101 $_ivp="16*$SZ+4*8(%rsp)";
102 $_ctx="16*$SZ+5*8(%rsp)";
103 $_in0="16*$SZ+6*8(%rsp)";
104 $_rsp="16*$SZ+7*8(%rsp)";
105 $framesz=16*$SZ+8*8;
301 '&add ($h,$SZ*($i&15)."(%rsp)")', # h+=X[i]+K[i]
378 lea $TABLE+`$SZ*2*$rounds+32`(%rip),%r13 # borrow $a0
385 mov $SZ*0(%r15),$A
386 mov $SZ*1(%r15),$B
387 mov $SZ*2(%r15),$C
388 mov $SZ*3(%r15),$D
389 mov $SZ*4(%r15),$E
390 mov $SZ*5(%r15),$F
391 mov $SZ*6(%r15),$G
392 mov $SZ*7(%r15),$H
400 if ($SZ==4) { # SHA256
407 vmovdqa $TABLE+`$SZ*2*$rounds`(%rip),$t3
433 sub \$-16*2*$SZ,$Tbl # size optimization
443 &vpalignr ($t0,@X[1],@X[0],$SZ); # X[1..4]
446 &vpalignr ($t3,@X[3],@X[2],$SZ); # X[9..12]
449 &vprotd ($t1,$t0,8*$SZ-$sigma0[1]);
468 &vprotd ($t3,@X[3],8*$SZ-$sigma1[1]);
503 &vprotd ($t3,@X[0],8*$SZ-$sigma1[1]);
549 &cmpb ($SZ-1+16*2*$SZ."($Tbl)",0);
572 add $SZ*0(%r15),$A
573 add $SZ*1(%r15),$B
574 add $SZ*2(%r15),$C
575 add $SZ*3(%r15),$D
576 add $SZ*4(%r15),$E
577 add $SZ*5(%r15),$F
578 add $SZ*6(%r15),$G
579 add $SZ*7(%r15),$H
583 mov $A,$SZ*0(%r15)
584 mov $B,$SZ*1(%r15)
585 mov $C,$SZ*2(%r15)
586 mov $D,$SZ*3(%r15)
587 mov $E,$SZ*4(%r15)
588 mov $F,$SZ*5(%r15)
589 mov $G,$SZ*6(%r15)
590 mov $H,$SZ*7(%r15)
676 lea $TABLE+`$SZ*2*$rounds+32`(%rip),%r13 # borrow $a0
683 mov $SZ*0(%r15),$A
684 mov $SZ*1(%r15),$B
685 mov $SZ*2(%r15),$C
686 mov $SZ*3(%r15),$D
687 mov $SZ*4(%r15),$E
688 mov $SZ*5(%r15),$F
689 mov $SZ*6(%r15),$G
690 mov $SZ*7(%r15),$H
697 if ($SZ==4) { # SHA256
705 vmovdqa $TABLE+`$SZ*2*$rounds`(%rip),$t3
731 sub \$-16*2*$SZ,$Tbl # size optimization
737 '&vpalignr ($t0,@X[1],@X[0],$SZ)', # X[1..4]
738 '&vpalignr ($t3,@X[3],@X[2],$SZ)', # X[9..12]
742 '&vpslld ($t1,$t0,8*$SZ-$sigma0[1]);',
800 &cmpb ($SZ-1+16*2*$SZ."($Tbl)",0);
824 add $SZ*0(%r15),$A
825 add $SZ*1(%r15),$B
826 add $SZ*2(%r15),$C
827 add $SZ*3(%r15),$D
828 add $SZ*4(%r15),$E
829 add $SZ*5(%r15),$F
830 add $SZ*6(%r15),$G
831 add $SZ*7(%r15),$H
835 mov $A,$SZ*0(%r15)
836 mov $B,$SZ*1(%r15)
837 mov $C,$SZ*2(%r15)
838 mov $D,$SZ*3(%r15)
839 mov $E,$SZ*4(%r15)
840 mov $F,$SZ*5(%r15)
841 mov $G,$SZ*6(%r15)
842 mov $H,$SZ*7(%r15)
879 my $a5=$SZ==4?"%esi":"%rsi"; # zap $inp
880 my $PUSH8=8*2*$SZ;
888 '&add ($h,(32*($i/(16/$SZ))+$SZ*($i%(16/$SZ)))%$PUSH8.$base)', # h+=X[i]+K[i]
937 sub \$`2*$SZ*$rounds+8*8+$win64*16*10`,%rsp
938 and \$-256*$SZ,%rsp # align stack frame
939 add \$`2*$SZ*($rounds-8)`,%rsp
974 lea $TABLE+`$SZ*2*$rounds+32`(%rip),%r12 # borrow $a4
985 sub \$-16*$SZ,%r13 # inp++, size optimization
986 mov $SZ*0(%r15),$A
988 mov $SZ*1(%r15),$B
990 mov $SZ*2(%r15),$C
992 mov $SZ*3(%r15),$D
993 mov $SZ*4(%r15),$E
994 mov $SZ*5(%r15),$F
995 mov $SZ*6(%r15),$G
996 mov $SZ*7(%r15),$H
999 if ($SZ==4) { # SHA256
1007 vmovdqa $TABLE+`$SZ*2*$rounds`(%rip),$t3
1008 vmovdqu -16*$SZ+0(%rsi,%r13),%xmm0
1009 vmovdqu -16*$SZ+16(%rsi,%r13),%xmm1
1010 vmovdqu -16*$SZ+32(%rsi,%r13),%xmm2
1011 vmovdqu -16*$SZ+48(%rsi,%r13),%xmm3
1022 lea -16*$SZ(%r13),%r13
1037 sub \$-16*2*$SZ,$Tbl # size optimization
1076 &lea ($Tbl,16*2*$SZ."($Tbl)");
1077 &cmpb (($SZ-1)."($Tbl)",0);
1092 mov `2*$SZ*$rounds+5*8`(%rsp),%r15 # $_ctx, borrow $a2
1094 lea `2*$SZ*($rounds-8)`(%rsp),$Tbl
1101 add $SZ*0(%r15),$A
1102 add $SZ*1(%r15),$B
1103 add $SZ*2(%r15),$C
1104 add $SZ*3(%r15),$D
1105 add $SZ*4(%r15),$E
1106 add $SZ*5(%r15),$F
1107 add $SZ*6(%r15),$G
1108 add $SZ*7(%r15),$H
1110 mov $A,$SZ*0(%r15)
1111 mov $B,$SZ*1(%r15)
1112 mov $C,$SZ*2(%r15)
1113 mov $D,$SZ*3(%r15)
1114 mov $E,$SZ*4(%r15)
1115 mov $F,$SZ*5(%r15)
1116 mov $G,$SZ*6(%r15)
1117 mov $H,$SZ*7(%r15)
1149 mov `2*$SZ*$rounds+5*8`(%rsp),%r15 # $_ctx, borrow $a2
1150 lea 16*$SZ(%r13),%r13
1151 mov `2*$SZ*$rounds+6*8`(%rsp),%rsi # $_in0, borrow $a3
1153 lea `2*$SZ*($rounds-8)`(%rsp),%rsp
1155 add $SZ*0(%r15),$A
1156 add $SZ*1(%r15),$B
1157 add $SZ*2(%r15),$C
1158 add $SZ*3(%r15),$D
1159 add $SZ*4(%r15),$E
1160 add $SZ*5(%r15),$F
1161 add $SZ*6(%r15),$G
1163 add $SZ*7(%r15),$H
1167 mov $A,$SZ*0(%r15)
1169 mov $B,$SZ*1(%r15)
1170 mov $C,$SZ*2(%r15)
1171 mov $D,$SZ*3(%r15)
1172 mov $E,$SZ*4(%r15)
1173 mov $F,$SZ*5(%r15)
1174 mov $G,$SZ*6(%r15)
1175 mov $H,$SZ*7(%r15)
1557 and \$-256*$SZ,%rax
1558 add \$`2*$SZ*($rounds-8)`,%rax
1563 mov 16*$SZ+7*8(%rax),%rax # pull $_rsp
1579 lea 16*$SZ+8*8(%rsi),%rsi # Xmm6- save area