Lines Matching refs:inp

120 my ($inp,$bits,$out,$ptr,$cnt,$rounds)=map("r$_",(3..8));
153 ${UCMP}i $inp,0
154 beq- Lenc_key_abort # if ($inp==0) return -1;
172 neg r9,$inp
173 lvx $in0,0,$inp
174 addi $inp,$inp,15 # 15 is not typo
178 lvx $in1,0,$inp
195 addi $inp,$inp,8
197 addi $inp,$inp,8
259 addi $inp,$out,15 # 15 is not typo
267 lvx $tmp,0,$inp
332 addi $inp,$out,15 # 15 is not typo
342 lvx $tmp,0,$inp
374 addi $inp,$out,15 # 15 is not typo
393 lvx $in1,0,$inp # redundant in aligned case
395 stvx $in1,0,$inp
419 subi $inp,$out,240 # first round key
421 add $out,$inp,$cnt # last round key
425 lwz r0, 0($inp)
426 lwz r6, 4($inp)
427 lwz r7, 8($inp)
428 lwz r8, 12($inp)
429 addi $inp,$inp,16
439 stw r9, -16($inp)
440 stw r10,-12($inp)
441 stw r11,-8($inp)
442 stw r12,-4($inp)
460 my ($inp,$out,$key,$rounds,$idx)=map("r$_",(3..7));
470 lvx v0,0,$inp
472 lvx v1,$idx,$inp
473 lvsl v2,0,$inp # inpperm
535 my ($inp,$out,$len,$key,$ivp,$enc,$rounds,$idx)=map("r$_",(3..10));
559 neg r11,$inp
564 lvx $inptail,0,$inp
565 addi $inp,$inp,15 # 15 is not typo
581 lvx $inptail,0,$inp
582 addi $inp,$inp,16
629 lvx $inptail,0,$inp
630 addi $inp,$inp,16
797 #lvx $inptail,0,$inp # "caller" already did this
798 #addi $inp,$inp,15 # 15 is not typo
799 subi $inp,$inp,15 # undo "caller"
802 lvx_u $in0,$x00,$inp # load first 8 "words"
805 lvx_u $in1,$x10,$inp
807 lvx_u $in2,$x20,$inp
809 lvx_u $in3,$x30,$inp
811 lvx_u $in4,$x40,$inp
814 lvx_u $in5,$x50,$inp
817 lvx_u $in6,$x60,$inp
820 lvx_u $in7,$x70,$inp
821 addi $inp,$inp,0x80
887 add $inp,$inp,r0 # $inp is adjusted in such
940 lvx_u $in0,$x00,$inp # load next input block
942 lvx_u $in1,$x10,$inp
945 lvx_u $in2,$x20,$inp
948 lvx_u $in3,$x30,$inp
951 lvx_u $in4,$x40,$inp
954 lvx_u $in5,$x50,$inp
957 lvx_u $in6,$x60,$inp
960 lvx_u $in7,$x70,$inp
961 addi $inp,$inp,0x80
1308 my ($inp,$out,$len,$key,$ivp,$x10,$rounds,$idx)=map("r$_",(3..10));
1335 neg r11,$inp
1340 lvx $inptail,0,$inp
1341 addi $inp,$inp,15 # 15 is not typo
1381 lvx $inptail,0,$inp
1382 addi $inp,$inp,16
1519 subi $inp,$inp,15 # undo "caller"
1615 lvx_u $in0,$x00,$inp # load input
1617 lvx_u $in1,$x10,$inp
1619 lvx_u $in2,$x20,$inp
1621 lvx_u $in3,$x30,$inp
1623 lvx_u $in4,$x40,$inp
1625 lvx_u $in5,$x50,$inp
1627 lvx_u $in6,$x60,$inp
1629 lvx_u $in7,$x70,$inp
1630 addi $inp,$inp,0x80
1649 add $inp,$inp,r0 # $inp is adjusted in such
1958 # int aes_p8_xts_[en|de]crypt(const char *inp, char *out, size_t len, #
1967 my ($inp,$out,$len,$key1,$key2,$ivp,$rounds,$idx) = map("r$_",(3..10));
1973 ($inp,$idx) = ($idx,$inp); # reassign
1977 mr $inp,r3 # reassign
1999 neg r11,$inp
2001 lvx $inout,0,$inp
2002 addi $inp,$inp,15 # 15 is not typo
2049 lvx $inptail,0,$inp
2050 addi $inp,$inp,16
2071 add $inp,$inp,r0
2115 lvx $inptail,0,$inp
2116 addi $inp,$inp,16
2124 add $inp,$inp,r0
2186 mr $inp,r3 # reassign
2213 neg r11,$inp
2215 lvx $inout,0,$inp
2216 addi $inp,$inp,15 # 15 is not typo
2264 lvx $inptail,0,$inp
2265 addi $inp,$inp,16
2326 lvx $inptail,0,$inp
2327 addi $inp,$inp,16
2356 subi $inp,$inp,16
2357 add $inp,$inp,$len
2387 lvx $inptail,0,$inp
2388 #addi $inp,$inp,16
2561 subi $inp,$inp,31 # undo "caller"
2570 lvx_u $in1,$x10,$inp
2580 lvx_u $in2,$x20,$inp
2591 lvx_u $in3,$x30,$inp
2602 lvx_u $in4,$x40,$inp
2613 lvx_u $in5,$x50,$inp
2614 addi $inp,$inp,0x60
2688 add $inp,$inp,r0 # $inp is adjusted in such
2748 lvx_u $in0,$x00,$inp # load next input block
2751 lvx_u $in1,$x10,$inp
2754 lvx_u $in2,$x20,$inp
2758 lvx_u $in3,$x30,$inp
2761 lvx_u $in4,$x40,$inp
2769 lvx_u $in5,$x50,$inp
2770 addi $inp,$inp,0x60
2915 add $inp,$inp,$taillen
2919 subi $inp,$inp,16
2925 lvx_u $in0,0,$inp
2955 add $inp,$inp,$taillen
2956 subi $inp,$inp,16
2957 lvx_u $in0,0,$inp
3064 add $inp,$inp,$taillen
3072 subi $inp,$inp,16
3089 lvx_u $in0,0,$inp
3230 subi $inp,$inp,31 # undo "caller"
3239 lvx_u $in1,$x10,$inp
3249 lvx_u $in2,$x20,$inp
3260 lvx_u $in3,$x30,$inp
3271 lvx_u $in4,$x40,$inp
3282 lvx_u $in5,$x50,$inp
3283 addi $inp,$inp,0x60
3357 add $inp,$inp,r0 # $inp is adjusted in such
3417 lvx_u $in0,$x00,$inp # load next input block
3420 lvx_u $in1,$x10,$inp
3423 lvx_u $in2,$x20,$inp
3427 lvx_u $in3,$x30,$inp
3430 lvx_u $in4,$x40,$inp
3437 lvx_u $in5,$x50,$inp
3438 addi $inp,$inp,0x60
3593 sub $inp,$inp,r0
3596 lvx_u $in0,0,$inp
3627 lvx_u $in0,0,$inp
3639 add $inp,$inp,$taillen
3645 lvx_u $in0,0,$inp
3785 sub $inp,$inp,r0
3794 lvx_u $in0,0,$inp