Lines Matching refs:r8

705 	testq	%r8,%r8
717 shrq $4,%r8
718 movq %r8,%r10
732 shrq $2,%r8
824 subq $1,%r8
884 testq %r8,%r8
905 shrq $4,%r8
906 movq %r8,%r10
925 shrq $3,%r8
1075 decq %r8
1176 vpxor (%r8),%xmm7,%xmm7
1177 vpxor (%r8),%xmm8,%xmm8
1178 vpxor (%r8),%xmm9,%xmm9
1179 vpxor (%r8),%xmm10,%xmm10
1180 vpxor (%r8),%xmm11,%xmm11
1181 vpxor (%r8),%xmm12,%xmm12
1183 vmovdqu 16(%r8),%xmm4
1191 vmovdqu 32(%r8),%xmm4
1199 vmovdqu 48(%r8),%xmm4
1207 vmovdqu 64(%r8),%xmm4
1215 vmovdqu 80(%r8),%xmm4
1223 vmovdqu 96(%r8),%xmm4
1231 vmovdqu 112(%r8),%xmm4
1239 vmovdqu 128(%r8),%xmm4
1247 vmovdqu 144(%r8),%xmm4
1255 vmovdqu 160(%r8),%xmm4
1304 vmovdqa (%r8),%xmm4
1319 vmovdqu 16(%r8),%xmm4
1340 vmovdqu 32(%r8),%xmm4
1361 vmovdqu 48(%r8),%xmm4
1382 vmovdqu 64(%r8),%xmm4
1403 vmovdqu 80(%r8),%xmm4
1411 vmovdqu 96(%r8),%xmm4
1419 vmovdqu 112(%r8),%xmm4
1441 vmovdqu 128(%r8),%xmm4
1457 vmovdqu 144(%r8),%xmm4
1465 vmovdqu 160(%r8),%xmm6
1604 vpxor 0(%r8),%xmm2,%xmm2
1605 vaesenc 16(%r8),%xmm2,%xmm2
1606 vaesenc 32(%r8),%xmm2,%xmm2
1607 vaesenc 48(%r8),%xmm2,%xmm2
1608 vaesenc 64(%r8),%xmm2,%xmm2
1609 vaesenc 80(%r8),%xmm2,%xmm2
1610 vaesenc 96(%r8),%xmm2,%xmm2
1611 vaesenc 112(%r8),%xmm2,%xmm2
1612 vaesenc 128(%r8),%xmm2,%xmm2
1613 vaesenc 144(%r8),%xmm2,%xmm2
1614 vaesenclast 160(%r8),%xmm2,%xmm2
1871 testq %r8,%r8
1876 movq %r8,%r10
1877 shrq $4,%r8
1880 addq $1,%r8
1883 movq %r8,%r10
1897 shrq $2,%r8
2013 subq $1,%r8
2072 testq %r8,%r8
2082 movq %r8,%r10
2083 shrq $4,%r8
2086 addq $1,%r8
2089 movq %r8,%r10
2108 shrq $3,%r8
2298 subq $1,%r8
2392 vpxor (%r8),%xmm7,%xmm7
2393 vpxor (%r8),%xmm8,%xmm8
2394 vpxor (%r8),%xmm9,%xmm9
2395 vpxor (%r8),%xmm10,%xmm10
2396 vpxor (%r8),%xmm11,%xmm11
2397 vpxor (%r8),%xmm12,%xmm12
2399 vmovdqu 16(%r8),%xmm4
2407 vmovdqu 32(%r8),%xmm4
2415 vmovdqu 48(%r8),%xmm4
2423 vmovdqu 64(%r8),%xmm4
2431 vmovdqu 80(%r8),%xmm4
2439 vmovdqu 96(%r8),%xmm4
2447 vmovdqu 112(%r8),%xmm4
2455 vmovdqu 128(%r8),%xmm4
2463 vmovdqu 144(%r8),%xmm4
2471 vmovdqu 160(%r8),%xmm4
2479 vmovdqu 176(%r8),%xmm4
2487 vmovdqu 192(%r8),%xmm4
2495 vmovdqu 208(%r8),%xmm4
2503 vmovdqu 224(%r8),%xmm4
2552 vmovdqa (%r8),%xmm4
2567 vmovdqu 16(%r8),%xmm4
2588 vmovdqu 32(%r8),%xmm4
2609 vmovdqu 48(%r8),%xmm4
2630 vmovdqu 64(%r8),%xmm4
2651 vmovdqu 80(%r8),%xmm4
2659 vmovdqu 96(%r8),%xmm4
2667 vmovdqu 112(%r8),%xmm4
2689 vmovdqu 128(%r8),%xmm4
2705 vmovdqu 144(%r8),%xmm4
2713 vmovdqu 160(%r8),%xmm4
2721 vmovdqu 176(%r8),%xmm4
2729 vmovdqu 192(%r8),%xmm4
2737 vmovdqu 208(%r8),%xmm4
2745 vmovdqu 224(%r8),%xmm6
2884 vpxor 0(%r8),%xmm2,%xmm2
2885 vaesenc 16(%r8),%xmm2,%xmm2
2886 vaesenc 32(%r8),%xmm2,%xmm2
2887 vaesenc 48(%r8),%xmm2,%xmm2
2888 vaesenc 64(%r8),%xmm2,%xmm2
2889 vaesenc 80(%r8),%xmm2,%xmm2
2890 vaesenc 96(%r8),%xmm2,%xmm2
2891 vaesenc 112(%r8),%xmm2,%xmm2
2892 vaesenc 128(%r8),%xmm2,%xmm2
2893 vaesenc 144(%r8),%xmm2,%xmm2
2894 vaesenc 160(%r8),%xmm2,%xmm2
2895 vaesenc 176(%r8),%xmm2,%xmm2
2896 vaesenc 192(%r8),%xmm2,%xmm2
2897 vaesenc 208(%r8),%xmm2,%xmm2
2898 vaesenclast 224(%r8),%xmm2,%xmm2