/netbsd-current/external/gpl3/gdb.old/dist/gas/testsuite/gas/arm/ |
H A D | mve-vshll-bad.s | 4 \op\().s16 q0, q1, #4 10 vshllt.s32 q0, q1, #1 11 vshllt.i8 q0, q1, #1 12 vshllt.u8 q0, q1, #0 13 vshllt.u8 q0, q1, #9 14 vshllt.s16 q0, q1, #0 15 vshllt.s16 q0, q1, #17 16 vshllb.s32 q0, q1, #1 17 vshllb.i8 q0, q1, #1 18 vshllb.u8 q0, q1, # [all...] |
H A D | mve-vsli-bad.s | 4 vsli.16 q0, q1, #4 10 vsli.64 q0, q1, #1 11 vsli.8 q0, q1, #8 12 vsli.16 q0, q1, #16 13 vsli.32 q0, q1, #32 16 vslieq.8 q0, q1, #2 17 vslieq.8 q0, q1, #2 19 vslieq.8 q0, q1, #2 20 vslit.8 q0, q1, #2 22 vsli.8 q0, q1, # [all...] |
H A D | mve-vabsneg-bad-1.s | 4 \op\().s32 q0, q1 13 vabs.p8 q0, q1 14 vabs.p16 q0, q1 15 vabs.u8 q0, q1 16 vabs.u16 q0, q1 17 vabs.u32 q0, q1 18 vabs.f16 q0, q1 19 vabs.f32 q0, q1 20 vabs.s64 q0, q1 22 vneg.p8 q0, q1 [all...] |
H A D | mve-vshr-bad.s | 4 \op\().s32 q0, q1, #1 10 vshr.s64 q0, q1, #1 11 vshr.i32 q0, q1, #1 12 vrshr.u64 q0, q1, #1 13 vrshr.i32 q0, q1, #1 14 vshr.s8 q0, q1, #9 15 vshr.u8 q0, q1, #9 16 vshr.s16 q0, q1, #17 17 vshr.u16 q0, q1, #17 18 vshr.s32 q0, q1, #3 [all...] |
H A D | mve-vqmovn-bad.s | 4 \op\().s16 q0, q1 10 vqmovnt.s8 q0, q1 11 vqmovnt.s64 q0, q1 12 vqmovnt.i16 q0, q1 13 vqmovnb.u8 q0, q1 14 vqmovnb.u64 q0, q1 15 vqmovnb.i16 q0, q1 16 vqmovunt.s8 q0, q1 17 vqmovunt.s64 q0, q1 18 vqmovunt.i16 q0, q1 [all...] |
H A D | mve-vstr-bad-1.s | 4 \mnem\().32 q0, [r0, q1] 12 vstrb.s8 q0, [r0, q1] 13 vstrb.u8 q0, [r0, q1] 14 vstrb.s16 q0, [r0, q1] 15 vstrb.u16 q0, [r0, q1] 16 vstrb.f16 q0, [r0, q1] 17 vstrb.u32 q0, [r0, q1] 18 vstrb.s32 q0, [r0, q1] 19 vstrb.f32 q0, [r0, q1] 20 vstrb.64 q0, [r0, q1] [all...] |
H A D | mve-vsri-bad.s | 4 vsri.16 q0, q1, #4 10 vsri.64 q0, q1, #1 11 vsri.8 q0, q1, #0 12 vsri.8 q0, q1, #9 13 vsri.16 q0, q1, #0 14 vsri.16 q0, q1, #17 15 vsri.32 q0, q1, #0 16 vsri.32 q0, q1, #33 19 vsrieq.8 q0, q1, #2 20 vsrieq.8 q0, q1, # [all...] |
H A D | mve-vldr-bad-2.s | 4 \mnem\().u\size q0, [q1, #8] 10 vldrw.u16 q0, [q1, #4] 11 vldrw.u64 q0, [q1, #-4] 12 vldrw.u32 q0, [q1, #1] 13 vldrw.u32 q0, [q1, #2] 14 vldrw.u32 q0, [q1, #231] 15 vldrw.u32 q0, [q1, #516] 16 vldrw.u32 q0, [q1, #-516] 20 vldrweq.u32 q0, [q1] 21 vldrweq.u32 q0, [q1] [all...] |
H A D | mve-vstr-bad-2.s | 4 \mnem\().u\size q0, [q1, #8] 10 vstrw.u16 q0, [q1, #4] 11 vstrw.u64 q0, [q1, #-4] 12 vstrw.u32 q0, [q1, #1] 13 vstrw.u32 q0, [q1, #2] 14 vstrw.u32 q0, [q1, #231] 15 vstrw.u32 q0, [q1, #516] 16 vstrw.u32 q0, [q1, #-516] 19 vstrweq.u32 q0, [q1] 20 vstrweq.u32 q0, [q1] [all...] |
H A D | mve-vaddsubabd-bad-1.s | 4 \op\size q0, q1, \lastreg 11 vadd.p8 q0, q1, q2 12 vadd.f16 q0, q1, q2 13 vadd.f32 q0, q1, q2 14 vadd.i64 q0, q1, q2 16 vsub.p8 q0, q1, q2 17 vsub.f16 q0, q1, q2 18 vsub.f32 q0, q1, q2 19 vsub.i64 q0, q1, q2 21 vadd.p8 q0, q1, r [all...] |
H A D | mve-vadc-bad.s | 5 \mnem q0, q1, q2 13 vadc.i8 q0, q1, q2 14 vadc.i16 q0, q1, q2 15 vadc.i64 q0, q1, q2 16 vadc.f32 q0, q1, q2 17 vadci.i8 q0, q1, q2 18 vadci.i16 q0, q1, q2 19 vadci.i64 q0, q1, q2 20 vadci.f32 q0, q1, q2 22 vadceq.i32 q0, q1, q [all...] |
H A D | mve-vmul-bad-1.s | 4 vmul.i16 q0, q1, \lastreg 10 vmul.f16 q0, q1, q2 11 vmul.f16 q0, q1, r2 12 vmul.f32 q0, q1, q2 13 vmul.f32 q0, q1, r2 14 vmul.i64 q0, q1, q2 15 vmul.i64 q0, q1, r2 16 vmul.i8 q0, q1, pc 17 vmul.i8 q0, q1, sp 21 vmuleq.i32 q0, q1, q [all...] |
H A D | mve-vrev-bad.s | 4 \op\().8 q0, q1 10 vrev16.16 q0, q1 11 vrev32.32 q0, q1 12 vrev64.64 q0, q1 18 vrev16eq.8 q0, q1 19 vrev16eq.8 q0, q1 21 vrev16eq.8 q0, q1 22 vrev16t.8 q0, q1 24 vrev16.8 q0, q1 26 vrev32eq.8 q0, q1 [all...] |
H A D | mve-vmaxnmv-vminnmv-bad.s | 4 \op\().f16 r0, q1 10 vmaxnmv.f64 r0, q1 11 vmaxnmv.i16 r0, q1 12 vminnmv.f64 r0, q1 13 vminnmv.i16 r0, q1 14 vmaxnmav.f64 r0, q1 15 vmaxnmav.i16 r0, q1 16 vminnmav.f64 r0, q1 17 vminnmav.i16 r0, q1 18 vmaxnmv.f16 sp, q1 [all...] |
H A D | mve-vmaxv-vminv-bad.s | 4 \op\().s16 r0, q1 10 vmaxv.u64 r0, q1 11 vmaxv.f16 r0, q1 12 vminv.s64 r0, q1 13 vminv.f32 r0, q1 14 vmaxav.u16 r0, q1 15 vmaxav.f32 r0, q1 16 vminav.u32 r0, q1 17 vminav.f16 r0, q1 18 vmaxv.s32 sp, q1 [all...] |
H A D | mve-vqaddsub-bad.s | 4 \op\().s16 q0, q1, \lastop 10 vqadd.s64 q0, q1, q2 11 vqsub.u64 q0, q1, q2 12 vqadd.s64 q0, q1, r2 13 vqsub.s64 q0, q1, r2 14 vqadd.f32 q0, q1, q2 15 vqsub.f32 q0, q1, q2 16 vqadd.f32 q0, q1, r2 17 vqsub.f32 q0, q1, r2 18 vqadd.s16 q0, q1, s [all...] |
H A D | mve-vqdmulh-bad.s | 4 \op\().s16 q0, q1, \lastreg 10 vqdmulh.s64 q0, q1, q2 11 vqdmulh.u8 q0, q1, q2 12 vqrdmulh.s64 q0, q1, q2 13 vqrdmulh.u8 q0, q1, q2 14 vqdmulh.s64 q0, q1, r2 15 vqdmulh.u8 q0, q1, r2 16 vqrdmulh.s64 q0, q1, r2 17 vqrdmulh.u8 q0, q1, r2 18 vqdmulh.s8 q0, q1, s [all...] |
H A D | mve-vshrn-bad.s | 4 \op\().i32 q0, q1, #1 10 vshrnt.i64 q0, q1, #1 11 vshrnb.i64 q0, q1, #1 12 vrshrnt.i64 q0, q1, #1 13 vrshrnb.i64 q0, q1, #1 14 vshrnt.i16 q0, q1, #0 15 vshrnt.i16 q0, q1, #9 16 vshrnt.i32 q0, q1, #0 17 vshrnt.i32 q0, q1, #17 18 vshrnb.i16 q0, q1, # [all...] |
H A D | mve-vcmul-bad-1.s | 3 vcmul.f16 q0, q1, q2, #0 4 vcmul.f32 q0, q1, q2, #0 5 vcmul.i16 q0, q1, q2, #0
|
H A D | mve-vbrsr-bad.s | 4 vbrsr.16 q0, q1, r2 11 vbrsr.64 q0, q1, r2 12 vbrsr.32 q0, q1, q2 14 vbrsreq.32 q0, q1, r2 15 vbrsreq.32 q0, q1, r2 17 vbrsreq.32 q0, q1, r2 19 vbrsr.32 q0, q1, r2 20 vbrsrt.32 q0, q1, r2
|
H A D | mve-vclz-bad.s | 4 vclz.i32 q0, q1 10 vclz.f32 q0, q1 11 vclz.i64 q0, q1 14 vclzeq.i16 q0, q1 15 vclzeq.i16 q0, q1 17 vclzeq.i16 q0, q1 18 vclzt.i16 q0, q1 20 vclz.i16 q0, q1
|
H A D | mve-vqrshrn-bad.s | 10 vqrshrnt.s8 q0, q1, #1 11 vqrshrnt.s64 q0, q1, #1 12 vqrshrnt.s16 q0, q1, #0 13 vqrshrnt.s16 q0, q1, #9 14 vqrshrnt.s32 q0, q1, #0 15 vqrshrnt.s32 q0, q1, #17 16 vqrshrnb.s8 q0, q1, #1 17 vqrshrnb.s64 q0, q1, #1 18 vqrshrnb.s16 q0, q1, #0 19 vqrshrnb.s16 q0, q1, # [all...] |
H A D | mve-vmlsdav-bad.s | 4 \op\().s16 r0, q1, q2 10 vmlsdav.s16 r1, q1, q2 11 vmlsdav.u16 r0, q1, q2 17 vmlsdaveq.s16 r0, q1, q2 18 vmlsdaveq.s16 r0, q1, q2 20 vmlsdaveq.s16 r0, q1, q2 21 vmlsdavt.s16 r0, q1, q2 23 vmlsdav.s16 r0, q1, q2 25 vmlsdavaeq.s16 r0, q1, q2 26 vmlsdavaeq.s16 r0, q1, q [all...] |
H A D | mve-vmul-bad-2.s | 4 vmul.\size q0, q1, \lastreg 10 vmul.f64 q0, q1, q2 11 vmul.f64 q0, q1, r2 12 vmul.i64 q0, q1, q2 13 vmul.i64 q0, q1, r2 14 vmul.f16 q0, q1, pc 15 vmul.f16 q0, q1, pc 16 vmul.f16 q0, q1, sp 17 vmul.f16 q0, q1, sp 18 vmul.i32 q0, q1, p [all...] |
H A D | mve-vmullbt-bad.s | 4 \op\().s32 q0, q1, q2 13 vmullb.s64 q0, q1, q2 14 vmullb.f16 q0, q1, q2 15 vmullb.f32 q0, q1, q2 16 vmullb.s32 q1, q1, q2 17 vmullb.s32 q2, q1, q2 19 vmullt.s64 q0, q1, q2 20 vmullt.f16 q0, q1, q2 21 vmullt.f32 q0, q1, q [all...] |