mirror of
https://github.com/Motorhead1991/qemu.git
synced 2025-08-06 09:13:55 -06:00
target/arm: Implement MVE fp scalar comparisons
Implement the MVE fp scalar comparisons VCMP and VPT. Signed-off-by: Peter Maydell <peter.maydell@linaro.org> Reviewed-by: Richard Henderson <richard.henderson@linaro.org>
This commit is contained in:
parent
c87fe6d28c
commit
c2d8f6bb28
4 changed files with 131 additions and 24 deletions
|
@ -831,6 +831,24 @@ DEF_HELPER_FLAGS_3(mve_vfcmpgts, TCG_CALL_NO_WG, void, env, ptr, ptr)
|
||||||
DEF_HELPER_FLAGS_3(mve_vfcmpleh, TCG_CALL_NO_WG, void, env, ptr, ptr)
|
DEF_HELPER_FLAGS_3(mve_vfcmpleh, TCG_CALL_NO_WG, void, env, ptr, ptr)
|
||||||
DEF_HELPER_FLAGS_3(mve_vfcmples, TCG_CALL_NO_WG, void, env, ptr, ptr)
|
DEF_HELPER_FLAGS_3(mve_vfcmples, TCG_CALL_NO_WG, void, env, ptr, ptr)
|
||||||
|
|
||||||
|
DEF_HELPER_FLAGS_3(mve_vfcmpeq_scalarh, TCG_CALL_NO_WG, void, env, ptr, i32)
|
||||||
|
DEF_HELPER_FLAGS_3(mve_vfcmpeq_scalars, TCG_CALL_NO_WG, void, env, ptr, i32)
|
||||||
|
|
||||||
|
DEF_HELPER_FLAGS_3(mve_vfcmpne_scalarh, TCG_CALL_NO_WG, void, env, ptr, i32)
|
||||||
|
DEF_HELPER_FLAGS_3(mve_vfcmpne_scalars, TCG_CALL_NO_WG, void, env, ptr, i32)
|
||||||
|
|
||||||
|
DEF_HELPER_FLAGS_3(mve_vfcmpge_scalarh, TCG_CALL_NO_WG, void, env, ptr, i32)
|
||||||
|
DEF_HELPER_FLAGS_3(mve_vfcmpge_scalars, TCG_CALL_NO_WG, void, env, ptr, i32)
|
||||||
|
|
||||||
|
DEF_HELPER_FLAGS_3(mve_vfcmplt_scalarh, TCG_CALL_NO_WG, void, env, ptr, i32)
|
||||||
|
DEF_HELPER_FLAGS_3(mve_vfcmplt_scalars, TCG_CALL_NO_WG, void, env, ptr, i32)
|
||||||
|
|
||||||
|
DEF_HELPER_FLAGS_3(mve_vfcmpgt_scalarh, TCG_CALL_NO_WG, void, env, ptr, i32)
|
||||||
|
DEF_HELPER_FLAGS_3(mve_vfcmpgt_scalars, TCG_CALL_NO_WG, void, env, ptr, i32)
|
||||||
|
|
||||||
|
DEF_HELPER_FLAGS_3(mve_vfcmple_scalarh, TCG_CALL_NO_WG, void, env, ptr, i32)
|
||||||
|
DEF_HELPER_FLAGS_3(mve_vfcmple_scalars, TCG_CALL_NO_WG, void, env, ptr, i32)
|
||||||
|
|
||||||
DEF_HELPER_FLAGS_4(mve_vfadd_scalarh, TCG_CALL_NO_WG, void, env, ptr, ptr, i32)
|
DEF_HELPER_FLAGS_4(mve_vfadd_scalarh, TCG_CALL_NO_WG, void, env, ptr, ptr, i32)
|
||||||
DEF_HELPER_FLAGS_4(mve_vfadd_scalars, TCG_CALL_NO_WG, void, env, ptr, ptr, i32)
|
DEF_HELPER_FLAGS_4(mve_vfadd_scalars, TCG_CALL_NO_WG, void, env, ptr, ptr, i32)
|
||||||
|
|
||||||
|
|
|
@ -127,6 +127,11 @@
|
||||||
@vcmp_fp .... .... .... qn:3 . .... .... .... .... &vcmp \
|
@vcmp_fp .... .... .... qn:3 . .... .... .... .... &vcmp \
|
||||||
qm=%qm size=%2op_fp_scalar_size mask=%mask_22_13
|
qm=%qm size=%2op_fp_scalar_size mask=%mask_22_13
|
||||||
|
|
||||||
|
# Bit 28 is a 2op_fp_scalar_size bit, but we do not decode it in this
|
||||||
|
# format to avoid complicated overlapping-instruction-groups
|
||||||
|
@vcmp_fp_scalar .... .... .... qn:3 . .... .... .... rm:4 &vcmp_scalar \
|
||||||
|
mask=%mask_22_13
|
||||||
|
|
||||||
@vmaxv .... .... .... size:2 .. rda:4 .... .... .... &vmaxv qm=%qm
|
@vmaxv .... .... .... size:2 .. rda:4 .... .... .... &vmaxv qm=%qm
|
||||||
|
|
||||||
@2op_fp .... .... .... .... .... .... .... .... &2op \
|
@2op_fp .... .... .... .... .... .... .... .... &2op \
|
||||||
|
@ -400,8 +405,10 @@ VDUP 1110 1110 1 0 10 ... 0 .... 1011 . 0 0 1 0000 @vdup size=2
|
||||||
VIWDUP 1110 1110 0 . .. ... 1 ... 0 1111 . 110 ... . @viwdup
|
VIWDUP 1110 1110 0 . .. ... 1 ... 0 1111 . 110 ... . @viwdup
|
||||||
}
|
}
|
||||||
{
|
{
|
||||||
VDDUP 1110 1110 0 . .. ... 1 ... 1 1111 . 110 111 . @vidup
|
VCMPGT_fp_scalar 1110 1110 0 . 11 ... 1 ... 1 1111 0110 .... @vcmp_fp_scalar size=2
|
||||||
VDWDUP 1110 1110 0 . .. ... 1 ... 1 1111 . 110 ... . @viwdup
|
VCMPLE_fp_scalar 1110 1110 0 . 11 ... 1 ... 1 1111 1110 .... @vcmp_fp_scalar size=2
|
||||||
|
VDDUP 1110 1110 0 . .. ... 1 ... 1 1111 . 110 111 . @vidup
|
||||||
|
VDWDUP 1110 1110 0 . .. ... 1 ... 1 1111 . 110 ... . @viwdup
|
||||||
}
|
}
|
||||||
|
|
||||||
# multiply-add long dual accumulate
|
# multiply-add long dual accumulate
|
||||||
|
@ -480,8 +487,17 @@ VMLADAV_U 1111 1110 1111 ... 0 ... . 1111 . 0 . 0 ... 1 @vmladav_nosz
|
||||||
|
|
||||||
# Scalar operations
|
# Scalar operations
|
||||||
|
|
||||||
VADD_scalar 1110 1110 0 . .. ... 1 ... 0 1111 . 100 .... @2scalar
|
{
|
||||||
VSUB_scalar 1110 1110 0 . .. ... 1 ... 1 1111 . 100 .... @2scalar
|
VCMPEQ_fp_scalar 1110 1110 0 . 11 ... 1 ... 0 1111 0100 .... @vcmp_fp_scalar size=2
|
||||||
|
VCMPNE_fp_scalar 1110 1110 0 . 11 ... 1 ... 0 1111 1100 .... @vcmp_fp_scalar size=2
|
||||||
|
VADD_scalar 1110 1110 0 . .. ... 1 ... 0 1111 . 100 .... @2scalar
|
||||||
|
}
|
||||||
|
|
||||||
|
{
|
||||||
|
VCMPLT_fp_scalar 1110 1110 0 . 11 ... 1 ... 1 1111 1100 .... @vcmp_fp_scalar size=2
|
||||||
|
VCMPGE_fp_scalar 1110 1110 0 . 11 ... 1 ... 1 1111 0100 .... @vcmp_fp_scalar size=2
|
||||||
|
VSUB_scalar 1110 1110 0 . .. ... 1 ... 1 1111 . 100 .... @2scalar
|
||||||
|
}
|
||||||
|
|
||||||
{
|
{
|
||||||
VSHL_S_scalar 1110 1110 0 . 11 .. 01 ... 1 1110 0110 .... @shl_scalar
|
VSHL_S_scalar 1110 1110 0 . 11 .. 01 ... 1 1110 0110 .... @shl_scalar
|
||||||
|
@ -711,17 +727,38 @@ VSHLC 111 0 1110 1 . 1 imm:5 ... 0 1111 1100 rdm:4 qd=%qd
|
||||||
}
|
}
|
||||||
|
|
||||||
{
|
{
|
||||||
VPNOT 1111 1110 0 0 11 000 1 000 0 1111 0100 1101
|
VPNOT 1111 1110 0 0 11 000 1 000 0 1111 0100 1101
|
||||||
VPST 1111 1110 0 . 11 000 1 ... 0 1111 0100 1101 mask=%mask_22_13
|
VPST 1111 1110 0 . 11 000 1 ... 0 1111 0100 1101 mask=%mask_22_13
|
||||||
VCMPEQ_scalar 1111 1110 0 . .. ... 1 ... 0 1111 0 1 0 0 .... @vcmp_scalar
|
VCMPEQ_fp_scalar 1111 1110 0 . 11 ... 1 ... 0 1111 0100 .... @vcmp_fp_scalar size=1
|
||||||
|
VCMPEQ_scalar 1111 1110 0 . .. ... 1 ... 0 1111 0100 .... @vcmp_scalar
|
||||||
}
|
}
|
||||||
VCMPNE_scalar 1111 1110 0 . .. ... 1 ... 0 1111 1 1 0 0 .... @vcmp_scalar
|
|
||||||
|
{
|
||||||
|
VCMPNE_fp_scalar 1111 1110 0 . 11 ... 1 ... 0 1111 1100 .... @vcmp_fp_scalar size=1
|
||||||
|
VCMPNE_scalar 1111 1110 0 . .. ... 1 ... 0 1111 1100 .... @vcmp_scalar
|
||||||
|
}
|
||||||
|
|
||||||
|
{
|
||||||
|
VCMPGT_fp_scalar 1111 1110 0 . 11 ... 1 ... 1 1111 0110 .... @vcmp_fp_scalar size=1
|
||||||
|
VCMPGT_scalar 1111 1110 0 . .. ... 1 ... 1 1111 0110 .... @vcmp_scalar
|
||||||
|
}
|
||||||
|
|
||||||
|
{
|
||||||
|
VCMPLE_fp_scalar 1111 1110 0 . 11 ... 1 ... 1 1111 1110 .... @vcmp_fp_scalar size=1
|
||||||
|
VCMPLE_scalar 1111 1110 0 . .. ... 1 ... 1 1111 1110 .... @vcmp_scalar
|
||||||
|
}
|
||||||
|
|
||||||
|
{
|
||||||
|
VCMPGE_fp_scalar 1111 1110 0 . 11 ... 1 ... 1 1111 0100 .... @vcmp_fp_scalar size=1
|
||||||
|
VCMPGE_scalar 1111 1110 0 . .. ... 1 ... 1 1111 0100 .... @vcmp_scalar
|
||||||
|
}
|
||||||
|
{
|
||||||
|
VCMPLT_fp_scalar 1111 1110 0 . 11 ... 1 ... 1 1111 1100 .... @vcmp_fp_scalar size=1
|
||||||
|
VCMPLT_scalar 1111 1110 0 . .. ... 1 ... 1 1111 1100 .... @vcmp_scalar
|
||||||
|
}
|
||||||
|
|
||||||
VCMPCS_scalar 1111 1110 0 . .. ... 1 ... 0 1111 0 1 1 0 .... @vcmp_scalar
|
VCMPCS_scalar 1111 1110 0 . .. ... 1 ... 0 1111 0 1 1 0 .... @vcmp_scalar
|
||||||
VCMPHI_scalar 1111 1110 0 . .. ... 1 ... 0 1111 1 1 1 0 .... @vcmp_scalar
|
VCMPHI_scalar 1111 1110 0 . .. ... 1 ... 0 1111 1 1 1 0 .... @vcmp_scalar
|
||||||
VCMPGE_scalar 1111 1110 0 . .. ... 1 ... 1 1111 0 1 0 0 .... @vcmp_scalar
|
|
||||||
VCMPLT_scalar 1111 1110 0 . .. ... 1 ... 1 1111 1 1 0 0 .... @vcmp_scalar
|
|
||||||
VCMPGT_scalar 1111 1110 0 . .. ... 1 ... 1 1111 0 1 1 0 .... @vcmp_scalar
|
|
||||||
VCMPLE_scalar 1111 1110 0 . .. ... 1 ... 1 1111 1 1 1 0 .... @vcmp_scalar
|
|
||||||
|
|
||||||
# 2-operand FP
|
# 2-operand FP
|
||||||
VADD_fp 1110 1111 0 . 0 . ... 0 ... 0 1101 . 1 . 0 ... 0 @2op_fp
|
VADD_fp 1110 1111 0 . 0 . ... 0 ... 0 1101 . 1 . 0 ... 0 @2op_fp
|
||||||
|
|
|
@ -3191,6 +3191,44 @@ DO_FP_VMAXMINV(vminnmavs, 4, float32, true, float32_minnum)
|
||||||
mve_advance_vpt(env); \
|
mve_advance_vpt(env); \
|
||||||
}
|
}
|
||||||
|
|
||||||
|
#define DO_VCMP_FP_SCALAR(OP, ESIZE, TYPE, FN) \
|
||||||
|
void HELPER(glue(mve_, OP))(CPUARMState *env, void *vn, \
|
||||||
|
uint32_t rm) \
|
||||||
|
{ \
|
||||||
|
TYPE *n = vn; \
|
||||||
|
uint16_t mask = mve_element_mask(env); \
|
||||||
|
uint16_t eci_mask = mve_eci_mask(env); \
|
||||||
|
uint16_t beatpred = 0; \
|
||||||
|
uint16_t emask = MAKE_64BIT_MASK(0, ESIZE); \
|
||||||
|
unsigned e; \
|
||||||
|
float_status *fpst; \
|
||||||
|
float_status scratch_fpst; \
|
||||||
|
bool r; \
|
||||||
|
for (e = 0; e < 16 / ESIZE; e++, emask <<= ESIZE) { \
|
||||||
|
if ((mask & emask) == 0) { \
|
||||||
|
continue; \
|
||||||
|
} \
|
||||||
|
fpst = (ESIZE == 2) ? &env->vfp.standard_fp_status_f16 : \
|
||||||
|
&env->vfp.standard_fp_status; \
|
||||||
|
if (!(mask & (1 << (e * ESIZE)))) { \
|
||||||
|
/* We need the result but without updating flags */ \
|
||||||
|
scratch_fpst = *fpst; \
|
||||||
|
fpst = &scratch_fpst; \
|
||||||
|
} \
|
||||||
|
r = FN(n[H##ESIZE(e)], (TYPE)rm, fpst); \
|
||||||
|
/* Comparison sets 0/1 bits for each byte in the element */ \
|
||||||
|
beatpred |= r * emask; \
|
||||||
|
} \
|
||||||
|
beatpred &= mask; \
|
||||||
|
env->v7m.vpr = (env->v7m.vpr & ~(uint32_t)eci_mask) | \
|
||||||
|
(beatpred & eci_mask); \
|
||||||
|
mve_advance_vpt(env); \
|
||||||
|
}
|
||||||
|
|
||||||
|
#define DO_VCMP_FP_BOTH(VOP, SOP, ESIZE, TYPE, FN) \
|
||||||
|
DO_VCMP_FP(VOP, ESIZE, TYPE, FN) \
|
||||||
|
DO_VCMP_FP_SCALAR(SOP, ESIZE, TYPE, FN)
|
||||||
|
|
||||||
/*
|
/*
|
||||||
* Some care is needed here to get the correct result for the unordered case.
|
* Some care is needed here to get the correct result for the unordered case.
|
||||||
* Architecturally EQ, GE and GT are defined to be false for unordered, but
|
* Architecturally EQ, GE and GT are defined to be false for unordered, but
|
||||||
|
@ -3203,20 +3241,20 @@ DO_FP_VMAXMINV(vminnmavs, 4, float32, true, float32_minnum)
|
||||||
#define DO_GT16(X, Y, S) float16_lt(Y, X, S)
|
#define DO_GT16(X, Y, S) float16_lt(Y, X, S)
|
||||||
#define DO_GT32(X, Y, S) float32_lt(Y, X, S)
|
#define DO_GT32(X, Y, S) float32_lt(Y, X, S)
|
||||||
|
|
||||||
DO_VCMP_FP(vfcmpeqh, 2, float16, float16_eq)
|
DO_VCMP_FP_BOTH(vfcmpeqh, vfcmpeq_scalarh, 2, float16, float16_eq)
|
||||||
DO_VCMP_FP(vfcmpeqs, 4, float32, float32_eq)
|
DO_VCMP_FP_BOTH(vfcmpeqs, vfcmpeq_scalars, 4, float32, float32_eq)
|
||||||
|
|
||||||
DO_VCMP_FP(vfcmpneh, 2, float16, !float16_eq)
|
DO_VCMP_FP_BOTH(vfcmpneh, vfcmpne_scalarh, 2, float16, !float16_eq)
|
||||||
DO_VCMP_FP(vfcmpnes, 4, float32, !float32_eq)
|
DO_VCMP_FP_BOTH(vfcmpnes, vfcmpne_scalars, 4, float32, !float32_eq)
|
||||||
|
|
||||||
DO_VCMP_FP(vfcmpgeh, 2, float16, DO_GE16)
|
DO_VCMP_FP_BOTH(vfcmpgeh, vfcmpge_scalarh, 2, float16, DO_GE16)
|
||||||
DO_VCMP_FP(vfcmpges, 4, float32, DO_GE32)
|
DO_VCMP_FP_BOTH(vfcmpges, vfcmpge_scalars, 4, float32, DO_GE32)
|
||||||
|
|
||||||
DO_VCMP_FP(vfcmplth, 2, float16, !DO_GE16)
|
DO_VCMP_FP_BOTH(vfcmplth, vfcmplt_scalarh, 2, float16, !DO_GE16)
|
||||||
DO_VCMP_FP(vfcmplts, 4, float32, !DO_GE32)
|
DO_VCMP_FP_BOTH(vfcmplts, vfcmplt_scalars, 4, float32, !DO_GE32)
|
||||||
|
|
||||||
DO_VCMP_FP(vfcmpgth, 2, float16, DO_GT16)
|
DO_VCMP_FP_BOTH(vfcmpgth, vfcmpgt_scalarh, 2, float16, DO_GT16)
|
||||||
DO_VCMP_FP(vfcmpgts, 4, float32, DO_GT32)
|
DO_VCMP_FP_BOTH(vfcmpgts, vfcmpgt_scalars, 4, float32, DO_GT32)
|
||||||
|
|
||||||
DO_VCMP_FP(vfcmpleh, 2, float16, !DO_GT16)
|
DO_VCMP_FP_BOTH(vfcmpleh, vfcmple_scalarh, 2, float16, !DO_GT16)
|
||||||
DO_VCMP_FP(vfcmples, 4, float32, !DO_GT32)
|
DO_VCMP_FP_BOTH(vfcmples, vfcmple_scalars, 4, float32, !DO_GT32)
|
||||||
|
|
|
@ -1771,6 +1771,20 @@ DO_VCMP(VCMPLE, vcmple)
|
||||||
return false; \
|
return false; \
|
||||||
} \
|
} \
|
||||||
return do_vcmp(s, a, fns[a->size]); \
|
return do_vcmp(s, a, fns[a->size]); \
|
||||||
|
} \
|
||||||
|
static bool trans_##INSN##_scalar(DisasContext *s, \
|
||||||
|
arg_vcmp_scalar *a) \
|
||||||
|
{ \
|
||||||
|
static MVEGenScalarCmpFn * const fns[] = { \
|
||||||
|
NULL, \
|
||||||
|
gen_helper_mve_##FN##_scalarh, \
|
||||||
|
gen_helper_mve_##FN##_scalars, \
|
||||||
|
NULL, \
|
||||||
|
}; \
|
||||||
|
if (!dc_isar_feature(aa32_mve_fp, s)) { \
|
||||||
|
return false; \
|
||||||
|
} \
|
||||||
|
return do_vcmp_scalar(s, a, fns[a->size]); \
|
||||||
}
|
}
|
||||||
|
|
||||||
DO_VCMP_FP(VCMPEQ_fp, vfcmpeq)
|
DO_VCMP_FP(VCMPEQ_fp, vfcmpeq)
|
||||||
|
|
Loading…
Add table
Add a link
Reference in a new issue