mirror of
https://github.com/Motorhead1991/qemu.git
synced 2025-08-04 08:13:54 -06:00
target/arm: Implement MVE VADD (scalar)
Implement the scalar form of the MVE VADD insn. This takes the scalar operand from a general purpose register. Signed-off-by: Peter Maydell <peter.maydell@linaro.org> Reviewed-by: Richard Henderson <richard.henderson@linaro.org> Message-id: 20210617121628.20116-23-peter.maydell@linaro.org
This commit is contained in:
parent
3854874733
commit
e51896b386
4 changed files with 78 additions and 0 deletions
|
@ -145,6 +145,10 @@ DEF_HELPER_FLAGS_4(mve_vmulltub, TCG_CALL_NO_WG, void, env, ptr, ptr, ptr)
|
||||||
DEF_HELPER_FLAGS_4(mve_vmulltuh, TCG_CALL_NO_WG, void, env, ptr, ptr, ptr)
|
DEF_HELPER_FLAGS_4(mve_vmulltuh, TCG_CALL_NO_WG, void, env, ptr, ptr, ptr)
|
||||||
DEF_HELPER_FLAGS_4(mve_vmulltuw, TCG_CALL_NO_WG, void, env, ptr, ptr, ptr)
|
DEF_HELPER_FLAGS_4(mve_vmulltuw, TCG_CALL_NO_WG, void, env, ptr, ptr, ptr)
|
||||||
|
|
||||||
|
DEF_HELPER_FLAGS_4(mve_vadd_scalarb, TCG_CALL_NO_WG, void, env, ptr, ptr, i32)
|
||||||
|
DEF_HELPER_FLAGS_4(mve_vadd_scalarh, TCG_CALL_NO_WG, void, env, ptr, ptr, i32)
|
||||||
|
DEF_HELPER_FLAGS_4(mve_vadd_scalarw, TCG_CALL_NO_WG, void, env, ptr, ptr, i32)
|
||||||
|
|
||||||
DEF_HELPER_FLAGS_4(mve_vmlaldavsh, TCG_CALL_NO_WG, i64, env, ptr, ptr, i64)
|
DEF_HELPER_FLAGS_4(mve_vmlaldavsh, TCG_CALL_NO_WG, i64, env, ptr, ptr, i64)
|
||||||
DEF_HELPER_FLAGS_4(mve_vmlaldavsw, TCG_CALL_NO_WG, i64, env, ptr, ptr, i64)
|
DEF_HELPER_FLAGS_4(mve_vmlaldavsw, TCG_CALL_NO_WG, i64, env, ptr, ptr, i64)
|
||||||
DEF_HELPER_FLAGS_4(mve_vmlaldavxsh, TCG_CALL_NO_WG, i64, env, ptr, ptr, i64)
|
DEF_HELPER_FLAGS_4(mve_vmlaldavxsh, TCG_CALL_NO_WG, i64, env, ptr, ptr, i64)
|
||||||
|
|
|
@ -26,6 +26,7 @@
|
||||||
&vldr_vstr rn qd imm p a w size l u
|
&vldr_vstr rn qd imm p a w size l u
|
||||||
&1op qd qm size
|
&1op qd qm size
|
||||||
&2op qd qm qn size
|
&2op qd qm qn size
|
||||||
|
&2scalar qd qn rm size
|
||||||
|
|
||||||
@vldr_vstr ....... . . . . l:1 rn:4 ... ...... imm:7 &vldr_vstr qd=%qd u=0
|
@vldr_vstr ....... . . . . l:1 rn:4 ... ...... imm:7 &vldr_vstr qd=%qd u=0
|
||||||
# Note that both Rn and Qd are 3 bits only (no D bit)
|
# Note that both Rn and Qd are 3 bits only (no D bit)
|
||||||
|
@ -36,6 +37,8 @@
|
||||||
@2op .... .... .. size:2 .... .... .... .... .... &2op qd=%qd qm=%qm qn=%qn
|
@2op .... .... .. size:2 .... .... .... .... .... &2op qd=%qd qm=%qm qn=%qn
|
||||||
@2op_nosz .... .... .... .... .... .... .... .... &2op qd=%qd qm=%qm qn=%qn size=0
|
@2op_nosz .... .... .... .... .... .... .... .... &2op qd=%qd qm=%qm qn=%qn size=0
|
||||||
|
|
||||||
|
@2scalar .... .... .. size:2 .... .... .... .... rm:4 &2scalar qd=%qd qn=%qn
|
||||||
|
|
||||||
# Vector loads and stores
|
# Vector loads and stores
|
||||||
|
|
||||||
# Widening loads and narrowing stores:
|
# Widening loads and narrowing stores:
|
||||||
|
@ -154,3 +157,7 @@ VRMLALDAVH_S 1110 1110 1 ... ... 0 ... x:1 1111 . 0 a:1 0 ... 0 @vmlaldav_no
|
||||||
VRMLALDAVH_U 1111 1110 1 ... ... 0 ... x:1 1111 . 0 a:1 0 ... 0 @vmlaldav_nosz
|
VRMLALDAVH_U 1111 1110 1 ... ... 0 ... x:1 1111 . 0 a:1 0 ... 0 @vmlaldav_nosz
|
||||||
|
|
||||||
VRMLSLDAVH 1111 1110 1 ... ... 0 ... x:1 1110 . 0 a:1 0 ... 1 @vmlaldav_nosz
|
VRMLSLDAVH 1111 1110 1 ... ... 0 ... x:1 1110 . 0 a:1 0 ... 1 @vmlaldav_nosz
|
||||||
|
|
||||||
|
# Scalar operations
|
||||||
|
|
||||||
|
VADD_scalar 1110 1110 0 . .. ... 1 ... 0 1111 . 100 .... @2scalar
|
||||||
|
|
|
@ -491,6 +491,28 @@ DO_2OP_S(vhsubs, do_vhsub_s)
|
||||||
DO_2OP_U(vhsubu, do_vhsub_u)
|
DO_2OP_U(vhsubu, do_vhsub_u)
|
||||||
|
|
||||||
|
|
||||||
|
#define DO_2OP_SCALAR(OP, ESIZE, TYPE, FN) \
|
||||||
|
void HELPER(glue(mve_, OP))(CPUARMState *env, void *vd, void *vn, \
|
||||||
|
uint32_t rm) \
|
||||||
|
{ \
|
||||||
|
TYPE *d = vd, *n = vn; \
|
||||||
|
TYPE m = rm; \
|
||||||
|
uint16_t mask = mve_element_mask(env); \
|
||||||
|
unsigned e; \
|
||||||
|
for (e = 0; e < 16 / ESIZE; e++, mask >>= ESIZE) { \
|
||||||
|
mergemask(&d[H##ESIZE(e)], FN(n[H##ESIZE(e)], m), mask); \
|
||||||
|
} \
|
||||||
|
mve_advance_vpt(env); \
|
||||||
|
}
|
||||||
|
|
||||||
|
/* provide unsigned 2-op scalar helpers for all sizes */
|
||||||
|
#define DO_2OP_SCALAR_U(OP, FN) \
|
||||||
|
DO_2OP_SCALAR(OP##b, 1, uint8_t, FN) \
|
||||||
|
DO_2OP_SCALAR(OP##h, 2, uint16_t, FN) \
|
||||||
|
DO_2OP_SCALAR(OP##w, 4, uint32_t, FN)
|
||||||
|
|
||||||
|
DO_2OP_SCALAR_U(vadd_scalar, DO_ADD)
|
||||||
|
|
||||||
/*
|
/*
|
||||||
* Multiply add long dual accumulate ops.
|
* Multiply add long dual accumulate ops.
|
||||||
*/
|
*/
|
||||||
|
|
|
@ -31,6 +31,7 @@
|
||||||
typedef void MVEGenLdStFn(TCGv_ptr, TCGv_ptr, TCGv_i32);
|
typedef void MVEGenLdStFn(TCGv_ptr, TCGv_ptr, TCGv_i32);
|
||||||
typedef void MVEGenOneOpFn(TCGv_ptr, TCGv_ptr, TCGv_ptr);
|
typedef void MVEGenOneOpFn(TCGv_ptr, TCGv_ptr, TCGv_ptr);
|
||||||
typedef void MVEGenTwoOpFn(TCGv_ptr, TCGv_ptr, TCGv_ptr, TCGv_ptr);
|
typedef void MVEGenTwoOpFn(TCGv_ptr, TCGv_ptr, TCGv_ptr, TCGv_ptr);
|
||||||
|
typedef void MVEGenTwoOpScalarFn(TCGv_ptr, TCGv_ptr, TCGv_ptr, TCGv_i32);
|
||||||
typedef void MVEGenDualAccOpFn(TCGv_i64, TCGv_ptr, TCGv_ptr, TCGv_ptr, TCGv_i64);
|
typedef void MVEGenDualAccOpFn(TCGv_i64, TCGv_ptr, TCGv_ptr, TCGv_ptr, TCGv_i64);
|
||||||
|
|
||||||
/* Return the offset of a Qn register (same semantics as aa32_vfp_qreg()) */
|
/* Return the offset of a Qn register (same semantics as aa32_vfp_qreg()) */
|
||||||
|
@ -383,6 +384,50 @@ DO_2OP(VMULL_BU, vmullbu)
|
||||||
DO_2OP(VMULL_TS, vmullts)
|
DO_2OP(VMULL_TS, vmullts)
|
||||||
DO_2OP(VMULL_TU, vmulltu)
|
DO_2OP(VMULL_TU, vmulltu)
|
||||||
|
|
||||||
|
static bool do_2op_scalar(DisasContext *s, arg_2scalar *a,
|
||||||
|
MVEGenTwoOpScalarFn fn)
|
||||||
|
{
|
||||||
|
TCGv_ptr qd, qn;
|
||||||
|
TCGv_i32 rm;
|
||||||
|
|
||||||
|
if (!dc_isar_feature(aa32_mve, s) ||
|
||||||
|
!mve_check_qreg_bank(s, a->qd | a->qn) ||
|
||||||
|
!fn) {
|
||||||
|
return false;
|
||||||
|
}
|
||||||
|
if (a->rm == 13 || a->rm == 15) {
|
||||||
|
/* UNPREDICTABLE */
|
||||||
|
return false;
|
||||||
|
}
|
||||||
|
if (!mve_eci_check(s) || !vfp_access_check(s)) {
|
||||||
|
return true;
|
||||||
|
}
|
||||||
|
|
||||||
|
qd = mve_qreg_ptr(a->qd);
|
||||||
|
qn = mve_qreg_ptr(a->qn);
|
||||||
|
rm = load_reg(s, a->rm);
|
||||||
|
fn(cpu_env, qd, qn, rm);
|
||||||
|
tcg_temp_free_i32(rm);
|
||||||
|
tcg_temp_free_ptr(qd);
|
||||||
|
tcg_temp_free_ptr(qn);
|
||||||
|
mve_update_eci(s);
|
||||||
|
return true;
|
||||||
|
}
|
||||||
|
|
||||||
|
#define DO_2OP_SCALAR(INSN, FN) \
|
||||||
|
static bool trans_##INSN(DisasContext *s, arg_2scalar *a) \
|
||||||
|
{ \
|
||||||
|
static MVEGenTwoOpScalarFn * const fns[] = { \
|
||||||
|
gen_helper_mve_##FN##b, \
|
||||||
|
gen_helper_mve_##FN##h, \
|
||||||
|
gen_helper_mve_##FN##w, \
|
||||||
|
NULL, \
|
||||||
|
}; \
|
||||||
|
return do_2op_scalar(s, a, fns[a->size]); \
|
||||||
|
}
|
||||||
|
|
||||||
|
DO_2OP_SCALAR(VADD_scalar, vadd_scalar)
|
||||||
|
|
||||||
static bool do_long_dual_acc(DisasContext *s, arg_vmlaldav *a,
|
static bool do_long_dual_acc(DisasContext *s, arg_vmlaldav *a,
|
||||||
MVEGenDualAccOpFn *fn)
|
MVEGenDualAccOpFn *fn)
|
||||||
{
|
{
|
||||||
|
|
Loading…
Add table
Add a link
Reference in a new issue