mirror of
https://github.com/Motorhead1991/qemu.git
synced 2025-07-27 12:23:53 -06:00
accel/tcg: Implement helper_{ld,st}*_mmu for user-only
TCG backends may need to defer to a helper to implement the atomicity required by a given operation. Mirror the interface used in system mode. Reviewed-by: Peter Maydell <peter.maydell@linaro.org> Signed-off-by: Richard Henderson <richard.henderson@linaro.org>
This commit is contained in:
parent
0cadc1eda1
commit
de95016dfb
3 changed files with 278 additions and 127 deletions
|
@ -889,21 +889,6 @@ void page_reset_target_data(target_ulong start, target_ulong last) { }
|
||||||
|
|
||||||
/* The softmmu versions of these helpers are in cputlb.c. */
|
/* The softmmu versions of these helpers are in cputlb.c. */
|
||||||
|
|
||||||
/*
|
|
||||||
* Verify that we have passed the correct MemOp to the correct function.
|
|
||||||
*
|
|
||||||
* We could present one function to target code, and dispatch based on
|
|
||||||
* the MemOp, but so far we have worked hard to avoid an indirect function
|
|
||||||
* call along the memory path.
|
|
||||||
*/
|
|
||||||
static void validate_memop(MemOpIdx oi, MemOp expected)
|
|
||||||
{
|
|
||||||
#ifdef CONFIG_DEBUG_TCG
|
|
||||||
MemOp have = get_memop(oi) & (MO_SIZE | MO_BSWAP);
|
|
||||||
assert(have == expected);
|
|
||||||
#endif
|
|
||||||
}
|
|
||||||
|
|
||||||
void helper_unaligned_ld(CPUArchState *env, target_ulong addr)
|
void helper_unaligned_ld(CPUArchState *env, target_ulong addr)
|
||||||
{
|
{
|
||||||
cpu_loop_exit_sigbus(env_cpu(env), addr, MMU_DATA_LOAD, GETPC());
|
cpu_loop_exit_sigbus(env_cpu(env), addr, MMU_DATA_LOAD, GETPC());
|
||||||
|
@ -914,10 +899,9 @@ void helper_unaligned_st(CPUArchState *env, target_ulong addr)
|
||||||
cpu_loop_exit_sigbus(env_cpu(env), addr, MMU_DATA_STORE, GETPC());
|
cpu_loop_exit_sigbus(env_cpu(env), addr, MMU_DATA_STORE, GETPC());
|
||||||
}
|
}
|
||||||
|
|
||||||
static void *cpu_mmu_lookup(CPUArchState *env, target_ulong addr,
|
static void *cpu_mmu_lookup(CPUArchState *env, abi_ptr addr,
|
||||||
MemOpIdx oi, uintptr_t ra, MMUAccessType type)
|
MemOp mop, uintptr_t ra, MMUAccessType type)
|
||||||
{
|
{
|
||||||
MemOp mop = get_memop(oi);
|
|
||||||
int a_bits = get_alignment_bits(mop);
|
int a_bits = get_alignment_bits(mop);
|
||||||
void *ret;
|
void *ret;
|
||||||
|
|
||||||
|
@ -933,100 +917,206 @@ static void *cpu_mmu_lookup(CPUArchState *env, target_ulong addr,
|
||||||
|
|
||||||
#include "ldst_atomicity.c.inc"
|
#include "ldst_atomicity.c.inc"
|
||||||
|
|
||||||
uint8_t cpu_ldb_mmu(CPUArchState *env, abi_ptr addr,
|
static uint8_t do_ld1_mmu(CPUArchState *env, abi_ptr addr,
|
||||||
MemOpIdx oi, uintptr_t ra)
|
MemOp mop, uintptr_t ra)
|
||||||
{
|
{
|
||||||
void *haddr;
|
void *haddr;
|
||||||
uint8_t ret;
|
uint8_t ret;
|
||||||
|
|
||||||
validate_memop(oi, MO_UB);
|
tcg_debug_assert((mop & MO_SIZE) == MO_8);
|
||||||
haddr = cpu_mmu_lookup(env, addr, oi, ra, MMU_DATA_LOAD);
|
haddr = cpu_mmu_lookup(env, addr, mop, ra, MMU_DATA_LOAD);
|
||||||
ret = ldub_p(haddr);
|
ret = ldub_p(haddr);
|
||||||
clear_helper_retaddr();
|
clear_helper_retaddr();
|
||||||
|
return ret;
|
||||||
|
}
|
||||||
|
|
||||||
|
tcg_target_ulong helper_ldub_mmu(CPUArchState *env, target_ulong addr,
|
||||||
|
MemOpIdx oi, uintptr_t ra)
|
||||||
|
{
|
||||||
|
return do_ld1_mmu(env, addr, get_memop(oi), ra);
|
||||||
|
}
|
||||||
|
|
||||||
|
tcg_target_ulong helper_ldsb_mmu(CPUArchState *env, target_ulong addr,
|
||||||
|
MemOpIdx oi, uintptr_t ra)
|
||||||
|
{
|
||||||
|
return (int8_t)do_ld1_mmu(env, addr, get_memop(oi), ra);
|
||||||
|
}
|
||||||
|
|
||||||
|
uint8_t cpu_ldb_mmu(CPUArchState *env, abi_ptr addr,
|
||||||
|
MemOpIdx oi, uintptr_t ra)
|
||||||
|
{
|
||||||
|
uint8_t ret = do_ld1_mmu(env, addr, get_memop(oi), ra);
|
||||||
qemu_plugin_vcpu_mem_cb(env_cpu(env), addr, oi, QEMU_PLUGIN_MEM_R);
|
qemu_plugin_vcpu_mem_cb(env_cpu(env), addr, oi, QEMU_PLUGIN_MEM_R);
|
||||||
return ret;
|
return ret;
|
||||||
}
|
}
|
||||||
|
|
||||||
|
static uint16_t do_ld2_he_mmu(CPUArchState *env, abi_ptr addr,
|
||||||
|
MemOp mop, uintptr_t ra)
|
||||||
|
{
|
||||||
|
void *haddr;
|
||||||
|
uint16_t ret;
|
||||||
|
|
||||||
|
tcg_debug_assert((mop & MO_SIZE) == MO_16);
|
||||||
|
haddr = cpu_mmu_lookup(env, addr, mop, ra, MMU_DATA_LOAD);
|
||||||
|
ret = load_atom_2(env, ra, haddr, mop);
|
||||||
|
clear_helper_retaddr();
|
||||||
|
return ret;
|
||||||
|
}
|
||||||
|
|
||||||
|
tcg_target_ulong helper_lduw_mmu(CPUArchState *env, target_ulong addr,
|
||||||
|
MemOpIdx oi, uintptr_t ra)
|
||||||
|
{
|
||||||
|
MemOp mop = get_memop(oi);
|
||||||
|
uint16_t ret = do_ld2_he_mmu(env, addr, mop, ra);
|
||||||
|
|
||||||
|
if (mop & MO_BSWAP) {
|
||||||
|
ret = bswap16(ret);
|
||||||
|
}
|
||||||
|
return ret;
|
||||||
|
}
|
||||||
|
|
||||||
|
tcg_target_ulong helper_ldsw_mmu(CPUArchState *env, target_ulong addr,
|
||||||
|
MemOpIdx oi, uintptr_t ra)
|
||||||
|
{
|
||||||
|
MemOp mop = get_memop(oi);
|
||||||
|
int16_t ret = do_ld2_he_mmu(env, addr, mop, ra);
|
||||||
|
|
||||||
|
if (mop & MO_BSWAP) {
|
||||||
|
ret = bswap16(ret);
|
||||||
|
}
|
||||||
|
return ret;
|
||||||
|
}
|
||||||
|
|
||||||
uint16_t cpu_ldw_be_mmu(CPUArchState *env, abi_ptr addr,
|
uint16_t cpu_ldw_be_mmu(CPUArchState *env, abi_ptr addr,
|
||||||
MemOpIdx oi, uintptr_t ra)
|
MemOpIdx oi, uintptr_t ra)
|
||||||
{
|
{
|
||||||
void *haddr;
|
MemOp mop = get_memop(oi);
|
||||||
uint16_t ret;
|
uint16_t ret;
|
||||||
|
|
||||||
validate_memop(oi, MO_BEUW);
|
tcg_debug_assert((mop & MO_BSWAP) == MO_BE);
|
||||||
haddr = cpu_mmu_lookup(env, addr, oi, ra, MMU_DATA_LOAD);
|
ret = do_ld2_he_mmu(env, addr, mop, ra);
|
||||||
ret = load_atom_2(env, ra, haddr, get_memop(oi));
|
|
||||||
clear_helper_retaddr();
|
|
||||||
qemu_plugin_vcpu_mem_cb(env_cpu(env), addr, oi, QEMU_PLUGIN_MEM_R);
|
qemu_plugin_vcpu_mem_cb(env_cpu(env), addr, oi, QEMU_PLUGIN_MEM_R);
|
||||||
return cpu_to_be16(ret);
|
return cpu_to_be16(ret);
|
||||||
}
|
}
|
||||||
|
|
||||||
uint32_t cpu_ldl_be_mmu(CPUArchState *env, abi_ptr addr,
|
|
||||||
MemOpIdx oi, uintptr_t ra)
|
|
||||||
{
|
|
||||||
void *haddr;
|
|
||||||
uint32_t ret;
|
|
||||||
|
|
||||||
validate_memop(oi, MO_BEUL);
|
|
||||||
haddr = cpu_mmu_lookup(env, addr, oi, ra, MMU_DATA_LOAD);
|
|
||||||
ret = load_atom_4(env, ra, haddr, get_memop(oi));
|
|
||||||
clear_helper_retaddr();
|
|
||||||
qemu_plugin_vcpu_mem_cb(env_cpu(env), addr, oi, QEMU_PLUGIN_MEM_R);
|
|
||||||
return cpu_to_be32(ret);
|
|
||||||
}
|
|
||||||
|
|
||||||
uint64_t cpu_ldq_be_mmu(CPUArchState *env, abi_ptr addr,
|
|
||||||
MemOpIdx oi, uintptr_t ra)
|
|
||||||
{
|
|
||||||
void *haddr;
|
|
||||||
uint64_t ret;
|
|
||||||
|
|
||||||
validate_memop(oi, MO_BEUQ);
|
|
||||||
haddr = cpu_mmu_lookup(env, addr, oi, ra, MMU_DATA_LOAD);
|
|
||||||
ret = load_atom_8(env, ra, haddr, get_memop(oi));
|
|
||||||
clear_helper_retaddr();
|
|
||||||
qemu_plugin_vcpu_mem_cb(env_cpu(env), addr, oi, QEMU_PLUGIN_MEM_R);
|
|
||||||
return cpu_to_be64(ret);
|
|
||||||
}
|
|
||||||
|
|
||||||
uint16_t cpu_ldw_le_mmu(CPUArchState *env, abi_ptr addr,
|
uint16_t cpu_ldw_le_mmu(CPUArchState *env, abi_ptr addr,
|
||||||
MemOpIdx oi, uintptr_t ra)
|
MemOpIdx oi, uintptr_t ra)
|
||||||
{
|
{
|
||||||
void *haddr;
|
MemOp mop = get_memop(oi);
|
||||||
uint16_t ret;
|
uint16_t ret;
|
||||||
|
|
||||||
validate_memop(oi, MO_LEUW);
|
tcg_debug_assert((mop & MO_BSWAP) == MO_LE);
|
||||||
haddr = cpu_mmu_lookup(env, addr, oi, ra, MMU_DATA_LOAD);
|
ret = do_ld2_he_mmu(env, addr, mop, ra);
|
||||||
ret = load_atom_2(env, ra, haddr, get_memop(oi));
|
|
||||||
clear_helper_retaddr();
|
|
||||||
qemu_plugin_vcpu_mem_cb(env_cpu(env), addr, oi, QEMU_PLUGIN_MEM_R);
|
qemu_plugin_vcpu_mem_cb(env_cpu(env), addr, oi, QEMU_PLUGIN_MEM_R);
|
||||||
return cpu_to_le16(ret);
|
return cpu_to_le16(ret);
|
||||||
}
|
}
|
||||||
|
|
||||||
|
static uint32_t do_ld4_he_mmu(CPUArchState *env, abi_ptr addr,
|
||||||
|
MemOp mop, uintptr_t ra)
|
||||||
|
{
|
||||||
|
void *haddr;
|
||||||
|
uint32_t ret;
|
||||||
|
|
||||||
|
tcg_debug_assert((mop & MO_SIZE) == MO_32);
|
||||||
|
haddr = cpu_mmu_lookup(env, addr, mop, ra, MMU_DATA_LOAD);
|
||||||
|
ret = load_atom_4(env, ra, haddr, mop);
|
||||||
|
clear_helper_retaddr();
|
||||||
|
return ret;
|
||||||
|
}
|
||||||
|
|
||||||
|
tcg_target_ulong helper_ldul_mmu(CPUArchState *env, target_ulong addr,
|
||||||
|
MemOpIdx oi, uintptr_t ra)
|
||||||
|
{
|
||||||
|
MemOp mop = get_memop(oi);
|
||||||
|
uint32_t ret = do_ld4_he_mmu(env, addr, mop, ra);
|
||||||
|
|
||||||
|
if (mop & MO_BSWAP) {
|
||||||
|
ret = bswap32(ret);
|
||||||
|
}
|
||||||
|
return ret;
|
||||||
|
}
|
||||||
|
|
||||||
|
tcg_target_ulong helper_ldsl_mmu(CPUArchState *env, target_ulong addr,
|
||||||
|
MemOpIdx oi, uintptr_t ra)
|
||||||
|
{
|
||||||
|
MemOp mop = get_memop(oi);
|
||||||
|
int32_t ret = do_ld4_he_mmu(env, addr, mop, ra);
|
||||||
|
|
||||||
|
if (mop & MO_BSWAP) {
|
||||||
|
ret = bswap32(ret);
|
||||||
|
}
|
||||||
|
return ret;
|
||||||
|
}
|
||||||
|
|
||||||
|
uint32_t cpu_ldl_be_mmu(CPUArchState *env, abi_ptr addr,
|
||||||
|
MemOpIdx oi, uintptr_t ra)
|
||||||
|
{
|
||||||
|
MemOp mop = get_memop(oi);
|
||||||
|
uint32_t ret;
|
||||||
|
|
||||||
|
tcg_debug_assert((mop & MO_BSWAP) == MO_BE);
|
||||||
|
ret = do_ld4_he_mmu(env, addr, mop, ra);
|
||||||
|
qemu_plugin_vcpu_mem_cb(env_cpu(env), addr, oi, QEMU_PLUGIN_MEM_R);
|
||||||
|
return cpu_to_be32(ret);
|
||||||
|
}
|
||||||
|
|
||||||
uint32_t cpu_ldl_le_mmu(CPUArchState *env, abi_ptr addr,
|
uint32_t cpu_ldl_le_mmu(CPUArchState *env, abi_ptr addr,
|
||||||
MemOpIdx oi, uintptr_t ra)
|
MemOpIdx oi, uintptr_t ra)
|
||||||
{
|
{
|
||||||
void *haddr;
|
MemOp mop = get_memop(oi);
|
||||||
uint32_t ret;
|
uint32_t ret;
|
||||||
|
|
||||||
validate_memop(oi, MO_LEUL);
|
tcg_debug_assert((mop & MO_BSWAP) == MO_LE);
|
||||||
haddr = cpu_mmu_lookup(env, addr, oi, ra, MMU_DATA_LOAD);
|
ret = do_ld4_he_mmu(env, addr, mop, ra);
|
||||||
ret = load_atom_4(env, ra, haddr, get_memop(oi));
|
|
||||||
clear_helper_retaddr();
|
|
||||||
qemu_plugin_vcpu_mem_cb(env_cpu(env), addr, oi, QEMU_PLUGIN_MEM_R);
|
qemu_plugin_vcpu_mem_cb(env_cpu(env), addr, oi, QEMU_PLUGIN_MEM_R);
|
||||||
return cpu_to_le32(ret);
|
return cpu_to_le32(ret);
|
||||||
}
|
}
|
||||||
|
|
||||||
|
static uint64_t do_ld8_he_mmu(CPUArchState *env, abi_ptr addr,
|
||||||
|
MemOp mop, uintptr_t ra)
|
||||||
|
{
|
||||||
|
void *haddr;
|
||||||
|
uint64_t ret;
|
||||||
|
|
||||||
|
tcg_debug_assert((mop & MO_SIZE) == MO_64);
|
||||||
|
haddr = cpu_mmu_lookup(env, addr, mop, ra, MMU_DATA_LOAD);
|
||||||
|
ret = load_atom_8(env, ra, haddr, mop);
|
||||||
|
clear_helper_retaddr();
|
||||||
|
return ret;
|
||||||
|
}
|
||||||
|
|
||||||
|
uint64_t helper_ldq_mmu(CPUArchState *env, target_ulong addr,
|
||||||
|
MemOpIdx oi, uintptr_t ra)
|
||||||
|
{
|
||||||
|
MemOp mop = get_memop(oi);
|
||||||
|
uint64_t ret = do_ld8_he_mmu(env, addr, mop, ra);
|
||||||
|
|
||||||
|
if (mop & MO_BSWAP) {
|
||||||
|
ret = bswap64(ret);
|
||||||
|
}
|
||||||
|
return ret;
|
||||||
|
}
|
||||||
|
|
||||||
|
uint64_t cpu_ldq_be_mmu(CPUArchState *env, abi_ptr addr,
|
||||||
|
MemOpIdx oi, uintptr_t ra)
|
||||||
|
{
|
||||||
|
MemOp mop = get_memop(oi);
|
||||||
|
uint64_t ret;
|
||||||
|
|
||||||
|
tcg_debug_assert((mop & MO_BSWAP) == MO_BE);
|
||||||
|
ret = do_ld8_he_mmu(env, addr, mop, ra);
|
||||||
|
qemu_plugin_vcpu_mem_cb(env_cpu(env), addr, oi, QEMU_PLUGIN_MEM_R);
|
||||||
|
return cpu_to_be64(ret);
|
||||||
|
}
|
||||||
|
|
||||||
uint64_t cpu_ldq_le_mmu(CPUArchState *env, abi_ptr addr,
|
uint64_t cpu_ldq_le_mmu(CPUArchState *env, abi_ptr addr,
|
||||||
MemOpIdx oi, uintptr_t ra)
|
MemOpIdx oi, uintptr_t ra)
|
||||||
{
|
{
|
||||||
void *haddr;
|
MemOp mop = get_memop(oi);
|
||||||
uint64_t ret;
|
uint64_t ret;
|
||||||
|
|
||||||
validate_memop(oi, MO_LEUQ);
|
tcg_debug_assert((mop & MO_BSWAP) == MO_LE);
|
||||||
haddr = cpu_mmu_lookup(env, addr, oi, ra, MMU_DATA_LOAD);
|
ret = do_ld8_he_mmu(env, addr, mop, ra);
|
||||||
ret = load_atom_8(env, ra, haddr, get_memop(oi));
|
|
||||||
clear_helper_retaddr();
|
|
||||||
qemu_plugin_vcpu_mem_cb(env_cpu(env), addr, oi, QEMU_PLUGIN_MEM_R);
|
qemu_plugin_vcpu_mem_cb(env_cpu(env), addr, oi, QEMU_PLUGIN_MEM_R);
|
||||||
return cpu_to_le64(ret);
|
return cpu_to_le64(ret);
|
||||||
}
|
}
|
||||||
|
@ -1037,7 +1127,7 @@ Int128 cpu_ld16_be_mmu(CPUArchState *env, abi_ptr addr,
|
||||||
void *haddr;
|
void *haddr;
|
||||||
Int128 ret;
|
Int128 ret;
|
||||||
|
|
||||||
validate_memop(oi, MO_128 | MO_BE);
|
tcg_debug_assert((get_memop(oi) & (MO_BSWAP | MO_SIZE)) == (MO_128 | MO_BE));
|
||||||
haddr = cpu_mmu_lookup(env, addr, oi, ra, MMU_DATA_LOAD);
|
haddr = cpu_mmu_lookup(env, addr, oi, ra, MMU_DATA_LOAD);
|
||||||
memcpy(&ret, haddr, 16);
|
memcpy(&ret, haddr, 16);
|
||||||
clear_helper_retaddr();
|
clear_helper_retaddr();
|
||||||
|
@ -1055,7 +1145,7 @@ Int128 cpu_ld16_le_mmu(CPUArchState *env, abi_ptr addr,
|
||||||
void *haddr;
|
void *haddr;
|
||||||
Int128 ret;
|
Int128 ret;
|
||||||
|
|
||||||
validate_memop(oi, MO_128 | MO_LE);
|
tcg_debug_assert((get_memop(oi) & (MO_BSWAP | MO_SIZE)) == (MO_128 | MO_LE));
|
||||||
haddr = cpu_mmu_lookup(env, addr, oi, ra, MMU_DATA_LOAD);
|
haddr = cpu_mmu_lookup(env, addr, oi, ra, MMU_DATA_LOAD);
|
||||||
memcpy(&ret, haddr, 16);
|
memcpy(&ret, haddr, 16);
|
||||||
clear_helper_retaddr();
|
clear_helper_retaddr();
|
||||||
|
@ -1067,87 +1157,153 @@ Int128 cpu_ld16_le_mmu(CPUArchState *env, abi_ptr addr,
|
||||||
return ret;
|
return ret;
|
||||||
}
|
}
|
||||||
|
|
||||||
void cpu_stb_mmu(CPUArchState *env, abi_ptr addr, uint8_t val,
|
static void do_st1_mmu(CPUArchState *env, abi_ptr addr, uint8_t val,
|
||||||
MemOpIdx oi, uintptr_t ra)
|
MemOp mop, uintptr_t ra)
|
||||||
{
|
{
|
||||||
void *haddr;
|
void *haddr;
|
||||||
|
|
||||||
validate_memop(oi, MO_UB);
|
tcg_debug_assert((mop & MO_SIZE) == MO_8);
|
||||||
haddr = cpu_mmu_lookup(env, addr, oi, ra, MMU_DATA_STORE);
|
haddr = cpu_mmu_lookup(env, addr, mop, ra, MMU_DATA_STORE);
|
||||||
stb_p(haddr, val);
|
stb_p(haddr, val);
|
||||||
clear_helper_retaddr();
|
clear_helper_retaddr();
|
||||||
|
}
|
||||||
|
|
||||||
|
void helper_stb_mmu(CPUArchState *env, target_ulong addr, uint32_t val,
|
||||||
|
MemOpIdx oi, uintptr_t ra)
|
||||||
|
{
|
||||||
|
do_st1_mmu(env, addr, val, get_memop(oi), ra);
|
||||||
|
}
|
||||||
|
|
||||||
|
void cpu_stb_mmu(CPUArchState *env, abi_ptr addr, uint8_t val,
|
||||||
|
MemOpIdx oi, uintptr_t ra)
|
||||||
|
{
|
||||||
|
do_st1_mmu(env, addr, val, get_memop(oi), ra);
|
||||||
qemu_plugin_vcpu_mem_cb(env_cpu(env), addr, oi, QEMU_PLUGIN_MEM_W);
|
qemu_plugin_vcpu_mem_cb(env_cpu(env), addr, oi, QEMU_PLUGIN_MEM_W);
|
||||||
}
|
}
|
||||||
|
|
||||||
|
static void do_st2_he_mmu(CPUArchState *env, abi_ptr addr, uint16_t val,
|
||||||
|
MemOp mop, uintptr_t ra)
|
||||||
|
{
|
||||||
|
void *haddr;
|
||||||
|
|
||||||
|
tcg_debug_assert((mop & MO_SIZE) == MO_16);
|
||||||
|
haddr = cpu_mmu_lookup(env, addr, mop, ra, MMU_DATA_STORE);
|
||||||
|
store_atom_2(env, ra, haddr, mop, val);
|
||||||
|
clear_helper_retaddr();
|
||||||
|
}
|
||||||
|
|
||||||
|
void helper_stw_mmu(CPUArchState *env, target_ulong addr, uint32_t val,
|
||||||
|
MemOpIdx oi, uintptr_t ra)
|
||||||
|
{
|
||||||
|
MemOp mop = get_memop(oi);
|
||||||
|
|
||||||
|
if (mop & MO_BSWAP) {
|
||||||
|
val = bswap16(val);
|
||||||
|
}
|
||||||
|
do_st2_he_mmu(env, addr, val, mop, ra);
|
||||||
|
}
|
||||||
|
|
||||||
void cpu_stw_be_mmu(CPUArchState *env, abi_ptr addr, uint16_t val,
|
void cpu_stw_be_mmu(CPUArchState *env, abi_ptr addr, uint16_t val,
|
||||||
MemOpIdx oi, uintptr_t ra)
|
MemOpIdx oi, uintptr_t ra)
|
||||||
{
|
{
|
||||||
void *haddr;
|
MemOp mop = get_memop(oi);
|
||||||
|
|
||||||
validate_memop(oi, MO_BEUW);
|
tcg_debug_assert((mop & MO_BSWAP) == MO_BE);
|
||||||
haddr = cpu_mmu_lookup(env, addr, oi, ra, MMU_DATA_STORE);
|
do_st2_he_mmu(env, addr, be16_to_cpu(val), mop, ra);
|
||||||
store_atom_2(env, ra, haddr, get_memop(oi), be16_to_cpu(val));
|
|
||||||
clear_helper_retaddr();
|
|
||||||
qemu_plugin_vcpu_mem_cb(env_cpu(env), addr, oi, QEMU_PLUGIN_MEM_W);
|
|
||||||
}
|
|
||||||
|
|
||||||
void cpu_stl_be_mmu(CPUArchState *env, abi_ptr addr, uint32_t val,
|
|
||||||
MemOpIdx oi, uintptr_t ra)
|
|
||||||
{
|
|
||||||
void *haddr;
|
|
||||||
|
|
||||||
validate_memop(oi, MO_BEUL);
|
|
||||||
haddr = cpu_mmu_lookup(env, addr, oi, ra, MMU_DATA_STORE);
|
|
||||||
store_atom_4(env, ra, haddr, get_memop(oi), be32_to_cpu(val));
|
|
||||||
clear_helper_retaddr();
|
|
||||||
qemu_plugin_vcpu_mem_cb(env_cpu(env), addr, oi, QEMU_PLUGIN_MEM_W);
|
|
||||||
}
|
|
||||||
|
|
||||||
void cpu_stq_be_mmu(CPUArchState *env, abi_ptr addr, uint64_t val,
|
|
||||||
MemOpIdx oi, uintptr_t ra)
|
|
||||||
{
|
|
||||||
void *haddr;
|
|
||||||
|
|
||||||
validate_memop(oi, MO_BEUQ);
|
|
||||||
haddr = cpu_mmu_lookup(env, addr, oi, ra, MMU_DATA_STORE);
|
|
||||||
store_atom_8(env, ra, haddr, get_memop(oi), be64_to_cpu(val));
|
|
||||||
clear_helper_retaddr();
|
|
||||||
qemu_plugin_vcpu_mem_cb(env_cpu(env), addr, oi, QEMU_PLUGIN_MEM_W);
|
qemu_plugin_vcpu_mem_cb(env_cpu(env), addr, oi, QEMU_PLUGIN_MEM_W);
|
||||||
}
|
}
|
||||||
|
|
||||||
void cpu_stw_le_mmu(CPUArchState *env, abi_ptr addr, uint16_t val,
|
void cpu_stw_le_mmu(CPUArchState *env, abi_ptr addr, uint16_t val,
|
||||||
MemOpIdx oi, uintptr_t ra)
|
MemOpIdx oi, uintptr_t ra)
|
||||||
|
{
|
||||||
|
MemOp mop = get_memop(oi);
|
||||||
|
|
||||||
|
tcg_debug_assert((mop & MO_BSWAP) == MO_LE);
|
||||||
|
do_st2_he_mmu(env, addr, le16_to_cpu(val), mop, ra);
|
||||||
|
qemu_plugin_vcpu_mem_cb(env_cpu(env), addr, oi, QEMU_PLUGIN_MEM_W);
|
||||||
|
}
|
||||||
|
|
||||||
|
static void do_st4_he_mmu(CPUArchState *env, abi_ptr addr, uint32_t val,
|
||||||
|
MemOp mop, uintptr_t ra)
|
||||||
{
|
{
|
||||||
void *haddr;
|
void *haddr;
|
||||||
|
|
||||||
validate_memop(oi, MO_LEUW);
|
tcg_debug_assert((mop & MO_SIZE) == MO_32);
|
||||||
haddr = cpu_mmu_lookup(env, addr, oi, ra, MMU_DATA_STORE);
|
haddr = cpu_mmu_lookup(env, addr, mop, ra, MMU_DATA_STORE);
|
||||||
store_atom_2(env, ra, haddr, get_memop(oi), le16_to_cpu(val));
|
store_atom_4(env, ra, haddr, mop, val);
|
||||||
clear_helper_retaddr();
|
clear_helper_retaddr();
|
||||||
|
}
|
||||||
|
|
||||||
|
void helper_stl_mmu(CPUArchState *env, target_ulong addr, uint32_t val,
|
||||||
|
MemOpIdx oi, uintptr_t ra)
|
||||||
|
{
|
||||||
|
MemOp mop = get_memop(oi);
|
||||||
|
|
||||||
|
if (mop & MO_BSWAP) {
|
||||||
|
val = bswap32(val);
|
||||||
|
}
|
||||||
|
do_st4_he_mmu(env, addr, val, mop, ra);
|
||||||
|
}
|
||||||
|
|
||||||
|
void cpu_stl_be_mmu(CPUArchState *env, abi_ptr addr, uint32_t val,
|
||||||
|
MemOpIdx oi, uintptr_t ra)
|
||||||
|
{
|
||||||
|
MemOp mop = get_memop(oi);
|
||||||
|
|
||||||
|
tcg_debug_assert((mop & MO_BSWAP) == MO_BE);
|
||||||
|
do_st4_he_mmu(env, addr, be32_to_cpu(val), mop, ra);
|
||||||
qemu_plugin_vcpu_mem_cb(env_cpu(env), addr, oi, QEMU_PLUGIN_MEM_W);
|
qemu_plugin_vcpu_mem_cb(env_cpu(env), addr, oi, QEMU_PLUGIN_MEM_W);
|
||||||
}
|
}
|
||||||
|
|
||||||
void cpu_stl_le_mmu(CPUArchState *env, abi_ptr addr, uint32_t val,
|
void cpu_stl_le_mmu(CPUArchState *env, abi_ptr addr, uint32_t val,
|
||||||
MemOpIdx oi, uintptr_t ra)
|
MemOpIdx oi, uintptr_t ra)
|
||||||
|
{
|
||||||
|
MemOp mop = get_memop(oi);
|
||||||
|
|
||||||
|
tcg_debug_assert((mop & MO_BSWAP) == MO_LE);
|
||||||
|
do_st4_he_mmu(env, addr, le32_to_cpu(val), mop, ra);
|
||||||
|
qemu_plugin_vcpu_mem_cb(env_cpu(env), addr, oi, QEMU_PLUGIN_MEM_W);
|
||||||
|
}
|
||||||
|
|
||||||
|
static void do_st8_he_mmu(CPUArchState *env, abi_ptr addr, uint64_t val,
|
||||||
|
MemOp mop, uintptr_t ra)
|
||||||
{
|
{
|
||||||
void *haddr;
|
void *haddr;
|
||||||
|
|
||||||
validate_memop(oi, MO_LEUL);
|
tcg_debug_assert((mop & MO_SIZE) == MO_64);
|
||||||
haddr = cpu_mmu_lookup(env, addr, oi, ra, MMU_DATA_STORE);
|
haddr = cpu_mmu_lookup(env, addr, mop, ra, MMU_DATA_STORE);
|
||||||
store_atom_4(env, ra, haddr, get_memop(oi), le32_to_cpu(val));
|
store_atom_8(env, ra, haddr, mop, val);
|
||||||
clear_helper_retaddr();
|
clear_helper_retaddr();
|
||||||
|
}
|
||||||
|
|
||||||
|
void helper_stq_mmu(CPUArchState *env, target_ulong addr, uint64_t val,
|
||||||
|
MemOpIdx oi, uintptr_t ra)
|
||||||
|
{
|
||||||
|
MemOp mop = get_memop(oi);
|
||||||
|
|
||||||
|
if (mop & MO_BSWAP) {
|
||||||
|
val = bswap64(val);
|
||||||
|
}
|
||||||
|
do_st8_he_mmu(env, addr, val, mop, ra);
|
||||||
|
}
|
||||||
|
|
||||||
|
void cpu_stq_be_mmu(CPUArchState *env, abi_ptr addr, uint64_t val,
|
||||||
|
MemOpIdx oi, uintptr_t ra)
|
||||||
|
{
|
||||||
|
MemOp mop = get_memop(oi);
|
||||||
|
|
||||||
|
tcg_debug_assert((mop & MO_BSWAP) == MO_BE);
|
||||||
|
do_st8_he_mmu(env, addr, cpu_to_be64(val), mop, ra);
|
||||||
qemu_plugin_vcpu_mem_cb(env_cpu(env), addr, oi, QEMU_PLUGIN_MEM_W);
|
qemu_plugin_vcpu_mem_cb(env_cpu(env), addr, oi, QEMU_PLUGIN_MEM_W);
|
||||||
}
|
}
|
||||||
|
|
||||||
void cpu_stq_le_mmu(CPUArchState *env, abi_ptr addr, uint64_t val,
|
void cpu_stq_le_mmu(CPUArchState *env, abi_ptr addr, uint64_t val,
|
||||||
MemOpIdx oi, uintptr_t ra)
|
MemOpIdx oi, uintptr_t ra)
|
||||||
{
|
{
|
||||||
void *haddr;
|
MemOp mop = get_memop(oi);
|
||||||
|
|
||||||
validate_memop(oi, MO_LEUQ);
|
tcg_debug_assert((mop & MO_BSWAP) == MO_LE);
|
||||||
haddr = cpu_mmu_lookup(env, addr, oi, ra, MMU_DATA_STORE);
|
do_st8_he_mmu(env, addr, cpu_to_le64(val), mop, ra);
|
||||||
store_atom_8(env, ra, haddr, get_memop(oi), le64_to_cpu(val));
|
|
||||||
clear_helper_retaddr();
|
|
||||||
qemu_plugin_vcpu_mem_cb(env_cpu(env), addr, oi, QEMU_PLUGIN_MEM_W);
|
qemu_plugin_vcpu_mem_cb(env_cpu(env), addr, oi, QEMU_PLUGIN_MEM_W);
|
||||||
}
|
}
|
||||||
|
|
||||||
|
@ -1156,7 +1312,7 @@ void cpu_st16_be_mmu(CPUArchState *env, abi_ptr addr,
|
||||||
{
|
{
|
||||||
void *haddr;
|
void *haddr;
|
||||||
|
|
||||||
validate_memop(oi, MO_128 | MO_BE);
|
tcg_debug_assert((get_memop(oi) & (MO_BSWAP | MO_SIZE)) == (MO_128 | MO_BE));
|
||||||
haddr = cpu_mmu_lookup(env, addr, oi, ra, MMU_DATA_STORE);
|
haddr = cpu_mmu_lookup(env, addr, oi, ra, MMU_DATA_STORE);
|
||||||
if (!HOST_BIG_ENDIAN) {
|
if (!HOST_BIG_ENDIAN) {
|
||||||
val = bswap128(val);
|
val = bswap128(val);
|
||||||
|
@ -1171,7 +1327,7 @@ void cpu_st16_le_mmu(CPUArchState *env, abi_ptr addr,
|
||||||
{
|
{
|
||||||
void *haddr;
|
void *haddr;
|
||||||
|
|
||||||
validate_memop(oi, MO_128 | MO_LE);
|
tcg_debug_assert((get_memop(oi) & (MO_BSWAP | MO_SIZE)) == (MO_128 | MO_LE));
|
||||||
haddr = cpu_mmu_lookup(env, addr, oi, ra, MMU_DATA_STORE);
|
haddr = cpu_mmu_lookup(env, addr, oi, ra, MMU_DATA_STORE);
|
||||||
if (HOST_BIG_ENDIAN) {
|
if (HOST_BIG_ENDIAN) {
|
||||||
val = bswap128(val);
|
val = bswap128(val);
|
||||||
|
@ -1269,7 +1425,6 @@ uint64_t cpu_ldq_code_mmu(CPUArchState *env, abi_ptr addr,
|
||||||
void *haddr;
|
void *haddr;
|
||||||
uint64_t ret;
|
uint64_t ret;
|
||||||
|
|
||||||
validate_memop(oi, MO_BEUQ);
|
|
||||||
haddr = cpu_mmu_lookup(env, addr, oi, ra, MMU_DATA_LOAD);
|
haddr = cpu_mmu_lookup(env, addr, oi, ra, MMU_DATA_LOAD);
|
||||||
ret = ldq_p(haddr);
|
ret = ldq_p(haddr);
|
||||||
clear_helper_retaddr();
|
clear_helper_retaddr();
|
||||||
|
|
|
@ -25,8 +25,6 @@
|
||||||
#ifndef TCG_LDST_H
|
#ifndef TCG_LDST_H
|
||||||
#define TCG_LDST_H
|
#define TCG_LDST_H
|
||||||
|
|
||||||
#ifdef CONFIG_SOFTMMU
|
|
||||||
|
|
||||||
/* Value zero-extended to tcg register size. */
|
/* Value zero-extended to tcg register size. */
|
||||||
tcg_target_ulong helper_ldub_mmu(CPUArchState *env, target_ulong addr,
|
tcg_target_ulong helper_ldub_mmu(CPUArchState *env, target_ulong addr,
|
||||||
MemOpIdx oi, uintptr_t retaddr);
|
MemOpIdx oi, uintptr_t retaddr);
|
||||||
|
@ -58,10 +56,10 @@ void helper_stl_mmu(CPUArchState *env, target_ulong addr, uint32_t val,
|
||||||
void helper_stq_mmu(CPUArchState *env, target_ulong addr, uint64_t val,
|
void helper_stq_mmu(CPUArchState *env, target_ulong addr, uint64_t val,
|
||||||
MemOpIdx oi, uintptr_t retaddr);
|
MemOpIdx oi, uintptr_t retaddr);
|
||||||
|
|
||||||
#else
|
#ifdef CONFIG_USER_ONLY
|
||||||
|
|
||||||
G_NORETURN void helper_unaligned_ld(CPUArchState *env, target_ulong addr);
|
G_NORETURN void helper_unaligned_ld(CPUArchState *env, target_ulong addr);
|
||||||
G_NORETURN void helper_unaligned_st(CPUArchState *env, target_ulong addr);
|
G_NORETURN void helper_unaligned_st(CPUArchState *env, target_ulong addr);
|
||||||
|
|
||||||
#endif /* CONFIG_SOFTMMU */
|
#endif /* CONFIG_USER_ONLY */
|
||||||
#endif /* TCG_LDST_H */
|
#endif /* TCG_LDST_H */
|
||||||
|
|
|
@ -197,8 +197,7 @@ static void tcg_out_st_helper_args(TCGContext *s, const TCGLabelQemuLdst *l,
|
||||||
const TCGLdstHelperParam *p)
|
const TCGLdstHelperParam *p)
|
||||||
__attribute__((unused));
|
__attribute__((unused));
|
||||||
|
|
||||||
#ifdef CONFIG_SOFTMMU
|
static void * const qemu_ld_helpers[MO_SSIZE + 1] __attribute__((unused)) = {
|
||||||
static void * const qemu_ld_helpers[MO_SSIZE + 1] = {
|
|
||||||
[MO_UB] = helper_ldub_mmu,
|
[MO_UB] = helper_ldub_mmu,
|
||||||
[MO_SB] = helper_ldsb_mmu,
|
[MO_SB] = helper_ldsb_mmu,
|
||||||
[MO_UW] = helper_lduw_mmu,
|
[MO_UW] = helper_lduw_mmu,
|
||||||
|
@ -210,13 +209,12 @@ static void * const qemu_ld_helpers[MO_SSIZE + 1] = {
|
||||||
#endif
|
#endif
|
||||||
};
|
};
|
||||||
|
|
||||||
static void * const qemu_st_helpers[MO_SIZE + 1] = {
|
static void * const qemu_st_helpers[MO_SIZE + 1] __attribute__((unused)) = {
|
||||||
[MO_8] = helper_stb_mmu,
|
[MO_8] = helper_stb_mmu,
|
||||||
[MO_16] = helper_stw_mmu,
|
[MO_16] = helper_stw_mmu,
|
||||||
[MO_32] = helper_stl_mmu,
|
[MO_32] = helper_stl_mmu,
|
||||||
[MO_64] = helper_stq_mmu,
|
[MO_64] = helper_stq_mmu,
|
||||||
};
|
};
|
||||||
#endif
|
|
||||||
|
|
||||||
TCGContext tcg_init_ctx;
|
TCGContext tcg_init_ctx;
|
||||||
__thread TCGContext *tcg_ctx;
|
__thread TCGContext *tcg_ctx;
|
||||||
|
|
Loading…
Add table
Add a link
Reference in a new issue