| /linux/arch/xtensa/lib/ |
| A D | memcopy.S | 77 addi a5, a5, 1 97 addi a5, a5, 1 109 addi a5, a5, 2 147 addi a5, a5, 16 159 addi a5, a5, 8 170 addi a5, a5, 4 179 addi a5, a5, 2 227 addi a5, a5, 16 241 addi a5, a5, 8 250 addi a5, a5, 4 [all …]
|
| A D | memset.S | 72 addi a5, a5, 16 74 blt a5, a6, .Loop1 81 addi a5, a5, 8 86 addi a5, a5, 4 91 addi a5, a5, 2 95 EX(10f) s8i a3, a5, 0 109 EX(10f) s8i a3, a5, 0 110 addi a5, a5, 1 118 addi a5, a5, 2 136 EX(10f) s8i a3, a5, 0 [all …]
|
| A D | checksum.S | 55 beqz a5, 2f 56 slli a5, a5, 5 57 add a5, a5, a2 /* a5 = end of last 32-byte chunk */ 85 beqz a5, 3f 86 slli a5, a5, 2 87 add a5, a5, a2 /* a5 = end of last 4-byte chunk */ 135 beqz a5, 2f 136 slli a5, a5, 2 137 add a5, a5, a2 /* a5 = end of last 4-byte chunk */ 195 movi a5, -1 [all …]
|
| A D | usercopy.S | 96 addi a5, a5, 1 108 addi a5, a5, 2 129 addi a5, a5, 1 161 addi a5, a5, 16 173 addi a5, a5, 8 180 addi a5, a5, 4 187 addi a5, a5, 2 236 addi a5, a5, 16 255 addi a5, a5, 8 264 addi a5, a5, 4 [all …]
|
| A D | mulsi3.S | 48 srai a5, a3, 16 50 mul16u a6, a5, a2 59 rsr a5, ACCLO 62 slli a5, a5, 16 63 add a2, a4, a5 72 xor a5, a2, a3 /* Top bit is 1 if one input is negative. */ 100 movltz a2, a3, a5 127 movltz a2, a3, a5
|
| A D | divsi3.S | 16 do_nsau a5, a6, a2, a8 /* udividend_shift = nsau (udividend) */ 18 bgeu a5, a4, .Lspecial 20 sub a4, a4, a5 /* count = udivisor_shift - udividend_shift */ 45 neg a5, a2 46 movltz a2, a5, a7 /* return (sign < 0) ? -quotient : quotient */
|
| A D | umodsi3.S | 14 do_nsau a5, a2, a6, a7 /* dividend_shift = nsau (dividend) */ 16 bgeu a5, a4, .Lspecial 18 sub a4, a4, a5 /* count = divisor_shift - dividend_shift */
|
| /linux/arch/xtensa/include/asm/ |
| A D | initialize_mmu.h | 114 3: idtlb a5 115 iitlb a5 116 add a5, a5, a4 128 wdtlb a4, a5 129 witlb a4, a5 133 wdtlb a4, a5 134 witlb a4, a5 139 wdtlb a4, a5 198 movi a5, 1 203 sub a5, a5, a10 [all …]
|
| /linux/arch/loongarch/lib/ |
| A D | memmove.S | 82 sub.d a5, a2, t1 98 st.d t0, a5, -8 99 st.d t1, a5, -16 100 st.d t2, a5, -24 101 st.d t3, a5, -32 106 addi.d a5, a5, -64 118 st.d t0, a5, -8 122 addi.d a5, a5, -32 130 st.d t0, a5, -8 132 addi.d a5, a5, -16 [all …]
|
| A D | memcpy.S | 151 st.d t0, a5, 0 152 st.d t1, a5, 8 153 st.d t2, a5, 16 159 addi.d a5, a5, 64 171 st.d t0, a5, 0 172 st.d t1, a5, 8 175 addi.d a5, a5, 32 183 st.d t0, a5, 0 184 st.d t1, a5, 8 185 addi.d a5, a5, 16 [all …]
|
| /linux/arch/xtensa/kernel/ |
| A D | align.S | 191 l32i a5, a3, 0 249 addx8 a5, a6, a5 265 l32i a5, a3, 0 288 addi a5, a5, -OP1_L16SI 385 addi a5, a5, -OP0_S32I_N 397 movi a5, -1 422 and a5, a5, a8 # mask 424 or a5, a5, a8 # or with original value 432 __sl a5, a3 434 or a6, a6, a5 [all …]
|
| A D | vectors.S | 707 s32e a0, a5, -16 708 s32e a1, a5, -12 709 s32e a2, a5, -8 710 s32e a3, a5, -4 719 l32e a0, a5, -16 720 l32e a1, a5, -12 721 l32e a2, a5, -8 722 l32e a3, a5, -4 737 s32e a5, a0, -28 754 l32e a5, a7, -28 [all …]
|
| /linux/arch/riscv/lib/ |
| A D | tishift.S | 11 li a5,64 12 sub a5,a5,a2 13 sext.w a4,a5 14 blez a5, .L2 34 li a5,64 35 sub a5,a5,a2 36 sext.w a4,a5 37 blez a5, .L4 57 li a5,64 58 sub a5,a5,a2 [all …]
|
| A D | memcpy.S | 31 lb a5, 0(a1) 33 sb a5, 0(t6) 44 REG_L a5, SZREG(a1) 54 REG_S a5, SZREG(t6) 64 REG_L a5, 11*SZREG(a1) 71 REG_S a5, 11*SZREG(t6) 86 or a5, a1, t6 87 or a5, a5, a3 88 andi a5, a5, 3 89 bnez a5, 5f
|
| A D | xor.S | 41 vsetvli a5, a0, e8, m8, ta, ma 44 sub a0, a0, a5 47 add a2, a2, a5 50 add a3, a3, a5 52 add a4, a4, a5 54 add a1, a1, a5 72 vle8.v v8, (a5) 75 add a5, a5, a6
|
| A D | uaccess.S | 61 fixup lb a5, 0(a1), 10f 63 fixup sb a5, 0(a0), 10f 89 fixup REG_L a5, SZREG(a1), 10f 137 li a5, SZREG*8 138 sub t4, a5, t3 141 fixup REG_L a5, 0(a1), 10f 152 srl a4, a5, t3 153 fixup REG_L a5, SZREG(a1), 10f 155 sll a2, a5, t4 174 fixup lb a5, 0(a1), 10f [all …]
|
| A D | memmove.S | 98 andi a5, a1, (SZREG - 1) /* Find the alignment offset of src (a1) */ 99 slli a6, a5, 3 /* Multiply by 8 to convert that to bits to shift */ 100 sub a5, a1, t3 /* Find the difference between src and dest */ 154 add a1, t3, a5 /* Restore the src pointer */ 160 andi a5, a4, (SZREG - 1) /* Find the alignment offset of src (a4) */ 161 slli a6, a5, 3 /* Multiply by 8 to convert that to bits to shift */ 162 sub a5, a4, t4 /* Find the difference between src and dest */ 216 add a4, t4, a5 /* Restore the src pointer */
|
| /linux/arch/xtensa/boot/boot-redboot/ |
| A D | bootstrap.S | 60 rsr a5, windowbase 61 ssl a5 87 movi a5, __start_a0 89 sub a0, a4, a5 92 movi a5, __reloc_end 112 blt a8, a5, 1b 119 ___flush_dcache_all a5 a6 156 movi.n a5, 0 158 s32i a5, a6, 0 162 movi a5, -16 [all …]
|
| /linux/arch/mips/kernel/ |
| A D | linux32.c | 78 unsigned long, unused, unsigned long, a4, unsigned long, a5) 80 return ksys_pread64(fd, buf, count, merge_64(a4, a5)); 84 size_t, count, u32, unused, u64, a4, u64, a5) 86 return ksys_pwrite64(fd, buf, count, merge_64(a4, a5)); 111 unsigned long a4, unsigned long a5, in sys32_sync_file_range() argument 115 merge_64(a2, a3), merge_64(a4, a5), in sys32_sync_file_range() 121 unsigned long a4, unsigned long a5, in sys32_fadvise64_64() argument 125 merge_64(a2, a3), merge_64(a4, a5), in sys32_fadvise64_64()
|
| /linux/include/linux/ |
| A D | arm-smccc.h | 358 unsigned long a5; member 430 unsigned long a5, unsigned long a6, unsigned long a7, 435 unsigned long a5, unsigned long a6, unsigned long a7, in __arm_smccc_smc() argument 456 unsigned long a5, unsigned long a6, unsigned long a7, 524 #define __declare_arg_7(a0, a1, a2, a3, a4, a5, res) \ argument 525 typeof(a5) __a5 = a5; \ 527 register typeof(a5) arg5 asm("r5") = __a5 529 #define __declare_arg_8(a0, a1, a2, a3, a4, a5, a6, res) \ argument 531 __declare_arg_7(a0, a1, a2, a3, a4, a5, res); \ 534 #define __declare_arg_9(a0, a1, a2, a3, a4, a5, a6, a7, res) \ argument [all …]
|
| /linux/arch/powerpc/platforms/powernv/ |
| A D | opal-call.c | 17 s64 a4, s64 a5, s64 a6, s64 a7, in __trace_opal_entry() argument 33 args[5] = a5; in __trace_opal_entry() 70 s64 a4, s64 a5, s64 a6, s64 a7, in __opal_call_trace() argument 75 __trace_opal_entry(a0, a1, a2, a3, a4, a5, a6, a7, opcode); in __opal_call_trace() 76 ret = __opal_call(a0, a1, a2, a3, a4, a5, a6, a7, opcode, msr); in __opal_call_trace() 87 s64 a4, s64 a5, s64 a6, s64 a7, in __opal_call_trace() argument 110 return __opal_call(a0, a1, a2, a3, a4, a5, a6, a7, opcode, msr); in opal_call() 118 ret = __opal_call(a0, a1, a2, a3, a4, a5, a6, a7, opcode, msr); in opal_call() 128 int64_t a4, int64_t a5, int64_t a6, int64_t a7); \ 130 int64_t a4, int64_t a5, int64_t a6, int64_t a7) \ [all …]
|
| /linux/arch/arm/boot/dts/arm/ |
| A D | vexpress-v2p-ca5s.dts | 40 compatible = "arm,cortex-a5"; 47 compatible = "arm,cortex-a5"; 97 compatible = "arm,cortex-a5-scu"; 102 compatible = "arm,cortex-a5-twd-timer"; 108 compatible = "arm,cortex-a5-global-timer", 116 compatible = "arm,cortex-a5-twd-wdt"; 122 compatible = "arm,cortex-a5-gic", "arm,cortex-a9-gic"; 139 compatible = "arm,cortex-a5-pmu";
|
| /linux/arch/riscv/kernel/ |
| A D | copy-unaligned.S | 18 REG_L a5, SZREG(a1) 26 REG_S a5, SZREG(a0) 50 lb a5, 1(a1) 58 sb a5, 1(a0)
|
| /linux/arch/arm64/crypto/ |
| A D | chacha-neon-core.S | 288 eor a5, a5, a9 302 ror a5, a5, #20 355 eor a5, a5, a9 369 ror a5, a5, #25 420 eor a5, a5, a10 434 ror a5, a5, #20 487 eor a5, a5, a10 501 ror a5, a5, #25 554 add a5, a5, w7 559 CPU_BE( rev a5, a5 ) [all …]
|
| /linux/arch/x86/platform/uv/ |
| A D | bios_uv.c | 24 u64 a4, u64 a5) in __uv_bios_call() argument 35 ret = efi_call_virt_pointer(tab, function, (u64)which, a1, a2, a3, a4, a5); in __uv_bios_call() 41 u64 a5) in uv_bios_call() argument 48 ret = __uv_bios_call(which, a1, a2, a3, a4, a5); in uv_bios_call() 55 u64 a4, u64 a5) in uv_bios_call_irqsave() argument 64 ret = __uv_bios_call(which, a1, a2, a3, a4, a5); in uv_bios_call_irqsave()
|