Lines Matching refs:a3

71 	add	a7, a3, a4	# a7 = end address for source
74 l8ui a6, a3, 0
75 addi a3, a3, 1
79 bne a3, a7, .Lnextbyte # continue loop if $a3:src != $a7:src_end
93 l8ui a6, a3, 0
94 addi a3, a3, 1
103 l8ui a6, a3, 0
104 l8ui a7, a3, 1
105 addi a3, a3, 2
116 # a2/ dst, a3/ src, a4/ len
125 _bany a3, a8, .Lsrcunaligned # then use shifting copy
135 add a8, a8, a3 # a8 = end of last 16B source chunk
138 l32i a6, a3, 0
139 l32i a7, a3, 4
141 l32i a6, a3, 8
143 l32i a7, a3, 12
145 addi a3, a3, 16
149 bne a3, a8, .Loop1 # continue loop if a3:src != a8:src_end
154 l32i a6, a3, 0
155 l32i a7, a3, 4
156 addi a3, a3, 8
167 l32i a6, a3, 0
168 addi a3, a3, 4
176 l16ui a6, a3, 0
177 addi a3, a3, 2
184 l8ui a6, a3, 0
196 __ssa8 a3 # set shift amount from byte offset
202 and a11, a3, a8 # save unalignment offset for below
203 sub a3, a3, a11 # align a3
205 l32i a6, a3, 0 # load first word
211 add a10, a10, a3 # a10 = end of last 16B source chunk
214 l32i a7, a3, 4
215 l32i a8, a3, 8
218 l32i a9, a3, 12
221 l32i a6, a3, 16
224 addi a3, a3, 16
229 bne a3, a10, .Loop2 # continue loop if a3:src != a10:src_end
234 l32i a7, a3, 4
235 l32i a8, a3, 8
238 addi a3, a3, 8
246 l32i a7, a3, 4
247 addi a3, a3, 4
254 add a3, a3, a11 # readjust a3 with correct misalignment
261 l8ui a6, a3, 0
262 l8ui a7, a3, 1
263 addi a3, a3, 2
271 l8ui a6, a3, 0
324 sub a7, a3, a4 # a7 = start address for source
327 addi a3, a3, -1
328 l8ui a6, a3, 0
332 bne a3, a7, .Lbacknextbyte # continue loop if
333 # $a3:src != $a7:src_start
347 addi a3, a3, -1
348 l8ui a6, a3, 0
357 addi a3, a3, -2
358 l8ui a6, a3, 0
359 l8ui a7, a3, 1
371 # a2/ dst, a3/ src, a4/ len
374 sub a6, a5, a3
378 add a3, a3, a4
386 _bany a3, a8, .Lbacksrcunaligned # then use shifting copy
396 sub a8, a3, a8 # a8 = start of first 16B source chunk
399 addi a3, a3, -16
400 l32i a7, a3, 12
401 l32i a6, a3, 8
404 l32i a7, a3, 4
406 l32i a6, a3, 0
410 bne a3, a8, .LbackLoop1 # continue loop if a3:src != a8:src_start
415 addi a3, a3, -8
416 l32i a6, a3, 0
417 l32i a7, a3, 4
428 addi a3, a3, -4
429 l32i a6, a3, 0
437 addi a3, a3, -2
438 l16ui a6, a3, 0
445 addi a3, a3, -1
446 l8ui a6, a3, 0
459 __ssa8 a3 # set shift amount from byte offset
464 and a11, a3, a8 # save unalignment offset for below
465 sub a3, a3, a11 # align a3
467 l32i a6, a3, 0 # load first word
473 sub a10, a3, a10 # a10 = start of first 16B source chunk
476 addi a3, a3, -16
477 l32i a7, a3, 12
478 l32i a8, a3, 8
482 l32i a9, a3, 4
485 l32i a6, a3, 0
491 bne a3, a10, .LbackLoop2 # continue loop if a3:src != a10:src_start
496 addi a3, a3, -8
497 l32i a7, a3, 4
498 l32i a8, a3, 0
508 addi a3, a3, -4
509 l32i a7, a3, 0
516 add a3, a3, a11 # readjust a3 with correct misalignment
524 addi a3, a3, -2
525 l8ui a6, a3, 0
526 l8ui a7, a3, 1
534 addi a3, a3, -1
536 l8ui a6, a3, 0