1 /*
2  * Copyright 2008 Advanced Micro Devices, Inc.
3  *
4  * Permission is hereby granted, free of charge, to any person obtaining a
5  * copy of this software and associated documentation files (the "Software"),
6  * to deal in the Software without restriction, including without limitation
7  * the rights to use, copy, modify, merge, publish, distribute, sublicense,
8  * and/or sell copies of the Software, and to permit persons to whom the
9  * Software is furnished to do so, subject to the following conditions:
10  *
11  * The above copyright notice and this permission notice shall be included in
12  * all copies or substantial portions of the Software.
13  *
14  * THE SOFTWARE IS PROVIDED "AS IS", WITHOUT WARRANTY OF ANY KIND, EXPRESS OR
15  * IMPLIED, INCLUDING BUT NOT LIMITED TO THE WARRANTIES OF MERCHANTABILITY,
16  * FITNESS FOR A PARTICULAR PURPOSE AND NONINFRINGEMENT.  IN NO EVENT SHALL
17  * THE COPYRIGHT HOLDER(S) OR AUTHOR(S) BE LIABLE FOR ANY CLAIM, DAMAGES OR
18  * OTHER LIABILITY, WHETHER IN AN ACTION OF CONTRACT, TORT OR OTHERWISE,
19  * ARISING FROM, OUT OF OR IN CONNECTION WITH THE SOFTWARE OR THE USE OR
20  * OTHER DEALINGS IN THE SOFTWARE.
21  *
22  * Author: Stanislaw Skowronek
23  */
24 
25 #include <linux/module.h>
26 #include <linux/sched.h>
27 #include <linux/slab.h>
28 #include <linux/string_helpers.h>
29 
30 #include <asm/unaligned.h>
31 
32 #include <drm/drm_device.h>
33 #include <drm/drm_util.h>
34 
35 #define ATOM_DEBUG
36 
37 #include "atom.h"
38 #include "atom-names.h"
39 #include "atom-bits.h"
40 #include "radeon.h"
41 
42 #define ATOM_COND_ABOVE		0
43 #define ATOM_COND_ABOVEOREQUAL	1
44 #define ATOM_COND_ALWAYS	2
45 #define ATOM_COND_BELOW		3
46 #define ATOM_COND_BELOWOREQUAL	4
47 #define ATOM_COND_EQUAL		5
48 #define ATOM_COND_NOTEQUAL	6
49 
50 #define ATOM_PORT_ATI	0
51 #define ATOM_PORT_PCI	1
52 #define ATOM_PORT_SYSIO	2
53 
54 #define ATOM_UNIT_MICROSEC	0
55 #define ATOM_UNIT_MILLISEC	1
56 
57 #define PLL_INDEX	2
58 #define PLL_DATA	3
59 
60 typedef struct {
61 	struct atom_context *ctx;
62 	uint32_t *ps, *ws;
63 	int ps_shift;
64 	uint16_t start;
65 	unsigned last_jump;
66 	unsigned long last_jump_jiffies;
67 	bool abort;
68 } atom_exec_context;
69 
70 int atom_debug = 0;
71 static int atom_execute_table_locked(struct atom_context *ctx, int index, uint32_t *params);
72 int atom_execute_table(struct atom_context *ctx, int index, uint32_t *params);
73 
74 static uint32_t atom_arg_mask[8] = {
75 	0xFFFFFFFF, 0x0000FFFF, 0x00FFFF00, 0xFFFF0000,
76 	0x000000FF, 0x0000FF00, 0x00FF0000, 0xFF000000
77 };
78 static int atom_arg_shift[8] = { 0, 0, 8, 16, 0, 8, 16, 24 };
79 
80 static int atom_dst_to_src[8][4] = {
81 	/* translate destination alignment field to the source alignment encoding */
82 	{0, 0, 0, 0},
83 	{1, 2, 3, 0},
84 	{1, 2, 3, 0},
85 	{1, 2, 3, 0},
86 	{4, 5, 6, 7},
87 	{4, 5, 6, 7},
88 	{4, 5, 6, 7},
89 	{4, 5, 6, 7},
90 };
91 static int atom_def_dst[8] = { 0, 0, 1, 2, 0, 1, 2, 3 };
92 
93 static int debug_depth = 0;
94 #ifdef ATOM_DEBUG
debug_print_spaces(int n)95 static void debug_print_spaces(int n)
96 {
97 	while (n--)
98 		printk("   ");
99 }
100 
101 #define DEBUG(...) do if (atom_debug) { printk(KERN_DEBUG __VA_ARGS__); } while (0)
102 #define SDEBUG(...) do if (atom_debug) { printk(KERN_DEBUG); debug_print_spaces(debug_depth); printk(__VA_ARGS__); } while (0)
103 #else
104 #define DEBUG(...) do { } while (0)
105 #define SDEBUG(...) do { } while (0)
106 #endif
107 
atom_iio_execute(struct atom_context * ctx,int base,uint32_t index,uint32_t data)108 static uint32_t atom_iio_execute(struct atom_context *ctx, int base,
109 				 uint32_t index, uint32_t data)
110 {
111 	struct radeon_device *rdev = ctx->card->dev->dev_private;
112 	uint32_t temp = 0xCDCDCDCD;
113 
114 	while (1)
115 		switch (CU8(base)) {
116 		case ATOM_IIO_NOP:
117 			base++;
118 			break;
119 		case ATOM_IIO_READ:
120 			temp = ctx->card->ioreg_read(ctx->card, CU16(base + 1));
121 			base += 3;
122 			break;
123 		case ATOM_IIO_WRITE:
124 			if (rdev->family == CHIP_RV515)
125 				(void)ctx->card->ioreg_read(ctx->card, CU16(base + 1));
126 			ctx->card->ioreg_write(ctx->card, CU16(base + 1), temp);
127 			base += 3;
128 			break;
129 		case ATOM_IIO_CLEAR:
130 			temp &=
131 			    ~((0xFFFFFFFF >> (32 - CU8(base + 1))) <<
132 			      CU8(base + 2));
133 			base += 3;
134 			break;
135 		case ATOM_IIO_SET:
136 			temp |=
137 			    (0xFFFFFFFF >> (32 - CU8(base + 1))) << CU8(base +
138 									2);
139 			base += 3;
140 			break;
141 		case ATOM_IIO_MOVE_INDEX:
142 			temp &=
143 			    ~((0xFFFFFFFF >> (32 - CU8(base + 1))) <<
144 			      CU8(base + 3));
145 			temp |=
146 			    ((index >> CU8(base + 2)) &
147 			     (0xFFFFFFFF >> (32 - CU8(base + 1)))) << CU8(base +
148 									  3);
149 			base += 4;
150 			break;
151 		case ATOM_IIO_MOVE_DATA:
152 			temp &=
153 			    ~((0xFFFFFFFF >> (32 - CU8(base + 1))) <<
154 			      CU8(base + 3));
155 			temp |=
156 			    ((data >> CU8(base + 2)) &
157 			     (0xFFFFFFFF >> (32 - CU8(base + 1)))) << CU8(base +
158 									  3);
159 			base += 4;
160 			break;
161 		case ATOM_IIO_MOVE_ATTR:
162 			temp &=
163 			    ~((0xFFFFFFFF >> (32 - CU8(base + 1))) <<
164 			      CU8(base + 3));
165 			temp |=
166 			    ((ctx->io_attr >> CU8(base + 2)) &
167 			     (0xFFFFFFFF >> (32 - CU8(base + 1)))) <<
168 			     CU8(base + 3);
169 			base += 4;
170 			break;
171 		case ATOM_IIO_END:
172 			return temp;
173 		default:
174 			pr_info("Unknown IIO opcode\n");
175 			return 0;
176 		}
177 }
178 
atom_get_src_int(atom_exec_context * ctx,uint8_t attr,int * ptr,uint32_t * saved,int print)179 static uint32_t atom_get_src_int(atom_exec_context *ctx, uint8_t attr,
180 				 int *ptr, uint32_t *saved, int print)
181 {
182 	uint32_t idx, val = 0xCDCDCDCD, align, arg;
183 	struct atom_context *gctx = ctx->ctx;
184 	arg = attr & 7;
185 	align = (attr >> 3) & 7;
186 	switch (arg) {
187 	case ATOM_ARG_REG:
188 		idx = U16(*ptr);
189 		(*ptr) += 2;
190 		if (print)
191 			DEBUG("REG[0x%04X]", idx);
192 		idx += gctx->reg_block;
193 		switch (gctx->io_mode) {
194 		case ATOM_IO_MM:
195 			val = gctx->card->reg_read(gctx->card, idx);
196 			break;
197 		case ATOM_IO_PCI:
198 			pr_info("PCI registers are not implemented\n");
199 			return 0;
200 		case ATOM_IO_SYSIO:
201 			pr_info("SYSIO registers are not implemented\n");
202 			return 0;
203 		default:
204 			if (!(gctx->io_mode & 0x80)) {
205 				pr_info("Bad IO mode\n");
206 				return 0;
207 			}
208 			if (!gctx->iio[gctx->io_mode & 0x7F]) {
209 				pr_info("Undefined indirect IO read method %d\n",
210 					gctx->io_mode & 0x7F);
211 				return 0;
212 			}
213 			val =
214 			    atom_iio_execute(gctx,
215 					     gctx->iio[gctx->io_mode & 0x7F],
216 					     idx, 0);
217 		}
218 		break;
219 	case ATOM_ARG_PS:
220 		idx = U8(*ptr);
221 		(*ptr)++;
222 		/* get_unaligned_le32 avoids unaligned accesses from atombios
223 		 * tables, noticed on a DEC Alpha. */
224 		val = get_unaligned_le32((u32 *)&ctx->ps[idx]);
225 		if (print)
226 			DEBUG("PS[0x%02X,0x%04X]", idx, val);
227 		break;
228 	case ATOM_ARG_WS:
229 		idx = U8(*ptr);
230 		(*ptr)++;
231 		if (print)
232 			DEBUG("WS[0x%02X]", idx);
233 		switch (idx) {
234 		case ATOM_WS_QUOTIENT:
235 			val = gctx->divmul[0];
236 			break;
237 		case ATOM_WS_REMAINDER:
238 			val = gctx->divmul[1];
239 			break;
240 		case ATOM_WS_DATAPTR:
241 			val = gctx->data_block;
242 			break;
243 		case ATOM_WS_SHIFT:
244 			val = gctx->shift;
245 			break;
246 		case ATOM_WS_OR_MASK:
247 			val = 1 << gctx->shift;
248 			break;
249 		case ATOM_WS_AND_MASK:
250 			val = ~(1 << gctx->shift);
251 			break;
252 		case ATOM_WS_FB_WINDOW:
253 			val = gctx->fb_base;
254 			break;
255 		case ATOM_WS_ATTRIBUTES:
256 			val = gctx->io_attr;
257 			break;
258 		case ATOM_WS_REGPTR:
259 			val = gctx->reg_block;
260 			break;
261 		default:
262 			val = ctx->ws[idx];
263 		}
264 		break;
265 	case ATOM_ARG_ID:
266 		idx = U16(*ptr);
267 		(*ptr) += 2;
268 		if (print) {
269 			if (gctx->data_block)
270 				DEBUG("ID[0x%04X+%04X]", idx, gctx->data_block);
271 			else
272 				DEBUG("ID[0x%04X]", idx);
273 		}
274 		val = U32(idx + gctx->data_block);
275 		break;
276 	case ATOM_ARG_FB:
277 		idx = U8(*ptr);
278 		(*ptr)++;
279 		if ((gctx->fb_base + (idx * 4)) > gctx->scratch_size_bytes) {
280 			DRM_ERROR("ATOM: fb read beyond scratch region: %d vs. %d\n",
281 				  gctx->fb_base + (idx * 4), gctx->scratch_size_bytes);
282 			val = 0;
283 		} else
284 			val = gctx->scratch[(gctx->fb_base / 4) + idx];
285 		if (print)
286 			DEBUG("FB[0x%02X]", idx);
287 		break;
288 	case ATOM_ARG_IMM:
289 		switch (align) {
290 		case ATOM_SRC_DWORD:
291 			val = U32(*ptr);
292 			(*ptr) += 4;
293 			if (print)
294 				DEBUG("IMM 0x%08X\n", val);
295 			return val;
296 		case ATOM_SRC_WORD0:
297 		case ATOM_SRC_WORD8:
298 		case ATOM_SRC_WORD16:
299 			val = U16(*ptr);
300 			(*ptr) += 2;
301 			if (print)
302 				DEBUG("IMM 0x%04X\n", val);
303 			return val;
304 		case ATOM_SRC_BYTE0:
305 		case ATOM_SRC_BYTE8:
306 		case ATOM_SRC_BYTE16:
307 		case ATOM_SRC_BYTE24:
308 			val = U8(*ptr);
309 			(*ptr)++;
310 			if (print)
311 				DEBUG("IMM 0x%02X\n", val);
312 			return val;
313 		}
314 		return 0;
315 	case ATOM_ARG_PLL:
316 		idx = U8(*ptr);
317 		(*ptr)++;
318 		if (print)
319 			DEBUG("PLL[0x%02X]", idx);
320 		val = gctx->card->pll_read(gctx->card, idx);
321 		break;
322 	case ATOM_ARG_MC:
323 		idx = U8(*ptr);
324 		(*ptr)++;
325 		if (print)
326 			DEBUG("MC[0x%02X]", idx);
327 		val = gctx->card->mc_read(gctx->card, idx);
328 		break;
329 	}
330 	if (saved)
331 		*saved = val;
332 	val &= atom_arg_mask[align];
333 	val >>= atom_arg_shift[align];
334 	if (print)
335 		switch (align) {
336 		case ATOM_SRC_DWORD:
337 			DEBUG(".[31:0] -> 0x%08X\n", val);
338 			break;
339 		case ATOM_SRC_WORD0:
340 			DEBUG(".[15:0] -> 0x%04X\n", val);
341 			break;
342 		case ATOM_SRC_WORD8:
343 			DEBUG(".[23:8] -> 0x%04X\n", val);
344 			break;
345 		case ATOM_SRC_WORD16:
346 			DEBUG(".[31:16] -> 0x%04X\n", val);
347 			break;
348 		case ATOM_SRC_BYTE0:
349 			DEBUG(".[7:0] -> 0x%02X\n", val);
350 			break;
351 		case ATOM_SRC_BYTE8:
352 			DEBUG(".[15:8] -> 0x%02X\n", val);
353 			break;
354 		case ATOM_SRC_BYTE16:
355 			DEBUG(".[23:16] -> 0x%02X\n", val);
356 			break;
357 		case ATOM_SRC_BYTE24:
358 			DEBUG(".[31:24] -> 0x%02X\n", val);
359 			break;
360 		}
361 	return val;
362 }
363 
atom_skip_src_int(atom_exec_context * ctx,uint8_t attr,int * ptr)364 static void atom_skip_src_int(atom_exec_context *ctx, uint8_t attr, int *ptr)
365 {
366 	uint32_t align = (attr >> 3) & 7, arg = attr & 7;
367 	switch (arg) {
368 	case ATOM_ARG_REG:
369 	case ATOM_ARG_ID:
370 		(*ptr) += 2;
371 		break;
372 	case ATOM_ARG_PLL:
373 	case ATOM_ARG_MC:
374 	case ATOM_ARG_PS:
375 	case ATOM_ARG_WS:
376 	case ATOM_ARG_FB:
377 		(*ptr)++;
378 		break;
379 	case ATOM_ARG_IMM:
380 		switch (align) {
381 		case ATOM_SRC_DWORD:
382 			(*ptr) += 4;
383 			return;
384 		case ATOM_SRC_WORD0:
385 		case ATOM_SRC_WORD8:
386 		case ATOM_SRC_WORD16:
387 			(*ptr) += 2;
388 			return;
389 		case ATOM_SRC_BYTE0:
390 		case ATOM_SRC_BYTE8:
391 		case ATOM_SRC_BYTE16:
392 		case ATOM_SRC_BYTE24:
393 			(*ptr)++;
394 			return;
395 		}
396 		return;
397 	}
398 }
399 
atom_get_src(atom_exec_context * ctx,uint8_t attr,int * ptr)400 static uint32_t atom_get_src(atom_exec_context *ctx, uint8_t attr, int *ptr)
401 {
402 	return atom_get_src_int(ctx, attr, ptr, NULL, 1);
403 }
404 
atom_get_src_direct(atom_exec_context * ctx,uint8_t align,int * ptr)405 static uint32_t atom_get_src_direct(atom_exec_context *ctx, uint8_t align, int *ptr)
406 {
407 	uint32_t val = 0xCDCDCDCD;
408 
409 	switch (align) {
410 	case ATOM_SRC_DWORD:
411 		val = U32(*ptr);
412 		(*ptr) += 4;
413 		break;
414 	case ATOM_SRC_WORD0:
415 	case ATOM_SRC_WORD8:
416 	case ATOM_SRC_WORD16:
417 		val = U16(*ptr);
418 		(*ptr) += 2;
419 		break;
420 	case ATOM_SRC_BYTE0:
421 	case ATOM_SRC_BYTE8:
422 	case ATOM_SRC_BYTE16:
423 	case ATOM_SRC_BYTE24:
424 		val = U8(*ptr);
425 		(*ptr)++;
426 		break;
427 	}
428 	return val;
429 }
430 
atom_get_dst(atom_exec_context * ctx,int arg,uint8_t attr,int * ptr,uint32_t * saved,int print)431 static uint32_t atom_get_dst(atom_exec_context *ctx, int arg, uint8_t attr,
432 			     int *ptr, uint32_t *saved, int print)
433 {
434 	return atom_get_src_int(ctx,
435 				arg | atom_dst_to_src[(attr >> 3) &
436 						      7][(attr >> 6) & 3] << 3,
437 				ptr, saved, print);
438 }
439 
atom_skip_dst(atom_exec_context * ctx,int arg,uint8_t attr,int * ptr)440 static void atom_skip_dst(atom_exec_context *ctx, int arg, uint8_t attr, int *ptr)
441 {
442 	atom_skip_src_int(ctx,
443 			  arg | atom_dst_to_src[(attr >> 3) & 7][(attr >> 6) &
444 								 3] << 3, ptr);
445 }
446 
atom_put_dst(atom_exec_context * ctx,int arg,uint8_t attr,int * ptr,uint32_t val,uint32_t saved)447 static void atom_put_dst(atom_exec_context *ctx, int arg, uint8_t attr,
448 			 int *ptr, uint32_t val, uint32_t saved)
449 {
450 	uint32_t align =
451 	    atom_dst_to_src[(attr >> 3) & 7][(attr >> 6) & 3], old_val =
452 	    val, idx;
453 	struct atom_context *gctx = ctx->ctx;
454 	old_val &= atom_arg_mask[align] >> atom_arg_shift[align];
455 	val <<= atom_arg_shift[align];
456 	val &= atom_arg_mask[align];
457 	saved &= ~atom_arg_mask[align];
458 	val |= saved;
459 	switch (arg) {
460 	case ATOM_ARG_REG:
461 		idx = U16(*ptr);
462 		(*ptr) += 2;
463 		DEBUG("REG[0x%04X]", idx);
464 		idx += gctx->reg_block;
465 		switch (gctx->io_mode) {
466 		case ATOM_IO_MM:
467 			if (idx == 0)
468 				gctx->card->reg_write(gctx->card, idx,
469 						      val << 2);
470 			else
471 				gctx->card->reg_write(gctx->card, idx, val);
472 			break;
473 		case ATOM_IO_PCI:
474 			pr_info("PCI registers are not implemented\n");
475 			return;
476 		case ATOM_IO_SYSIO:
477 			pr_info("SYSIO registers are not implemented\n");
478 			return;
479 		default:
480 			if (!(gctx->io_mode & 0x80)) {
481 				pr_info("Bad IO mode\n");
482 				return;
483 			}
484 			if (!gctx->iio[gctx->io_mode & 0xFF]) {
485 				pr_info("Undefined indirect IO write method %d\n",
486 					gctx->io_mode & 0x7F);
487 				return;
488 			}
489 			atom_iio_execute(gctx, gctx->iio[gctx->io_mode & 0xFF],
490 					 idx, val);
491 		}
492 		break;
493 	case ATOM_ARG_PS:
494 		idx = U8(*ptr);
495 		(*ptr)++;
496 		DEBUG("PS[0x%02X]", idx);
497 		ctx->ps[idx] = cpu_to_le32(val);
498 		break;
499 	case ATOM_ARG_WS:
500 		idx = U8(*ptr);
501 		(*ptr)++;
502 		DEBUG("WS[0x%02X]", idx);
503 		switch (idx) {
504 		case ATOM_WS_QUOTIENT:
505 			gctx->divmul[0] = val;
506 			break;
507 		case ATOM_WS_REMAINDER:
508 			gctx->divmul[1] = val;
509 			break;
510 		case ATOM_WS_DATAPTR:
511 			gctx->data_block = val;
512 			break;
513 		case ATOM_WS_SHIFT:
514 			gctx->shift = val;
515 			break;
516 		case ATOM_WS_OR_MASK:
517 		case ATOM_WS_AND_MASK:
518 			break;
519 		case ATOM_WS_FB_WINDOW:
520 			gctx->fb_base = val;
521 			break;
522 		case ATOM_WS_ATTRIBUTES:
523 			gctx->io_attr = val;
524 			break;
525 		case ATOM_WS_REGPTR:
526 			gctx->reg_block = val;
527 			break;
528 		default:
529 			ctx->ws[idx] = val;
530 		}
531 		break;
532 	case ATOM_ARG_FB:
533 		idx = U8(*ptr);
534 		(*ptr)++;
535 		if ((gctx->fb_base + (idx * 4)) > gctx->scratch_size_bytes) {
536 			DRM_ERROR("ATOM: fb write beyond scratch region: %d vs. %d\n",
537 				  gctx->fb_base + (idx * 4), gctx->scratch_size_bytes);
538 		} else
539 			gctx->scratch[(gctx->fb_base / 4) + idx] = val;
540 		DEBUG("FB[0x%02X]", idx);
541 		break;
542 	case ATOM_ARG_PLL:
543 		idx = U8(*ptr);
544 		(*ptr)++;
545 		DEBUG("PLL[0x%02X]", idx);
546 		gctx->card->pll_write(gctx->card, idx, val);
547 		break;
548 	case ATOM_ARG_MC:
549 		idx = U8(*ptr);
550 		(*ptr)++;
551 		DEBUG("MC[0x%02X]", idx);
552 		gctx->card->mc_write(gctx->card, idx, val);
553 		return;
554 	}
555 	switch (align) {
556 	case ATOM_SRC_DWORD:
557 		DEBUG(".[31:0] <- 0x%08X\n", old_val);
558 		break;
559 	case ATOM_SRC_WORD0:
560 		DEBUG(".[15:0] <- 0x%04X\n", old_val);
561 		break;
562 	case ATOM_SRC_WORD8:
563 		DEBUG(".[23:8] <- 0x%04X\n", old_val);
564 		break;
565 	case ATOM_SRC_WORD16:
566 		DEBUG(".[31:16] <- 0x%04X\n", old_val);
567 		break;
568 	case ATOM_SRC_BYTE0:
569 		DEBUG(".[7:0] <- 0x%02X\n", old_val);
570 		break;
571 	case ATOM_SRC_BYTE8:
572 		DEBUG(".[15:8] <- 0x%02X\n", old_val);
573 		break;
574 	case ATOM_SRC_BYTE16:
575 		DEBUG(".[23:16] <- 0x%02X\n", old_val);
576 		break;
577 	case ATOM_SRC_BYTE24:
578 		DEBUG(".[31:24] <- 0x%02X\n", old_val);
579 		break;
580 	}
581 }
582 
atom_op_add(atom_exec_context * ctx,int * ptr,int arg)583 static void atom_op_add(atom_exec_context *ctx, int *ptr, int arg)
584 {
585 	uint8_t attr = U8((*ptr)++);
586 	uint32_t dst, src, saved;
587 	int dptr = *ptr;
588 	SDEBUG("   dst: ");
589 	dst = atom_get_dst(ctx, arg, attr, ptr, &saved, 1);
590 	SDEBUG("   src: ");
591 	src = atom_get_src(ctx, attr, ptr);
592 	dst += src;
593 	SDEBUG("   dst: ");
594 	atom_put_dst(ctx, arg, attr, &dptr, dst, saved);
595 }
596 
atom_op_and(atom_exec_context * ctx,int * ptr,int arg)597 static void atom_op_and(atom_exec_context *ctx, int *ptr, int arg)
598 {
599 	uint8_t attr = U8((*ptr)++);
600 	uint32_t dst, src, saved;
601 	int dptr = *ptr;
602 	SDEBUG("   dst: ");
603 	dst = atom_get_dst(ctx, arg, attr, ptr, &saved, 1);
604 	SDEBUG("   src: ");
605 	src = atom_get_src(ctx, attr, ptr);
606 	dst &= src;
607 	SDEBUG("   dst: ");
608 	atom_put_dst(ctx, arg, attr, &dptr, dst, saved);
609 }
610 
atom_op_beep(atom_exec_context * ctx,int * ptr,int arg)611 static void atom_op_beep(atom_exec_context *ctx, int *ptr, int arg)
612 {
613 	printk("ATOM BIOS beeped!\n");
614 }
615 
atom_op_calltable(atom_exec_context * ctx,int * ptr,int arg)616 static void atom_op_calltable(atom_exec_context *ctx, int *ptr, int arg)
617 {
618 	int idx = U8((*ptr)++);
619 	int r = 0;
620 
621 	if (idx < ATOM_TABLE_NAMES_CNT)
622 		SDEBUG("   table: %d (%s)\n", idx, atom_table_names[idx]);
623 	else
624 		SDEBUG("   table: %d\n", idx);
625 	if (U16(ctx->ctx->cmd_table + 4 + 2 * idx))
626 		r = atom_execute_table_locked(ctx->ctx, idx, ctx->ps + ctx->ps_shift);
627 	if (r) {
628 		ctx->abort = true;
629 	}
630 }
631 
atom_op_clear(atom_exec_context * ctx,int * ptr,int arg)632 static void atom_op_clear(atom_exec_context *ctx, int *ptr, int arg)
633 {
634 	uint8_t attr = U8((*ptr)++);
635 	uint32_t saved;
636 	int dptr = *ptr;
637 	attr &= 0x38;
638 	attr |= atom_def_dst[attr >> 3] << 6;
639 	atom_get_dst(ctx, arg, attr, ptr, &saved, 0);
640 	SDEBUG("   dst: ");
641 	atom_put_dst(ctx, arg, attr, &dptr, 0, saved);
642 }
643 
atom_op_compare(atom_exec_context * ctx,int * ptr,int arg)644 static void atom_op_compare(atom_exec_context *ctx, int *ptr, int arg)
645 {
646 	uint8_t attr = U8((*ptr)++);
647 	uint32_t dst, src;
648 	SDEBUG("   src1: ");
649 	dst = atom_get_dst(ctx, arg, attr, ptr, NULL, 1);
650 	SDEBUG("   src2: ");
651 	src = atom_get_src(ctx, attr, ptr);
652 	ctx->ctx->cs_equal = (dst == src);
653 	ctx->ctx->cs_above = (dst > src);
654 	SDEBUG("   result: %s %s\n", ctx->ctx->cs_equal ? "EQ" : "NE",
655 	       ctx->ctx->cs_above ? "GT" : "LE");
656 }
657 
atom_op_delay(atom_exec_context * ctx,int * ptr,int arg)658 static void atom_op_delay(atom_exec_context *ctx, int *ptr, int arg)
659 {
660 	unsigned count = U8((*ptr)++);
661 	SDEBUG("   count: %d\n", count);
662 	if (arg == ATOM_UNIT_MICROSEC)
663 		udelay(count);
664 	else if (!drm_can_sleep())
665 		mdelay(count);
666 	else
667 		msleep(count);
668 }
669 
atom_op_div(atom_exec_context * ctx,int * ptr,int arg)670 static void atom_op_div(atom_exec_context *ctx, int *ptr, int arg)
671 {
672 	uint8_t attr = U8((*ptr)++);
673 	uint32_t dst, src;
674 	SDEBUG("   src1: ");
675 	dst = atom_get_dst(ctx, arg, attr, ptr, NULL, 1);
676 	SDEBUG("   src2: ");
677 	src = atom_get_src(ctx, attr, ptr);
678 	if (src != 0) {
679 		ctx->ctx->divmul[0] = dst / src;
680 		ctx->ctx->divmul[1] = dst % src;
681 	} else {
682 		ctx->ctx->divmul[0] = 0;
683 		ctx->ctx->divmul[1] = 0;
684 	}
685 }
686 
atom_op_eot(atom_exec_context * ctx,int * ptr,int arg)687 static void atom_op_eot(atom_exec_context *ctx, int *ptr, int arg)
688 {
689 	/* functionally, a nop */
690 }
691 
atom_op_jump(atom_exec_context * ctx,int * ptr,int arg)692 static void atom_op_jump(atom_exec_context *ctx, int *ptr, int arg)
693 {
694 	int execute = 0, target = U16(*ptr);
695 	unsigned long cjiffies;
696 
697 	(*ptr) += 2;
698 	switch (arg) {
699 	case ATOM_COND_ABOVE:
700 		execute = ctx->ctx->cs_above;
701 		break;
702 	case ATOM_COND_ABOVEOREQUAL:
703 		execute = ctx->ctx->cs_above || ctx->ctx->cs_equal;
704 		break;
705 	case ATOM_COND_ALWAYS:
706 		execute = 1;
707 		break;
708 	case ATOM_COND_BELOW:
709 		execute = !(ctx->ctx->cs_above || ctx->ctx->cs_equal);
710 		break;
711 	case ATOM_COND_BELOWOREQUAL:
712 		execute = !ctx->ctx->cs_above;
713 		break;
714 	case ATOM_COND_EQUAL:
715 		execute = ctx->ctx->cs_equal;
716 		break;
717 	case ATOM_COND_NOTEQUAL:
718 		execute = !ctx->ctx->cs_equal;
719 		break;
720 	}
721 	if (arg != ATOM_COND_ALWAYS)
722 		SDEBUG("   taken: %s\n", str_yes_no(execute));
723 	SDEBUG("   target: 0x%04X\n", target);
724 	if (execute) {
725 		if (ctx->last_jump == (ctx->start + target)) {
726 			cjiffies = jiffies;
727 			if (time_after(cjiffies, ctx->last_jump_jiffies)) {
728 				cjiffies -= ctx->last_jump_jiffies;
729 				if ((jiffies_to_msecs(cjiffies) > 5000)) {
730 					DRM_ERROR("atombios stuck in loop for more than 5secs aborting\n");
731 					ctx->abort = true;
732 				}
733 			} else {
734 				/* jiffies wrap around we will just wait a little longer */
735 				ctx->last_jump_jiffies = jiffies;
736 			}
737 		} else {
738 			ctx->last_jump = ctx->start + target;
739 			ctx->last_jump_jiffies = jiffies;
740 		}
741 		*ptr = ctx->start + target;
742 	}
743 }
744 
atom_op_mask(atom_exec_context * ctx,int * ptr,int arg)745 static void atom_op_mask(atom_exec_context *ctx, int *ptr, int arg)
746 {
747 	uint8_t attr = U8((*ptr)++);
748 	uint32_t dst, mask, src, saved;
749 	int dptr = *ptr;
750 	SDEBUG("   dst: ");
751 	dst = atom_get_dst(ctx, arg, attr, ptr, &saved, 1);
752 	mask = atom_get_src_direct(ctx, ((attr >> 3) & 7), ptr);
753 	SDEBUG("   mask: 0x%08x", mask);
754 	SDEBUG("   src: ");
755 	src = atom_get_src(ctx, attr, ptr);
756 	dst &= mask;
757 	dst |= src;
758 	SDEBUG("   dst: ");
759 	atom_put_dst(ctx, arg, attr, &dptr, dst, saved);
760 }
761 
atom_op_move(atom_exec_context * ctx,int * ptr,int arg)762 static void atom_op_move(atom_exec_context *ctx, int *ptr, int arg)
763 {
764 	uint8_t attr = U8((*ptr)++);
765 	uint32_t src, saved;
766 	int dptr = *ptr;
767 	if (((attr >> 3) & 7) != ATOM_SRC_DWORD)
768 		atom_get_dst(ctx, arg, attr, ptr, &saved, 0);
769 	else {
770 		atom_skip_dst(ctx, arg, attr, ptr);
771 		saved = 0xCDCDCDCD;
772 	}
773 	SDEBUG("   src: ");
774 	src = atom_get_src(ctx, attr, ptr);
775 	SDEBUG("   dst: ");
776 	atom_put_dst(ctx, arg, attr, &dptr, src, saved);
777 }
778 
atom_op_mul(atom_exec_context * ctx,int * ptr,int arg)779 static void atom_op_mul(atom_exec_context *ctx, int *ptr, int arg)
780 {
781 	uint8_t attr = U8((*ptr)++);
782 	uint32_t dst, src;
783 	SDEBUG("   src1: ");
784 	dst = atom_get_dst(ctx, arg, attr, ptr, NULL, 1);
785 	SDEBUG("   src2: ");
786 	src = atom_get_src(ctx, attr, ptr);
787 	ctx->ctx->divmul[0] = dst * src;
788 }
789 
atom_op_nop(atom_exec_context * ctx,int * ptr,int arg)790 static void atom_op_nop(atom_exec_context *ctx, int *ptr, int arg)
791 {
792 	/* nothing */
793 }
794 
atom_op_or(atom_exec_context * ctx,int * ptr,int arg)795 static void atom_op_or(atom_exec_context *ctx, int *ptr, int arg)
796 {
797 	uint8_t attr = U8((*ptr)++);
798 	uint32_t dst, src, saved;
799 	int dptr = *ptr;
800 	SDEBUG("   dst: ");
801 	dst = atom_get_dst(ctx, arg, attr, ptr, &saved, 1);
802 	SDEBUG("   src: ");
803 	src = atom_get_src(ctx, attr, ptr);
804 	dst |= src;
805 	SDEBUG("   dst: ");
806 	atom_put_dst(ctx, arg, attr, &dptr, dst, saved);
807 }
808 
atom_op_postcard(atom_exec_context * ctx,int * ptr,int arg)809 static void atom_op_postcard(atom_exec_context *ctx, int *ptr, int arg)
810 {
811 	uint8_t val = U8((*ptr)++);
812 	SDEBUG("POST card output: 0x%02X\n", val);
813 }
814 
atom_op_repeat(atom_exec_context * ctx,int * ptr,int arg)815 static void atom_op_repeat(atom_exec_context *ctx, int *ptr, int arg)
816 {
817 	pr_info("unimplemented!\n");
818 }
819 
atom_op_restorereg(atom_exec_context * ctx,int * ptr,int arg)820 static void atom_op_restorereg(atom_exec_context *ctx, int *ptr, int arg)
821 {
822 	pr_info("unimplemented!\n");
823 }
824 
atom_op_savereg(atom_exec_context * ctx,int * ptr,int arg)825 static void atom_op_savereg(atom_exec_context *ctx, int *ptr, int arg)
826 {
827 	pr_info("unimplemented!\n");
828 }
829 
atom_op_setdatablock(atom_exec_context * ctx,int * ptr,int arg)830 static void atom_op_setdatablock(atom_exec_context *ctx, int *ptr, int arg)
831 {
832 	int idx = U8(*ptr);
833 	(*ptr)++;
834 	SDEBUG("   block: %d\n", idx);
835 	if (!idx)
836 		ctx->ctx->data_block = 0;
837 	else if (idx == 255)
838 		ctx->ctx->data_block = ctx->start;
839 	else
840 		ctx->ctx->data_block = U16(ctx->ctx->data_table + 4 + 2 * idx);
841 	SDEBUG("   base: 0x%04X\n", ctx->ctx->data_block);
842 }
843 
atom_op_setfbbase(atom_exec_context * ctx,int * ptr,int arg)844 static void atom_op_setfbbase(atom_exec_context *ctx, int *ptr, int arg)
845 {
846 	uint8_t attr = U8((*ptr)++);
847 	SDEBUG("   fb_base: ");
848 	ctx->ctx->fb_base = atom_get_src(ctx, attr, ptr);
849 }
850 
atom_op_setport(atom_exec_context * ctx,int * ptr,int arg)851 static void atom_op_setport(atom_exec_context *ctx, int *ptr, int arg)
852 {
853 	int port;
854 	switch (arg) {
855 	case ATOM_PORT_ATI:
856 		port = U16(*ptr);
857 		if (port < ATOM_IO_NAMES_CNT)
858 			SDEBUG("   port: %d (%s)\n", port, atom_io_names[port]);
859 		else
860 			SDEBUG("   port: %d\n", port);
861 		if (!port)
862 			ctx->ctx->io_mode = ATOM_IO_MM;
863 		else
864 			ctx->ctx->io_mode = ATOM_IO_IIO | port;
865 		(*ptr) += 2;
866 		break;
867 	case ATOM_PORT_PCI:
868 		ctx->ctx->io_mode = ATOM_IO_PCI;
869 		(*ptr)++;
870 		break;
871 	case ATOM_PORT_SYSIO:
872 		ctx->ctx->io_mode = ATOM_IO_SYSIO;
873 		(*ptr)++;
874 		break;
875 	}
876 }
877 
atom_op_setregblock(atom_exec_context * ctx,int * ptr,int arg)878 static void atom_op_setregblock(atom_exec_context *ctx, int *ptr, int arg)
879 {
880 	ctx->ctx->reg_block = U16(*ptr);
881 	(*ptr) += 2;
882 	SDEBUG("   base: 0x%04X\n", ctx->ctx->reg_block);
883 }
884 
atom_op_shift_left(atom_exec_context * ctx,int * ptr,int arg)885 static void atom_op_shift_left(atom_exec_context *ctx, int *ptr, int arg)
886 {
887 	uint8_t attr = U8((*ptr)++), shift;
888 	uint32_t saved, dst;
889 	int dptr = *ptr;
890 	attr &= 0x38;
891 	attr |= atom_def_dst[attr >> 3] << 6;
892 	SDEBUG("   dst: ");
893 	dst = atom_get_dst(ctx, arg, attr, ptr, &saved, 1);
894 	shift = atom_get_src_direct(ctx, ATOM_SRC_BYTE0, ptr);
895 	SDEBUG("   shift: %d\n", shift);
896 	dst <<= shift;
897 	SDEBUG("   dst: ");
898 	atom_put_dst(ctx, arg, attr, &dptr, dst, saved);
899 }
900 
atom_op_shift_right(atom_exec_context * ctx,int * ptr,int arg)901 static void atom_op_shift_right(atom_exec_context *ctx, int *ptr, int arg)
902 {
903 	uint8_t attr = U8((*ptr)++), shift;
904 	uint32_t saved, dst;
905 	int dptr = *ptr;
906 	attr &= 0x38;
907 	attr |= atom_def_dst[attr >> 3] << 6;
908 	SDEBUG("   dst: ");
909 	dst = atom_get_dst(ctx, arg, attr, ptr, &saved, 1);
910 	shift = atom_get_src_direct(ctx, ATOM_SRC_BYTE0, ptr);
911 	SDEBUG("   shift: %d\n", shift);
912 	dst >>= shift;
913 	SDEBUG("   dst: ");
914 	atom_put_dst(ctx, arg, attr, &dptr, dst, saved);
915 }
916 
atom_op_shl(atom_exec_context * ctx,int * ptr,int arg)917 static void atom_op_shl(atom_exec_context *ctx, int *ptr, int arg)
918 {
919 	uint8_t attr = U8((*ptr)++), shift;
920 	uint32_t saved, dst;
921 	int dptr = *ptr;
922 	uint32_t dst_align = atom_dst_to_src[(attr >> 3) & 7][(attr >> 6) & 3];
923 	SDEBUG("   dst: ");
924 	dst = atom_get_dst(ctx, arg, attr, ptr, &saved, 1);
925 	/* op needs to full dst value */
926 	dst = saved;
927 	shift = atom_get_src(ctx, attr, ptr);
928 	SDEBUG("   shift: %d\n", shift);
929 	dst <<= shift;
930 	dst &= atom_arg_mask[dst_align];
931 	dst >>= atom_arg_shift[dst_align];
932 	SDEBUG("   dst: ");
933 	atom_put_dst(ctx, arg, attr, &dptr, dst, saved);
934 }
935 
atom_op_shr(atom_exec_context * ctx,int * ptr,int arg)936 static void atom_op_shr(atom_exec_context *ctx, int *ptr, int arg)
937 {
938 	uint8_t attr = U8((*ptr)++), shift;
939 	uint32_t saved, dst;
940 	int dptr = *ptr;
941 	uint32_t dst_align = atom_dst_to_src[(attr >> 3) & 7][(attr >> 6) & 3];
942 	SDEBUG("   dst: ");
943 	dst = atom_get_dst(ctx, arg, attr, ptr, &saved, 1);
944 	/* op needs to full dst value */
945 	dst = saved;
946 	shift = atom_get_src(ctx, attr, ptr);
947 	SDEBUG("   shift: %d\n", shift);
948 	dst >>= shift;
949 	dst &= atom_arg_mask[dst_align];
950 	dst >>= atom_arg_shift[dst_align];
951 	SDEBUG("   dst: ");
952 	atom_put_dst(ctx, arg, attr, &dptr, dst, saved);
953 }
954 
atom_op_sub(atom_exec_context * ctx,int * ptr,int arg)955 static void atom_op_sub(atom_exec_context *ctx, int *ptr, int arg)
956 {
957 	uint8_t attr = U8((*ptr)++);
958 	uint32_t dst, src, saved;
959 	int dptr = *ptr;
960 	SDEBUG("   dst: ");
961 	dst = atom_get_dst(ctx, arg, attr, ptr, &saved, 1);
962 	SDEBUG("   src: ");
963 	src = atom_get_src(ctx, attr, ptr);
964 	dst -= src;
965 	SDEBUG("   dst: ");
966 	atom_put_dst(ctx, arg, attr, &dptr, dst, saved);
967 }
968 
atom_op_switch(atom_exec_context * ctx,int * ptr,int arg)969 static void atom_op_switch(atom_exec_context *ctx, int *ptr, int arg)
970 {
971 	uint8_t attr = U8((*ptr)++);
972 	uint32_t src, val, target;
973 	SDEBUG("   switch: ");
974 	src = atom_get_src(ctx, attr, ptr);
975 	while (U16(*ptr) != ATOM_CASE_END)
976 		if (U8(*ptr) == ATOM_CASE_MAGIC) {
977 			(*ptr)++;
978 			SDEBUG("   case: ");
979 			val =
980 			    atom_get_src(ctx, (attr & 0x38) | ATOM_ARG_IMM,
981 					 ptr);
982 			target = U16(*ptr);
983 			if (val == src) {
984 				SDEBUG("   target: %04X\n", target);
985 				*ptr = ctx->start + target;
986 				return;
987 			}
988 			(*ptr) += 2;
989 		} else {
990 			pr_info("Bad case\n");
991 			return;
992 		}
993 	(*ptr) += 2;
994 }
995 
atom_op_test(atom_exec_context * ctx,int * ptr,int arg)996 static void atom_op_test(atom_exec_context *ctx, int *ptr, int arg)
997 {
998 	uint8_t attr = U8((*ptr)++);
999 	uint32_t dst, src;
1000 	SDEBUG("   src1: ");
1001 	dst = atom_get_dst(ctx, arg, attr, ptr, NULL, 1);
1002 	SDEBUG("   src2: ");
1003 	src = atom_get_src(ctx, attr, ptr);
1004 	ctx->ctx->cs_equal = ((dst & src) == 0);
1005 	SDEBUG("   result: %s\n", ctx->ctx->cs_equal ? "EQ" : "NE");
1006 }
1007 
atom_op_xor(atom_exec_context * ctx,int * ptr,int arg)1008 static void atom_op_xor(atom_exec_context *ctx, int *ptr, int arg)
1009 {
1010 	uint8_t attr = U8((*ptr)++);
1011 	uint32_t dst, src, saved;
1012 	int dptr = *ptr;
1013 	SDEBUG("   dst: ");
1014 	dst = atom_get_dst(ctx, arg, attr, ptr, &saved, 1);
1015 	SDEBUG("   src: ");
1016 	src = atom_get_src(ctx, attr, ptr);
1017 	dst ^= src;
1018 	SDEBUG("   dst: ");
1019 	atom_put_dst(ctx, arg, attr, &dptr, dst, saved);
1020 }
1021 
atom_op_debug(atom_exec_context * ctx,int * ptr,int arg)1022 static void atom_op_debug(atom_exec_context *ctx, int *ptr, int arg)
1023 {
1024 	pr_info("unimplemented!\n");
1025 }
1026 
1027 static struct {
1028 	void (*func) (atom_exec_context *, int *, int);
1029 	int arg;
1030 } opcode_table[ATOM_OP_CNT] = {
1031 	{
1032 	NULL, 0}, {
1033 	atom_op_move, ATOM_ARG_REG}, {
1034 	atom_op_move, ATOM_ARG_PS}, {
1035 	atom_op_move, ATOM_ARG_WS}, {
1036 	atom_op_move, ATOM_ARG_FB}, {
1037 	atom_op_move, ATOM_ARG_PLL}, {
1038 	atom_op_move, ATOM_ARG_MC}, {
1039 	atom_op_and, ATOM_ARG_REG}, {
1040 	atom_op_and, ATOM_ARG_PS}, {
1041 	atom_op_and, ATOM_ARG_WS}, {
1042 	atom_op_and, ATOM_ARG_FB}, {
1043 	atom_op_and, ATOM_ARG_PLL}, {
1044 	atom_op_and, ATOM_ARG_MC}, {
1045 	atom_op_or, ATOM_ARG_REG}, {
1046 	atom_op_or, ATOM_ARG_PS}, {
1047 	atom_op_or, ATOM_ARG_WS}, {
1048 	atom_op_or, ATOM_ARG_FB}, {
1049 	atom_op_or, ATOM_ARG_PLL}, {
1050 	atom_op_or, ATOM_ARG_MC}, {
1051 	atom_op_shift_left, ATOM_ARG_REG}, {
1052 	atom_op_shift_left, ATOM_ARG_PS}, {
1053 	atom_op_shift_left, ATOM_ARG_WS}, {
1054 	atom_op_shift_left, ATOM_ARG_FB}, {
1055 	atom_op_shift_left, ATOM_ARG_PLL}, {
1056 	atom_op_shift_left, ATOM_ARG_MC}, {
1057 	atom_op_shift_right, ATOM_ARG_REG}, {
1058 	atom_op_shift_right, ATOM_ARG_PS}, {
1059 	atom_op_shift_right, ATOM_ARG_WS}, {
1060 	atom_op_shift_right, ATOM_ARG_FB}, {
1061 	atom_op_shift_right, ATOM_ARG_PLL}, {
1062 	atom_op_shift_right, ATOM_ARG_MC}, {
1063 	atom_op_mul, ATOM_ARG_REG}, {
1064 	atom_op_mul, ATOM_ARG_PS}, {
1065 	atom_op_mul, ATOM_ARG_WS}, {
1066 	atom_op_mul, ATOM_ARG_FB}, {
1067 	atom_op_mul, ATOM_ARG_PLL}, {
1068 	atom_op_mul, ATOM_ARG_MC}, {
1069 	atom_op_div, ATOM_ARG_REG}, {
1070 	atom_op_div, ATOM_ARG_PS}, {
1071 	atom_op_div, ATOM_ARG_WS}, {
1072 	atom_op_div, ATOM_ARG_FB}, {
1073 	atom_op_div, ATOM_ARG_PLL}, {
1074 	atom_op_div, ATOM_ARG_MC}, {
1075 	atom_op_add, ATOM_ARG_REG}, {
1076 	atom_op_add, ATOM_ARG_PS}, {
1077 	atom_op_add, ATOM_ARG_WS}, {
1078 	atom_op_add, ATOM_ARG_FB}, {
1079 	atom_op_add, ATOM_ARG_PLL}, {
1080 	atom_op_add, ATOM_ARG_MC}, {
1081 	atom_op_sub, ATOM_ARG_REG}, {
1082 	atom_op_sub, ATOM_ARG_PS}, {
1083 	atom_op_sub, ATOM_ARG_WS}, {
1084 	atom_op_sub, ATOM_ARG_FB}, {
1085 	atom_op_sub, ATOM_ARG_PLL}, {
1086 	atom_op_sub, ATOM_ARG_MC}, {
1087 	atom_op_setport, ATOM_PORT_ATI}, {
1088 	atom_op_setport, ATOM_PORT_PCI}, {
1089 	atom_op_setport, ATOM_PORT_SYSIO}, {
1090 	atom_op_setregblock, 0}, {
1091 	atom_op_setfbbase, 0}, {
1092 	atom_op_compare, ATOM_ARG_REG}, {
1093 	atom_op_compare, ATOM_ARG_PS}, {
1094 	atom_op_compare, ATOM_ARG_WS}, {
1095 	atom_op_compare, ATOM_ARG_FB}, {
1096 	atom_op_compare, ATOM_ARG_PLL}, {
1097 	atom_op_compare, ATOM_ARG_MC}, {
1098 	atom_op_switch, 0}, {
1099 	atom_op_jump, ATOM_COND_ALWAYS}, {
1100 	atom_op_jump, ATOM_COND_EQUAL}, {
1101 	atom_op_jump, ATOM_COND_BELOW}, {
1102 	atom_op_jump, ATOM_COND_ABOVE}, {
1103 	atom_op_jump, ATOM_COND_BELOWOREQUAL}, {
1104 	atom_op_jump, ATOM_COND_ABOVEOREQUAL}, {
1105 	atom_op_jump, ATOM_COND_NOTEQUAL}, {
1106 	atom_op_test, ATOM_ARG_REG}, {
1107 	atom_op_test, ATOM_ARG_PS}, {
1108 	atom_op_test, ATOM_ARG_WS}, {
1109 	atom_op_test, ATOM_ARG_FB}, {
1110 	atom_op_test, ATOM_ARG_PLL}, {
1111 	atom_op_test, ATOM_ARG_MC}, {
1112 	atom_op_delay, ATOM_UNIT_MILLISEC}, {
1113 	atom_op_delay, ATOM_UNIT_MICROSEC}, {
1114 	atom_op_calltable, 0}, {
1115 	atom_op_repeat, 0}, {
1116 	atom_op_clear, ATOM_ARG_REG}, {
1117 	atom_op_clear, ATOM_ARG_PS}, {
1118 	atom_op_clear, ATOM_ARG_WS}, {
1119 	atom_op_clear, ATOM_ARG_FB}, {
1120 	atom_op_clear, ATOM_ARG_PLL}, {
1121 	atom_op_clear, ATOM_ARG_MC}, {
1122 	atom_op_nop, 0}, {
1123 	atom_op_eot, 0}, {
1124 	atom_op_mask, ATOM_ARG_REG}, {
1125 	atom_op_mask, ATOM_ARG_PS}, {
1126 	atom_op_mask, ATOM_ARG_WS}, {
1127 	atom_op_mask, ATOM_ARG_FB}, {
1128 	atom_op_mask, ATOM_ARG_PLL}, {
1129 	atom_op_mask, ATOM_ARG_MC}, {
1130 	atom_op_postcard, 0}, {
1131 	atom_op_beep, 0}, {
1132 	atom_op_savereg, 0}, {
1133 	atom_op_restorereg, 0}, {
1134 	atom_op_setdatablock, 0}, {
1135 	atom_op_xor, ATOM_ARG_REG}, {
1136 	atom_op_xor, ATOM_ARG_PS}, {
1137 	atom_op_xor, ATOM_ARG_WS}, {
1138 	atom_op_xor, ATOM_ARG_FB}, {
1139 	atom_op_xor, ATOM_ARG_PLL}, {
1140 	atom_op_xor, ATOM_ARG_MC}, {
1141 	atom_op_shl, ATOM_ARG_REG}, {
1142 	atom_op_shl, ATOM_ARG_PS}, {
1143 	atom_op_shl, ATOM_ARG_WS}, {
1144 	atom_op_shl, ATOM_ARG_FB}, {
1145 	atom_op_shl, ATOM_ARG_PLL}, {
1146 	atom_op_shl, ATOM_ARG_MC}, {
1147 	atom_op_shr, ATOM_ARG_REG}, {
1148 	atom_op_shr, ATOM_ARG_PS}, {
1149 	atom_op_shr, ATOM_ARG_WS}, {
1150 	atom_op_shr, ATOM_ARG_FB}, {
1151 	atom_op_shr, ATOM_ARG_PLL}, {
1152 	atom_op_shr, ATOM_ARG_MC}, {
1153 atom_op_debug, 0},};
1154 
atom_execute_table_locked(struct atom_context * ctx,int index,uint32_t * params)1155 static int atom_execute_table_locked(struct atom_context *ctx, int index, uint32_t *params)
1156 {
1157 	int base = CU16(ctx->cmd_table + 4 + 2 * index);
1158 	int len, ws, ps, ptr;
1159 	unsigned char op;
1160 	atom_exec_context ectx;
1161 	int ret = 0;
1162 
1163 	if (!base)
1164 		return -EINVAL;
1165 
1166 	len = CU16(base + ATOM_CT_SIZE_PTR);
1167 	ws = CU8(base + ATOM_CT_WS_PTR);
1168 	ps = CU8(base + ATOM_CT_PS_PTR) & ATOM_CT_PS_MASK;
1169 	ptr = base + ATOM_CT_CODE_PTR;
1170 
1171 	SDEBUG(">> execute %04X (len %d, WS %d, PS %d)\n", base, len, ws, ps);
1172 
1173 	ectx.ctx = ctx;
1174 	ectx.ps_shift = ps / 4;
1175 	ectx.start = base;
1176 	ectx.ps = params;
1177 	ectx.abort = false;
1178 	ectx.last_jump = 0;
1179 	if (ws)
1180 		ectx.ws = kcalloc(4, ws, GFP_KERNEL);
1181 	else
1182 		ectx.ws = NULL;
1183 
1184 	debug_depth++;
1185 	while (1) {
1186 		op = CU8(ptr++);
1187 		if (op < ATOM_OP_NAMES_CNT)
1188 			SDEBUG("%s @ 0x%04X\n", atom_op_names[op], ptr - 1);
1189 		else
1190 			SDEBUG("[%d] @ 0x%04X\n", op, ptr - 1);
1191 		if (ectx.abort) {
1192 			DRM_ERROR("atombios stuck executing %04X (len %d, WS %d, PS %d) @ 0x%04X\n",
1193 				base, len, ws, ps, ptr - 1);
1194 			ret = -EINVAL;
1195 			goto free;
1196 		}
1197 
1198 		if (op < ATOM_OP_CNT && op > 0)
1199 			opcode_table[op].func(&ectx, &ptr,
1200 					      opcode_table[op].arg);
1201 		else
1202 			break;
1203 
1204 		if (op == ATOM_OP_EOT)
1205 			break;
1206 	}
1207 	debug_depth--;
1208 	SDEBUG("<<\n");
1209 
1210 free:
1211 	kfree(ectx.ws);
1212 	return ret;
1213 }
1214 
atom_execute_table_scratch_unlocked(struct atom_context * ctx,int index,uint32_t * params)1215 int atom_execute_table_scratch_unlocked(struct atom_context *ctx, int index, uint32_t *params)
1216 {
1217 	int r;
1218 
1219 	mutex_lock(&ctx->mutex);
1220 	/* reset data block */
1221 	ctx->data_block = 0;
1222 	/* reset reg block */
1223 	ctx->reg_block = 0;
1224 	/* reset fb window */
1225 	ctx->fb_base = 0;
1226 	/* reset io mode */
1227 	ctx->io_mode = ATOM_IO_MM;
1228 	/* reset divmul */
1229 	ctx->divmul[0] = 0;
1230 	ctx->divmul[1] = 0;
1231 	r = atom_execute_table_locked(ctx, index, params);
1232 	mutex_unlock(&ctx->mutex);
1233 	return r;
1234 }
1235 
atom_execute_table(struct atom_context * ctx,int index,uint32_t * params)1236 int atom_execute_table(struct atom_context *ctx, int index, uint32_t *params)
1237 {
1238 	int r;
1239 	mutex_lock(&ctx->scratch_mutex);
1240 	r = atom_execute_table_scratch_unlocked(ctx, index, params);
1241 	mutex_unlock(&ctx->scratch_mutex);
1242 	return r;
1243 }
1244 
1245 static int atom_iio_len[] = { 1, 2, 3, 3, 3, 3, 4, 4, 4, 3 };
1246 
atom_index_iio(struct atom_context * ctx,int base)1247 static void atom_index_iio(struct atom_context *ctx, int base)
1248 {
1249 	ctx->iio = kzalloc(2 * 256, GFP_KERNEL);
1250 	if (!ctx->iio)
1251 		return;
1252 	while (CU8(base) == ATOM_IIO_START) {
1253 		ctx->iio[CU8(base + 1)] = base + 2;
1254 		base += 2;
1255 		while (CU8(base) != ATOM_IIO_END)
1256 			base += atom_iio_len[CU8(base)];
1257 		base += 3;
1258 	}
1259 }
1260 
atom_parse(struct card_info * card,void * bios)1261 struct atom_context *atom_parse(struct card_info *card, void *bios)
1262 {
1263 	int base;
1264 	struct atom_context *ctx =
1265 	    kzalloc(sizeof(struct atom_context), GFP_KERNEL);
1266 	char *str;
1267 	char name[512];
1268 	int i;
1269 
1270 	if (!ctx)
1271 		return NULL;
1272 
1273 	ctx->card = card;
1274 	ctx->bios = bios;
1275 
1276 	if (CU16(0) != ATOM_BIOS_MAGIC) {
1277 		pr_info("Invalid BIOS magic\n");
1278 		kfree(ctx);
1279 		return NULL;
1280 	}
1281 	if (strncmp
1282 	    (CSTR(ATOM_ATI_MAGIC_PTR), ATOM_ATI_MAGIC,
1283 	     strlen(ATOM_ATI_MAGIC))) {
1284 		pr_info("Invalid ATI magic\n");
1285 		kfree(ctx);
1286 		return NULL;
1287 	}
1288 
1289 	base = CU16(ATOM_ROM_TABLE_PTR);
1290 	if (strncmp
1291 	    (CSTR(base + ATOM_ROM_MAGIC_PTR), ATOM_ROM_MAGIC,
1292 	     strlen(ATOM_ROM_MAGIC))) {
1293 		pr_info("Invalid ATOM magic\n");
1294 		kfree(ctx);
1295 		return NULL;
1296 	}
1297 
1298 	ctx->cmd_table = CU16(base + ATOM_ROM_CMD_PTR);
1299 	ctx->data_table = CU16(base + ATOM_ROM_DATA_PTR);
1300 	atom_index_iio(ctx, CU16(ctx->data_table + ATOM_DATA_IIO_PTR) + 4);
1301 	if (!ctx->iio) {
1302 		atom_destroy(ctx);
1303 		return NULL;
1304 	}
1305 
1306 	str = CSTR(CU16(base + ATOM_ROM_MSG_PTR));
1307 	while (*str && ((*str == '\n') || (*str == '\r')))
1308 		str++;
1309 	/* name string isn't always 0 terminated */
1310 	for (i = 0; i < 511; i++) {
1311 		name[i] = str[i];
1312 		if (name[i] < '.' || name[i] > 'z') {
1313 			name[i] = 0;
1314 			break;
1315 		}
1316 	}
1317 	pr_info("ATOM BIOS: %s\n", name);
1318 
1319 	return ctx;
1320 }
1321 
atom_asic_init(struct atom_context * ctx)1322 int atom_asic_init(struct atom_context *ctx)
1323 {
1324 	struct radeon_device *rdev = ctx->card->dev->dev_private;
1325 	int hwi = CU16(ctx->data_table + ATOM_DATA_FWI_PTR);
1326 	uint32_t ps[16];
1327 	int ret;
1328 
1329 	memset(ps, 0, 64);
1330 
1331 	ps[0] = cpu_to_le32(CU32(hwi + ATOM_FWI_DEFSCLK_PTR));
1332 	ps[1] = cpu_to_le32(CU32(hwi + ATOM_FWI_DEFMCLK_PTR));
1333 	if (!ps[0] || !ps[1])
1334 		return 1;
1335 
1336 	if (!CU16(ctx->cmd_table + 4 + 2 * ATOM_CMD_INIT))
1337 		return 1;
1338 	ret = atom_execute_table(ctx, ATOM_CMD_INIT, ps);
1339 	if (ret)
1340 		return ret;
1341 
1342 	memset(ps, 0, 64);
1343 
1344 	if (rdev->family < CHIP_R600) {
1345 		if (CU16(ctx->cmd_table + 4 + 2 * ATOM_CMD_SPDFANCNTL))
1346 			atom_execute_table(ctx, ATOM_CMD_SPDFANCNTL, ps);
1347 	}
1348 	return ret;
1349 }
1350 
atom_destroy(struct atom_context * ctx)1351 void atom_destroy(struct atom_context *ctx)
1352 {
1353 	kfree(ctx->iio);
1354 	kfree(ctx);
1355 }
1356 
atom_parse_data_header(struct atom_context * ctx,int index,uint16_t * size,uint8_t * frev,uint8_t * crev,uint16_t * data_start)1357 bool atom_parse_data_header(struct atom_context *ctx, int index,
1358 			    uint16_t *size, uint8_t *frev, uint8_t *crev,
1359 			    uint16_t *data_start)
1360 {
1361 	int offset = index * 2 + 4;
1362 	int idx = CU16(ctx->data_table + offset);
1363 	u16 *mdt = (u16 *)(ctx->bios + ctx->data_table + 4);
1364 
1365 	if (!mdt[index])
1366 		return false;
1367 
1368 	if (size)
1369 		*size = CU16(idx);
1370 	if (frev)
1371 		*frev = CU8(idx + 2);
1372 	if (crev)
1373 		*crev = CU8(idx + 3);
1374 	*data_start = idx;
1375 	return true;
1376 }
1377 
atom_parse_cmd_header(struct atom_context * ctx,int index,uint8_t * frev,uint8_t * crev)1378 bool atom_parse_cmd_header(struct atom_context *ctx, int index, uint8_t *frev,
1379 			   uint8_t *crev)
1380 {
1381 	int offset = index * 2 + 4;
1382 	int idx = CU16(ctx->cmd_table + offset);
1383 	u16 *mct = (u16 *)(ctx->bios + ctx->cmd_table + 4);
1384 
1385 	if (!mct[index])
1386 		return false;
1387 
1388 	if (frev)
1389 		*frev = CU8(idx + 2);
1390 	if (crev)
1391 		*crev = CU8(idx + 3);
1392 	return true;
1393 }
1394 
atom_allocate_fb_scratch(struct atom_context * ctx)1395 int atom_allocate_fb_scratch(struct atom_context *ctx)
1396 {
1397 	int index = GetIndexIntoMasterTable(DATA, VRAM_UsageByFirmware);
1398 	uint16_t data_offset;
1399 	int usage_bytes = 0;
1400 	struct _ATOM_VRAM_USAGE_BY_FIRMWARE *firmware_usage;
1401 
1402 	if (atom_parse_data_header(ctx, index, NULL, NULL, NULL, &data_offset)) {
1403 		firmware_usage = (struct _ATOM_VRAM_USAGE_BY_FIRMWARE *)(ctx->bios + data_offset);
1404 
1405 		DRM_DEBUG("atom firmware requested %08x %dkb\n",
1406 			  le32_to_cpu(firmware_usage->asFirmwareVramReserveInfo[0].ulStartAddrUsedByFirmware),
1407 			  le16_to_cpu(firmware_usage->asFirmwareVramReserveInfo[0].usFirmwareUseInKb));
1408 
1409 		usage_bytes = le16_to_cpu(firmware_usage->asFirmwareVramReserveInfo[0].usFirmwareUseInKb) * 1024;
1410 	}
1411 	ctx->scratch_size_bytes = 0;
1412 	if (usage_bytes == 0)
1413 		usage_bytes = 20 * 1024;
1414 	/* allocate some scratch memory */
1415 	ctx->scratch = kzalloc(usage_bytes, GFP_KERNEL);
1416 	if (!ctx->scratch)
1417 		return -ENOMEM;
1418 	ctx->scratch_size_bytes = usage_bytes;
1419 	return 0;
1420 }
1421