172665f52e324c23842ac87070a67179bf2c8959
[libfirm] / ir / be / amd64 / amd64_emitter.c
1 /*
2  * Copyright (C) 1995-2008 University of Karlsruhe.  All right reserved.
3  *
4  * This file is part of libFirm.
5  *
6  * This file may be distributed and/or modified under the terms of the
7  * GNU General Public License version 2 as published by the Free Software
8  * Foundation and appearing in the file LICENSE.GPL included in the
9  * packaging of this file.
10  *
11  * Licensees holding valid libFirm Professional Edition licenses may use
12  * this file in accordance with the libFirm Commercial License.
13  * Agreement provided with the Software.
14  *
15  * This file is provided AS IS with NO WARRANTY OF ANY KIND, INCLUDING THE
16  * WARRANTY OF DESIGN, MERCHANTABILITY AND FITNESS FOR A PARTICULAR
17  * PURPOSE.
18  */
19
20 /**
21  * @file
22  * @brief   emit assembler for a backend graph
23  * @version $Id: amd64_emitter.c 26746 2009-11-27 08:53:15Z matze $
24  */
25 #include "config.h"
26
27 #include <limits.h>
28
29 #include "xmalloc.h"
30 #include "tv.h"
31 #include "iredges.h"
32 #include "debug.h"
33 #include "irgwalk.h"
34 #include "irprintf.h"
35 #include "irop_t.h"
36 #include "irargs_t.h"
37 #include "irprog.h"
38
39 #include "../besched.h"
40 #include "../begnuas.h"
41 #include "../beblocksched.h"
42 #include "../be_dbgout.h"
43
44 #include "amd64_emitter.h"
45 #include "gen_amd64_emitter.h"
46 #include "amd64_nodes_attr.h"
47 #include "amd64_new_nodes.h"
48
49 #define SNPRINTF_BUF_LEN 128
50
51 #include "../benode.h"
52
53 /**
54  * Returns the register at in position pos.
55  */
56 static const arch_register_t *get_in_reg(const ir_node *node, int pos)
57 {
58         ir_node                *op;
59         const arch_register_t  *reg = NULL;
60
61         assert(get_irn_arity(node) > pos && "Invalid IN position");
62
63         /* The out register of the operator at position pos is the
64            in register we need. */
65         op = get_irn_n(node, pos);
66
67         reg = arch_get_irn_register(op);
68
69         assert(reg && "no in register found");
70         return reg;
71 }
72
73 /**
74  * Returns the register at out position pos.
75  */
76 static const arch_register_t *get_out_reg(const ir_node *node, int pos)
77 {
78         ir_node                *proj;
79         const arch_register_t  *reg = NULL;
80
81         /* 1st case: irn is not of mode_T, so it has only                 */
82         /*           one OUT register -> good                             */
83         /* 2nd case: irn is of mode_T -> collect all Projs and ask the    */
84         /*           Proj with the corresponding projnum for the register */
85
86         if (get_irn_mode(node) != mode_T) {
87                 reg = arch_get_irn_register(node);
88         } else if (is_amd64_irn(node)) {
89                 reg = arch_irn_get_register(node, pos);
90         } else {
91                 const ir_edge_t *edge;
92
93                 foreach_out_edge(node, edge) {
94                         proj = get_edge_src_irn(edge);
95                         assert(is_Proj(proj) && "non-Proj from mode_T node");
96                         if (get_Proj_proj(proj) == pos) {
97                                 reg = arch_get_irn_register(proj);
98                                 break;
99                         }
100                 }
101         }
102
103         assert(reg && "no out register found");
104         return reg;
105 }
106
107 /*************************************************************
108  *             _       _    __   _          _
109  *            (_)     | |  / _| | |        | |
110  *  _ __  _ __ _ _ __ | |_| |_  | |__   ___| |_ __   ___ _ __
111  * | '_ \| '__| | '_ \| __|  _| | '_ \ / _ \ | '_ \ / _ \ '__|
112  * | |_) | |  | | | | | |_| |   | | | |  __/ | |_) |  __/ |
113  * | .__/|_|  |_|_| |_|\__|_|   |_| |_|\___|_| .__/ \___|_|
114  * | |                                       | |
115  * |_|                                       |_|
116  *************************************************************/
117
118 void amd64_emit_register(const arch_register_t *reg)
119 {
120         be_emit_char('%');
121         be_emit_string(arch_register_get_name(reg));
122 }
123
124 void amd64_emit_immediate(const ir_node *node)
125 {
126         const amd64_attr_t *attr = get_amd64_attr_const (node);
127         be_emit_char('$');
128         be_emit_irprintf("0x%X", attr->ext.imm_value);
129 }
130
131 void amd64_emit_source_register(const ir_node *node, int pos)
132 {
133         amd64_emit_register(get_in_reg(node, pos));
134 }
135
136 void amd64_emit_dest_register(const ir_node *node, int pos)
137 {
138         amd64_emit_register(get_out_reg(node, pos));
139 }
140
141 /**
142  * Returns the target label for a control flow node.
143  */
144 /*
145 static void amd64_emit_cfop_target(const ir_node *node)
146 {
147         ir_node *block = get_irn_link(node);
148
149         be_emit_irprintf("BLOCK_%ld", get_irn_node_nr(block));
150 }
151 */
152
153 /***********************************************************************************
154  *                  _          __                                             _
155  *                 (_)        / _|                                           | |
156  *  _ __ ___   __ _ _ _ __   | |_ _ __ __ _ _ __ ___   _____      _____  _ __| | __
157  * | '_ ` _ \ / _` | | '_ \  |  _| '__/ _` | '_ ` _ \ / _ \ \ /\ / / _ \| '__| |/ /
158  * | | | | | | (_| | | | | | | | | | | (_| | | | | | |  __/\ V  V / (_) | |  |   <
159  * |_| |_| |_|\__,_|_|_| |_| |_| |_|  \__,_|_| |_| |_|\___| \_/\_/ \___/|_|  |_|\_\
160  *
161  ***********************************************************************************/
162
163 /**
164  * Default emitter for anything that we don't want to generate code for.
165  */
166 static void emit_nothing(const ir_node *node)
167 {
168         (void) node;
169 }
170
171 /**
172  * Emit a SymConst.
173  */
174 static void emit_amd64_SymConst(const ir_node *irn)
175 {
176         const amd64_SymConst_attr_t *attr = get_amd64_SymConst_attr_const(irn);
177 //      sym_or_tv_t key, *entry;
178 //      unsigned label;
179 //
180 //      key.u.id     = get_entity_ld_ident(attr->entity);
181 //      key.is_ident = 1;
182 //      key.label    = 0;
183 //      entry = (sym_or_tv_t *)set_insert(sym_or_tv, &key, sizeof(key), HASH_PTR(key.u.generic));
184 //      if (entry->label == 0) {
185 //              /* allocate a label */
186 //              entry->label = get_unique_label();
187 //      }
188 //      label = entry->label;
189
190         be_emit_cstring("\tmov $");
191         be_gas_emit_entity(attr->entity);
192         be_emit_cstring(", ");
193         amd64_emit_dest_register(irn, 0);
194         be_emit_finish_line_gas(irn);
195 }
196
197 /**
198  * Emit a Conv.
199  */
200 static void emit_amd64_Conv(const ir_node *irn)
201 {
202         const amd64_attr_t *attr = get_irn_generic_attr_const(irn);
203         (void) attr;
204
205         be_emit_cstring("\tmov ");
206         amd64_emit_source_register(irn, 0);
207         be_emit_cstring(", ");
208         amd64_emit_dest_register(irn, 0);
209         be_emit_finish_line_gas(irn);
210 }
211
212
213 /**
214  * Returns the next block in a block schedule.
215  */
216 static ir_node *sched_next_block(const ir_node *block)
217 {
218     return get_irn_link(block);
219 }
220
221 /**
222  * Returns the target block for a control flow node.
223  */
224 static ir_node *get_cfop_target_block(const ir_node *irn)
225 {
226         return get_irn_link(irn);
227 }
228
229 /**
230  * Emit the target label for a control flow node.
231  */
232 static void amd64_emit_cfop_target(const ir_node *irn)
233 {
234         ir_node *block = get_cfop_target_block(irn);
235
236         be_gas_emit_block_name(block);
237 }
238
239 /**
240  * Emit a Jmp.
241  */
242 static void emit_amd64_Jmp(const ir_node *node)
243 {
244         ir_node *block, *next_block;
245
246         /* for now, the code works for scheduled and non-schedules blocks */
247         block = get_nodes_block(node);
248
249         /* we have a block schedule */
250         next_block = sched_next_block(block);
251         if (get_cfop_target_block(node) != next_block) {
252                 be_emit_cstring("\tjmp ");
253                 amd64_emit_cfop_target(node);
254         } else {
255                 be_emit_cstring("\t/* fallthrough to ");
256                 amd64_emit_cfop_target(node);
257                 be_emit_cstring(" */");
258         }
259         be_emit_finish_line_gas(node);
260 }
261
262 /**
263  * Emit a Compare with conditional branch.
264  */
265 static void emit_amd64_Jcc(const ir_node *irn)
266 {
267         const ir_edge_t      *edge;
268         const ir_node        *proj_true  = NULL;
269         const ir_node        *proj_false = NULL;
270         const ir_node        *block;
271         const ir_node        *next_block;
272         const char           *suffix;
273         const amd64_attr_t   *attr      = get_irn_generic_attr_const(irn);
274         int                   proj_num  = attr->ext.pnc;
275         ir_node              *op1       = get_irn_n(irn, 0);
276         const amd64_attr_t   *cmp_attr  = get_irn_generic_attr_const(op1);
277         bool                  is_signed = !cmp_attr->data.cmp_unsigned;
278
279         assert(is_amd64_Cmp(op1));
280
281         foreach_out_edge(irn, edge) {
282                 ir_node *proj = get_edge_src_irn(edge);
283                 long nr = get_Proj_proj(proj);
284                 if (nr == pn_Cond_true) {
285                         proj_true = proj;
286                 } else {
287                         proj_false = proj;
288                 }
289         }
290
291         if (cmp_attr->data.ins_permuted) {
292                 proj_num = get_mirrored_pnc(proj_num);
293         }
294
295         /* for now, the code works for scheduled and non-schedules blocks */
296         block = get_nodes_block(irn);
297
298         /* we have a block schedule */
299         next_block = sched_next_block(block);
300
301         assert(proj_num != pn_Cmp_False);
302         assert(proj_num != pn_Cmp_True);
303
304         if (get_cfop_target_block(proj_true) == next_block) {
305                 /* exchange both proj's so the second one can be omitted */
306                 const ir_node *t = proj_true;
307
308                 proj_true  = proj_false;
309                 proj_false = t;
310                 proj_num   = get_negated_pnc(proj_num, mode_Lu);
311         }
312
313         switch (proj_num) {
314                 case pn_Cmp_Eq:  suffix = "e"; break;
315                 case pn_Cmp_Lt:  suffix = is_signed ? "l"  : "b"; break;
316                 case pn_Cmp_Le:  suffix = is_signed ? "le" : "be"; break;
317                 case pn_Cmp_Gt:  suffix = is_signed ? "g"  : "o"; break;
318                 case pn_Cmp_Ge:  suffix = is_signed ? "ge" : "oe"; break;
319                 case pn_Cmp_Lg:  suffix = "ne"; break;
320                 case pn_Cmp_Leg: suffix = "mp"; break;
321                 default: panic("Cmp has unsupported pnc");
322         }
323
324         /* emit the true proj */
325         be_emit_irprintf("\tj%s ", suffix);
326         amd64_emit_cfop_target(proj_true);
327         be_emit_finish_line_gas(proj_true);
328
329         if (get_cfop_target_block(proj_false) == next_block) {
330                 be_emit_cstring("\t/* fallthrough to ");
331                 amd64_emit_cfop_target(proj_false);
332                 be_emit_cstring(" */");
333                 be_emit_finish_line_gas(proj_false);
334         } else {
335                 be_emit_cstring("\tjmp ");
336                 amd64_emit_cfop_target(proj_false);
337                 be_emit_finish_line_gas(proj_false);
338         }
339 }
340
341 /**
342  * Emits code for a call.
343  */
344 static void emit_be_Call(const ir_node *node)
345 {
346         ir_entity *entity = be_Call_get_entity(node);
347
348         /* %eax/%rax is used in AMD64 to pass the number of vector parameters for
349          * variable argument counts */
350         if (get_method_variadicity (be_Call_get_type((ir_node *) node))) {
351                 /* But this still is a hack... */
352                 be_emit_cstring("\txor %rax, %rax");
353                 be_emit_finish_line_gas(node);
354         }
355
356         if (entity) {
357                 be_emit_cstring("\tcall ");
358                 be_gas_emit_entity (be_Call_get_entity(node));
359                 be_emit_finish_line_gas(node);
360         } else {
361                 be_emit_pad_comment();
362                 be_emit_cstring("/* FIXME: call NULL entity?! */\n");
363         }
364 }
365
366 /**
367  * emit copy node
368  */
369 static void emit_be_Copy(const ir_node *irn)
370 {
371         ir_mode *mode = get_irn_mode(irn);
372
373         if (get_in_reg(irn, 0) == get_out_reg(irn, 0)) {
374                 /* omitted Copy */
375                 return;
376         }
377
378         if (mode_is_float(mode)) {
379                 panic("emit_be_Copy: move not supported for FP");
380         } else if (mode_is_data(mode)) {
381                 be_emit_cstring("\tmov ");
382                 amd64_emit_source_register(irn, 0);
383                 be_emit_cstring(", ");
384                 amd64_emit_dest_register(irn, 0);
385                 be_emit_finish_line_gas(irn);
386         } else {
387                 panic("emit_be_Copy: move not supported for this mode");
388         }
389 }
390
391 static void emit_amd64_FrameAddr(const ir_node *irn)
392 {
393         const amd64_SymConst_attr_t *attr = get_irn_generic_attr_const(irn);
394
395         be_emit_cstring("\tmov ");
396         amd64_emit_source_register(irn, 0);
397         be_emit_cstring(", ");
398         amd64_emit_dest_register(irn, 0);
399         be_emit_finish_line_gas(irn);
400
401         be_emit_cstring("\tadd ");
402         be_emit_irprintf("$0x%X", attr->fp_offset);
403         be_emit_cstring(", ");
404         amd64_emit_dest_register(irn, 0);
405         be_emit_finish_line_gas(irn);
406 }
407
408 /**
409  * Emits code to increase stack pointer.
410  */
411 static void emit_be_IncSP(const ir_node *node)
412 {
413         int offs = be_get_IncSP_offset(node);
414
415         if (offs == 0)
416                 return;
417
418         if (offs > 0) {
419                 be_emit_irprintf("\tsub ");
420                 amd64_emit_dest_register(node, 0);
421                 be_emit_irprintf(", $%u", offs);
422                 be_emit_finish_line_gas(node);
423         } else {
424                 be_emit_irprintf("\tadd ");
425                 amd64_emit_dest_register(node, 0);
426                 be_emit_irprintf(", $%u", -offs);
427                 be_emit_finish_line_gas(node);
428         }
429 }
430
431 /**
432  * Emits code for a return.
433  */
434 static void emit_be_Return(const ir_node *node)
435 {
436         be_emit_cstring("\tret");
437         be_emit_finish_line_gas(node);
438 }
439
440
441 static void emit_amd64_binop_op(const ir_node *irn, int second_op)
442 {
443         if (irn->op == op_amd64_Add) {
444                 be_emit_cstring("\tadd ");
445         } else if (irn->op == op_amd64_Mul) {
446                 be_emit_cstring("\tmul ");
447         } else if (irn->op == op_amd64_Sub) {
448                 be_emit_cstring("\tsub ");
449         }
450
451         amd64_emit_source_register(irn, second_op);
452         be_emit_cstring(", ");
453         amd64_emit_dest_register(irn, 0);
454         be_emit_finish_line_gas(irn);
455 }
456
457 /**
458  * Emits an arithmetic operation that handles arbitraty input registers.
459  */
460 static void emit_amd64_binop(const ir_node *irn)
461 {
462         const arch_register_t *reg_s1 = get_in_reg(irn, 0);
463         const arch_register_t *reg_s2 = get_in_reg(irn, 1);
464         const arch_register_t *reg_d1 = get_out_reg(irn, 0);
465
466         int second_op = 0;
467
468         if (reg_d1 != reg_s1 && reg_d1 != reg_s2) {
469                 be_emit_cstring("\tmov ");
470                 amd64_emit_register(reg_s1);
471                 be_emit_cstring(", ");
472                 amd64_emit_register(reg_d1);
473                 be_emit_finish_line_gas(irn);
474                 second_op = 1;
475
476         } else if (reg_d1 == reg_s2 && reg_d1 != reg_s1) {
477                 second_op = 0;
478
479         }
480
481         emit_amd64_binop_op(irn, second_op);
482 }
483
484 /**
485  * The type of a emitter function.
486  */
487 typedef void (emit_func)(const ir_node *irn);
488
489 /**
490  * Set a node emitter. Make it a bit more type safe.
491  */
492 static inline void set_emitter(ir_op *op, emit_func arm_emit_node)
493 {
494         op->ops.generic = (op_func)arm_emit_node;
495 }
496
497 /**
498  * Enters the emitter functions for handled nodes into the generic
499  * pointer of an opcode.
500  */
501 static void amd64_register_emitters(void)
502 {
503         /* first clear the generic function pointer for all ops */
504         clear_irp_opcodes_generic_func();
505
506         /* register all emitter functions defined in spec */
507         amd64_register_spec_emitters();
508
509         set_emitter(op_amd64_SymConst,   emit_amd64_SymConst);
510         set_emitter(op_amd64_Jmp,        emit_amd64_Jmp);
511         set_emitter(op_amd64_Jcc,        emit_amd64_Jcc);
512         set_emitter(op_amd64_Conv,       emit_amd64_Conv);
513         set_emitter(op_amd64_FrameAddr,  emit_amd64_FrameAddr);
514         set_emitter(op_be_Return,        emit_be_Return);
515         set_emitter(op_be_Call,          emit_be_Call);
516         set_emitter(op_be_Copy,          emit_be_Copy);
517         set_emitter(op_be_IncSP,         emit_be_IncSP);
518
519         set_emitter(op_amd64_Add,        emit_amd64_binop);
520         set_emitter(op_amd64_Mul,        emit_amd64_binop);
521
522         set_emitter(op_be_Start,         emit_nothing);
523         set_emitter(op_be_Keep,          emit_nothing);
524         set_emitter(op_be_Barrier,       emit_nothing);
525         set_emitter(op_Phi,              emit_nothing);
526 }
527
528 typedef void (*emit_func_ptr) (const ir_node *);
529
530 /**
531  * Emits code for a node.
532  */
533 static void amd64_emit_node(const ir_node *node)
534 {
535         ir_op               *op       = get_irn_op(node);
536
537         if (op->ops.generic) {
538                 emit_func_ptr func = (emit_func_ptr) op->ops.generic;
539                 (*func) (node);
540         } else {
541                 ir_fprintf(stderr, "No emitter for node %+F\n", node);
542         }
543 }
544
545 /**
546  * Walks over the nodes in a block connected by scheduling edges
547  * and emits code for each node.
548  */
549 static void amd64_gen_block(ir_node *block, void *data)
550 {
551         ir_node *node;
552         (void) data;
553
554         if (! is_Block(block))
555                 return;
556
557         be_gas_emit_block_name(block);
558         be_emit_char(':');
559
560         be_emit_write_line();
561
562         sched_foreach(block, node) {
563                 amd64_emit_node(node);
564         }
565 }
566
567
568 /**
569  * Sets labels for control flow nodes (jump target)
570  * TODO: Jump optimization
571  */
572 static void amd64_gen_labels(ir_node *block, void *env)
573 {
574         ir_node *pred;
575         int n = get_Block_n_cfgpreds(block);
576         (void) env;
577
578         for (n--; n >= 0; n--) {
579                 pred = get_Block_cfgpred(block, n);
580                 set_irn_link(pred, block);
581         }
582 }
583
584 /**
585  * Main driver
586  */
587 void amd64_gen_routine(const amd64_code_gen_t *cg, ir_graph *irg)
588 {
589         ir_entity *entity = get_irg_entity(irg);
590         ir_node  **blk_sched;
591         int i, n;
592         (void)cg;
593
594         /* register all emitter functions */
595         amd64_register_emitters();
596
597         blk_sched = be_create_block_schedule(irg);
598
599         be_dbg_method_begin(entity, be_abi_get_stack_layout(cg->birg->abi));
600         be_gas_emit_function_prolog(entity, 4);
601
602         irg_block_walk_graph(irg, amd64_gen_labels, NULL, NULL);
603
604         n = ARR_LEN(blk_sched);
605         for (i = 0; i < n; i++) {
606                 ir_node *block = blk_sched[i];
607                 ir_node *next  = (i + 1) < n ? blk_sched[i+1] : NULL;
608
609                 set_irn_link(block, next);
610         }
611
612         for (i = 0; i < n; ++i) {
613                 ir_node *block = blk_sched[i];
614
615                 amd64_gen_block(block, 0);
616         }
617
618         be_gas_emit_function_epilog(entity);
619         be_dbg_method_end();
620         be_emit_char('\n');
621         be_emit_write_line();
622 }