amd64: made SymConst rematerializable and added emission of be_Perm.
[libfirm] / ir / be / amd64 / amd64_emitter.c
1 /*
2  * Copyright (C) 1995-2008 University of Karlsruhe.  All right reserved.
3  *
4  * This file is part of libFirm.
5  *
6  * This file may be distributed and/or modified under the terms of the
7  * GNU General Public License version 2 as published by the Free Software
8  * Foundation and appearing in the file LICENSE.GPL included in the
9  * packaging of this file.
10  *
11  * Licensees holding valid libFirm Professional Edition licenses may use
12  * this file in accordance with the libFirm Commercial License.
13  * Agreement provided with the Software.
14  *
15  * This file is provided AS IS with NO WARRANTY OF ANY KIND, INCLUDING THE
16  * WARRANTY OF DESIGN, MERCHANTABILITY AND FITNESS FOR A PARTICULAR
17  * PURPOSE.
18  */
19
20 /**
21  * @file
22  * @brief   emit assembler for a backend graph
23  * @version $Id: amd64_emitter.c 26746 2009-11-27 08:53:15Z matze $
24  */
25 #include "config.h"
26
27 #include <limits.h>
28
29 #include "xmalloc.h"
30 #include "tv.h"
31 #include "iredges.h"
32 #include "debug.h"
33 #include "irgwalk.h"
34 #include "irprintf.h"
35 #include "irop_t.h"
36 #include "irargs_t.h"
37 #include "irprog.h"
38
39 #include "../besched.h"
40 #include "../begnuas.h"
41 #include "../beblocksched.h"
42 #include "../be_dbgout.h"
43
44 #include "amd64_emitter.h"
45 #include "gen_amd64_emitter.h"
46 #include "gen_amd64_regalloc_if.h"
47 #include "amd64_nodes_attr.h"
48 #include "amd64_new_nodes.h"
49
50 #define SNPRINTF_BUF_LEN 128
51
52 #include "../benode.h"
53
54 /**
55  * Returns the register at in position pos.
56  */
57 static const arch_register_t *get_in_reg(const ir_node *node, int pos)
58 {
59         ir_node                *op;
60         const arch_register_t  *reg = NULL;
61
62         assert(get_irn_arity(node) > pos && "Invalid IN position");
63
64         /* The out register of the operator at position pos is the
65            in register we need. */
66         op = get_irn_n(node, pos);
67
68         reg = arch_get_irn_register(op);
69
70         assert(reg && "no in register found");
71         return reg;
72 }
73
74 /**
75  * Returns the register at out position pos.
76  */
77 static const arch_register_t *get_out_reg(const ir_node *node, int pos)
78 {
79         ir_node                *proj;
80         const arch_register_t  *reg = NULL;
81
82         /* 1st case: irn is not of mode_T, so it has only                 */
83         /*           one OUT register -> good                             */
84         /* 2nd case: irn is of mode_T -> collect all Projs and ask the    */
85         /*           Proj with the corresponding projnum for the register */
86
87         if (get_irn_mode(node) != mode_T) {
88                 reg = arch_get_irn_register(node);
89         } else if (is_amd64_irn(node)) {
90                 reg = arch_irn_get_register(node, pos);
91         } else {
92                 const ir_edge_t *edge;
93
94                 foreach_out_edge(node, edge) {
95                         proj = get_edge_src_irn(edge);
96                         assert(is_Proj(proj) && "non-Proj from mode_T node");
97                         if (get_Proj_proj(proj) == pos) {
98                                 reg = arch_get_irn_register(proj);
99                                 break;
100                         }
101                 }
102         }
103
104         assert(reg && "no out register found");
105         return reg;
106 }
107
108 /*************************************************************
109  *             _       _    __   _          _
110  *            (_)     | |  / _| | |        | |
111  *  _ __  _ __ _ _ __ | |_| |_  | |__   ___| |_ __   ___ _ __
112  * | '_ \| '__| | '_ \| __|  _| | '_ \ / _ \ | '_ \ / _ \ '__|
113  * | |_) | |  | | | | | |_| |   | | | |  __/ | |_) |  __/ |
114  * | .__/|_|  |_|_| |_|\__|_|   |_| |_|\___|_| .__/ \___|_|
115  * | |                                       | |
116  * |_|                                       |_|
117  *************************************************************/
118
119 void amd64_emit_register(const arch_register_t *reg)
120 {
121         be_emit_char('%');
122         be_emit_string(arch_register_get_name(reg));
123 }
124
125 void amd64_emit_immediate(const ir_node *node)
126 {
127         const amd64_attr_t *attr = get_amd64_attr_const (node);
128         be_emit_char('$');
129         be_emit_irprintf("0x%X", attr->ext.imm_value);
130 }
131
132 void amd64_emit_fp_offset(const ir_node *node)
133 {
134         const amd64_SymConst_attr_t *attr = get_amd64_SymConst_attr_const(node);
135         if (attr->fp_offset)
136                 be_emit_irprintf("%d", attr->fp_offset);
137 }
138
139 void amd64_emit_source_register(const ir_node *node, int pos)
140 {
141         amd64_emit_register(get_in_reg(node, pos));
142 }
143
144 void amd64_emit_dest_register(const ir_node *node, int pos)
145 {
146         amd64_emit_register(get_out_reg(node, pos));
147 }
148
149 /**
150  * Returns the target label for a control flow node.
151  */
152 /*
153 static void amd64_emit_cfop_target(const ir_node *node)
154 {
155         ir_node *block = get_irn_link(node);
156
157         be_emit_irprintf("BLOCK_%ld", get_irn_node_nr(block));
158 }
159 */
160
161 /***********************************************************************************
162  *                  _          __                                             _
163  *                 (_)        / _|                                           | |
164  *  _ __ ___   __ _ _ _ __   | |_ _ __ __ _ _ __ ___   _____      _____  _ __| | __
165  * | '_ ` _ \ / _` | | '_ \  |  _| '__/ _` | '_ ` _ \ / _ \ \ /\ / / _ \| '__| |/ /
166  * | | | | | | (_| | | | | | | | | | | (_| | | | | | |  __/\ V  V / (_) | |  |   <
167  * |_| |_| |_|\__,_|_|_| |_| |_| |_|  \__,_|_| |_| |_|\___| \_/\_/ \___/|_|  |_|\_\
168  *
169  ***********************************************************************************/
170
171 /**
172  * Default emitter for anything that we don't want to generate code for.
173  */
174 static void emit_nothing(const ir_node *node)
175 {
176         (void) node;
177 }
178
179 /**
180  * Emit a SymConst.
181  */
182 static void emit_amd64_SymConst(const ir_node *irn)
183 {
184         const amd64_SymConst_attr_t *attr = get_amd64_SymConst_attr_const(irn);
185 //      sym_or_tv_t key, *entry;
186 //      unsigned label;
187 //
188 //      key.u.id     = get_entity_ld_ident(attr->entity);
189 //      key.is_ident = 1;
190 //      key.label    = 0;
191 //      entry = (sym_or_tv_t *)set_insert(sym_or_tv, &key, sizeof(key), HASH_PTR(key.u.generic));
192 //      if (entry->label == 0) {
193 //              /* allocate a label */
194 //              entry->label = get_unique_label();
195 //      }
196 //      label = entry->label;
197
198         be_emit_cstring("\tmov $");
199         be_gas_emit_entity(attr->entity);
200         be_emit_cstring(", ");
201         amd64_emit_dest_register(irn, 0);
202         be_emit_finish_line_gas(irn);
203 }
204
205 /**
206  * Emit a Conv.
207  */
208 static void emit_amd64_Conv(const ir_node *irn)
209 {
210         const amd64_attr_t *attr = get_irn_generic_attr_const(irn);
211         (void) attr;
212
213         be_emit_cstring("\tmov ");
214         amd64_emit_source_register(irn, 0);
215         be_emit_cstring(", ");
216         amd64_emit_dest_register(irn, 0);
217         be_emit_finish_line_gas(irn);
218 }
219
220
221 /**
222  * Returns the next block in a block schedule.
223  */
224 static ir_node *sched_next_block(const ir_node *block)
225 {
226     return get_irn_link(block);
227 }
228
229 /**
230  * Returns the target block for a control flow node.
231  */
232 static ir_node *get_cfop_target_block(const ir_node *irn)
233 {
234         return get_irn_link(irn);
235 }
236
237 /**
238  * Emit the target label for a control flow node.
239  */
240 static void amd64_emit_cfop_target(const ir_node *irn)
241 {
242         ir_node *block = get_cfop_target_block(irn);
243
244         be_gas_emit_block_name(block);
245 }
246
247 /**
248  * Emit a Jmp.
249  */
250 static void emit_amd64_Jmp(const ir_node *node)
251 {
252         ir_node *block, *next_block;
253
254         /* for now, the code works for scheduled and non-schedules blocks */
255         block = get_nodes_block(node);
256
257         /* we have a block schedule */
258         next_block = sched_next_block(block);
259         if (get_cfop_target_block(node) != next_block) {
260                 be_emit_cstring("\tjmp ");
261                 amd64_emit_cfop_target(node);
262         } else {
263                 be_emit_cstring("\t/* fallthrough to ");
264                 amd64_emit_cfop_target(node);
265                 be_emit_cstring(" */");
266         }
267         be_emit_finish_line_gas(node);
268 }
269
270 /**
271  * Emit a Compare with conditional branch.
272  */
273 static void emit_amd64_Jcc(const ir_node *irn)
274 {
275         const ir_edge_t      *edge;
276         const ir_node        *proj_true  = NULL;
277         const ir_node        *proj_false = NULL;
278         const ir_node        *block;
279         const ir_node        *next_block;
280         const char           *suffix;
281         const amd64_attr_t   *attr      = get_irn_generic_attr_const(irn);
282         int                   proj_num  = attr->ext.pnc;
283         ir_node              *op1       = get_irn_n(irn, 0);
284         const amd64_attr_t   *cmp_attr  = get_irn_generic_attr_const(op1);
285         bool                  is_signed = !cmp_attr->data.cmp_unsigned;
286
287         assert(is_amd64_Cmp(op1));
288
289         foreach_out_edge(irn, edge) {
290                 ir_node *proj = get_edge_src_irn(edge);
291                 long nr = get_Proj_proj(proj);
292                 if (nr == pn_Cond_true) {
293                         proj_true = proj;
294                 } else {
295                         proj_false = proj;
296                 }
297         }
298
299         if (cmp_attr->data.ins_permuted) {
300                 proj_num = get_mirrored_pnc(proj_num);
301         }
302
303         /* for now, the code works for scheduled and non-schedules blocks */
304         block = get_nodes_block(irn);
305
306         /* we have a block schedule */
307         next_block = sched_next_block(block);
308
309         assert(proj_num != pn_Cmp_False);
310         assert(proj_num != pn_Cmp_True);
311
312         if (get_cfop_target_block(proj_true) == next_block) {
313                 /* exchange both proj's so the second one can be omitted */
314                 const ir_node *t = proj_true;
315
316                 proj_true  = proj_false;
317                 proj_false = t;
318                 proj_num   = get_negated_pnc(proj_num, mode_Lu);
319         }
320
321         switch (proj_num) {
322                 case pn_Cmp_Eq:  suffix = "e"; break;
323                 case pn_Cmp_Lt:  suffix = is_signed ? "l"  : "b"; break;
324                 case pn_Cmp_Le:  suffix = is_signed ? "le" : "be"; break;
325                 case pn_Cmp_Gt:  suffix = is_signed ? "g"  : "a"; break;
326                 case pn_Cmp_Ge:  suffix = is_signed ? "ge" : "ae"; break;
327                 case pn_Cmp_Lg:  suffix = "ne"; break;
328                 case pn_Cmp_Leg: suffix = "mp"; break;
329                 default: panic("Cmp has unsupported pnc");
330         }
331
332         /* emit the true proj */
333         be_emit_irprintf("\tj%s ", suffix);
334         amd64_emit_cfop_target(proj_true);
335         be_emit_finish_line_gas(proj_true);
336
337         if (get_cfop_target_block(proj_false) == next_block) {
338                 be_emit_cstring("\t/* fallthrough to ");
339                 amd64_emit_cfop_target(proj_false);
340                 be_emit_cstring(" */");
341                 be_emit_finish_line_gas(proj_false);
342         } else {
343                 be_emit_cstring("\tjmp ");
344                 amd64_emit_cfop_target(proj_false);
345                 be_emit_finish_line_gas(proj_false);
346         }
347 }
348
349 /**
350  * Emits code for a call.
351  */
352 static void emit_be_Call(const ir_node *node)
353 {
354         ir_entity *entity = be_Call_get_entity(node);
355
356         /* %eax/%rax is used in AMD64 to pass the number of vector parameters for
357          * variable argument counts */
358         if (get_method_variadicity (be_Call_get_type((ir_node *) node))) {
359                 /* But this still is a hack... */
360                 be_emit_cstring("\txor %rax, %rax");
361                 be_emit_finish_line_gas(node);
362         }
363
364         if (entity) {
365                 be_emit_cstring("\tcall ");
366                 be_gas_emit_entity (be_Call_get_entity(node));
367                 be_emit_finish_line_gas(node);
368         } else {
369                 be_emit_pad_comment();
370                 be_emit_cstring("/* FIXME: call NULL entity?! */\n");
371         }
372 }
373
374 /**
375  * emit copy node
376  */
377 static void emit_be_Copy(const ir_node *irn)
378 {
379         ir_mode *mode = get_irn_mode(irn);
380
381         if (get_in_reg(irn, 0) == get_out_reg(irn, 0)) {
382                 /* omitted Copy */
383                 return;
384         }
385
386         if (mode_is_float(mode)) {
387                 panic("emit_be_Copy: move not supported for FP");
388         } else if (mode_is_data(mode)) {
389                 be_emit_cstring("\tmov ");
390                 amd64_emit_source_register(irn, 0);
391                 be_emit_cstring(", ");
392                 amd64_emit_dest_register(irn, 0);
393                 be_emit_finish_line_gas(irn);
394         } else {
395                 panic("emit_be_Copy: move not supported for this mode");
396         }
397 }
398
399 static void emit_be_Perm(const ir_node *node)
400 {
401         const arch_register_t *in0, *in1;
402         const arch_register_class_t *cls0, *cls1;
403
404         in0 = arch_get_irn_register(get_irn_n(node, 0));
405         in1 = arch_get_irn_register(get_irn_n(node, 1));
406
407         cls0 = arch_register_get_class(in0);
408         cls1 = arch_register_get_class(in1);
409
410         assert(cls0 == cls1 && "Register class mismatch at Perm");
411
412         be_emit_cstring("\txchg ");
413         amd64_emit_register (in0);
414         be_emit_cstring(", ");
415         amd64_emit_register (in1);
416         be_emit_finish_line_gas(node);
417
418         if (cls0 != &amd64_reg_classes[CLASS_amd64_gp]) {
419                 panic("unexpected register class in be_Perm (%+F)", node);
420         }
421 }
422
423 static void emit_amd64_FrameAddr(const ir_node *irn)
424 {
425         const amd64_SymConst_attr_t *attr = get_irn_generic_attr_const(irn);
426
427         be_emit_cstring("\tmov ");
428         amd64_emit_source_register(irn, 0);
429         be_emit_cstring(", ");
430         amd64_emit_dest_register(irn, 0);
431         be_emit_finish_line_gas(irn);
432
433         be_emit_cstring("\tadd ");
434         be_emit_irprintf("$0x%X", attr->fp_offset);
435         be_emit_cstring(", ");
436         amd64_emit_dest_register(irn, 0);
437         be_emit_finish_line_gas(irn);
438 }
439
440 /**
441  * Emits code to increase stack pointer.
442  */
443 static void emit_be_IncSP(const ir_node *node)
444 {
445         int offs = be_get_IncSP_offset(node);
446
447         if (offs == 0)
448                 return;
449
450         if (offs > 0) {
451                 be_emit_irprintf("\tsub ");
452                 be_emit_irprintf("$%u, ", offs);
453                 amd64_emit_dest_register(node, 0);
454                 be_emit_finish_line_gas(node);
455         } else {
456                 be_emit_irprintf("\tadd ");
457                 be_emit_irprintf("$%u, ", -offs);
458                 amd64_emit_dest_register(node, 0);
459                 be_emit_finish_line_gas(node);
460         }
461 }
462
463 /**
464  * Emits code for a return.
465  */
466 static void emit_be_Return(const ir_node *node)
467 {
468         be_emit_cstring("\tret");
469         be_emit_finish_line_gas(node);
470 }
471
472
473 static void emit_amd64_binop_op(const ir_node *irn, int second_op)
474 {
475         if (irn->op == op_amd64_Add) {
476                 be_emit_cstring("\tadd ");
477                 amd64_emit_source_register(irn, second_op);
478                 be_emit_cstring(", ");
479                 amd64_emit_dest_register(irn, 0);
480                 be_emit_finish_line_gas(irn);
481         } else if (irn->op == op_amd64_Sub) {
482                 be_emit_cstring("\tneg ");
483                 amd64_emit_source_register(irn, second_op);
484                 be_emit_finish_line_gas(irn);
485                 be_emit_cstring("\tadd ");
486                 amd64_emit_source_register(irn, second_op);
487                 be_emit_cstring(", ");
488                 amd64_emit_dest_register(irn, 0);
489                 be_emit_finish_line_gas(irn);
490                 be_emit_cstring("\tneg ");
491                 amd64_emit_source_register(irn, second_op);
492                 be_emit_finish_line_gas(irn);
493         }
494
495 }
496
497 /**
498  * Emits an arithmetic operation that handles arbitraty input registers.
499  */
500 static void emit_amd64_binop(const ir_node *irn)
501 {
502         const arch_register_t *reg_s1 = get_in_reg(irn, 0);
503         const arch_register_t *reg_s2 = get_in_reg(irn, 1);
504         const arch_register_t *reg_d1 = get_out_reg(irn, 0);
505
506         int second_op = 0;
507
508         if (reg_d1 != reg_s1 && reg_d1 != reg_s2) {
509                 be_emit_cstring("\tmov ");
510                 amd64_emit_register(reg_s1);
511                 be_emit_cstring(", ");
512                 amd64_emit_register(reg_d1);
513                 be_emit_finish_line_gas(irn);
514                 second_op = 1;
515
516         } else if (reg_d1 == reg_s2 && reg_d1 != reg_s1) {
517                 second_op = 0;
518
519         }
520
521         emit_amd64_binop_op(irn, second_op);
522 }
523
524 /**
525  * The type of a emitter function.
526  */
527 typedef void (emit_func)(const ir_node *irn);
528
529 /**
530  * Set a node emitter. Make it a bit more type safe.
531  */
532 static inline void set_emitter(ir_op *op, emit_func arm_emit_node)
533 {
534         op->ops.generic = (op_func)arm_emit_node;
535 }
536
537 /**
538  * Enters the emitter functions for handled nodes into the generic
539  * pointer of an opcode.
540  */
541 static void amd64_register_emitters(void)
542 {
543         /* first clear the generic function pointer for all ops */
544         clear_irp_opcodes_generic_func();
545
546         /* register all emitter functions defined in spec */
547         amd64_register_spec_emitters();
548
549         set_emitter(op_amd64_SymConst,   emit_amd64_SymConst);
550         set_emitter(op_amd64_Jmp,        emit_amd64_Jmp);
551         set_emitter(op_amd64_Jcc,        emit_amd64_Jcc);
552         set_emitter(op_amd64_Conv,       emit_amd64_Conv);
553         set_emitter(op_amd64_FrameAddr,  emit_amd64_FrameAddr);
554         set_emitter(op_be_Return,        emit_be_Return);
555         set_emitter(op_be_Call,          emit_be_Call);
556         set_emitter(op_be_Copy,          emit_be_Copy);
557         set_emitter(op_be_IncSP,         emit_be_IncSP);
558         set_emitter(op_be_Perm,          emit_be_Perm);
559
560         set_emitter(op_amd64_Add,        emit_amd64_binop);
561         set_emitter(op_amd64_Sub,        emit_amd64_binop);
562
563         set_emitter(op_be_Start,         emit_nothing);
564         set_emitter(op_be_Keep,          emit_nothing);
565         set_emitter(op_be_Barrier,       emit_nothing);
566         set_emitter(op_Phi,              emit_nothing);
567 }
568
569 typedef void (*emit_func_ptr) (const ir_node *);
570
571 /**
572  * Emits code for a node.
573  */
574 static void amd64_emit_node(const ir_node *node)
575 {
576         ir_op               *op       = get_irn_op(node);
577
578         if (op->ops.generic) {
579                 emit_func_ptr func = (emit_func_ptr) op->ops.generic;
580                 (*func) (node);
581         } else {
582                 ir_fprintf(stderr, "No emitter for node %+F\n", node);
583         }
584 }
585
586 /**
587  * Walks over the nodes in a block connected by scheduling edges
588  * and emits code for each node.
589  */
590 static void amd64_gen_block(ir_node *block, void *data)
591 {
592         ir_node *node;
593         (void) data;
594
595         if (! is_Block(block))
596                 return;
597
598         be_gas_emit_block_name(block);
599         be_emit_char(':');
600
601         be_emit_write_line();
602
603         sched_foreach(block, node) {
604                 amd64_emit_node(node);
605         }
606 }
607
608
609 /**
610  * Sets labels for control flow nodes (jump target)
611  * TODO: Jump optimization
612  */
613 static void amd64_gen_labels(ir_node *block, void *env)
614 {
615         ir_node *pred;
616         int n = get_Block_n_cfgpreds(block);
617         (void) env;
618
619         for (n--; n >= 0; n--) {
620                 pred = get_Block_cfgpred(block, n);
621                 set_irn_link(pred, block);
622         }
623 }
624
625 /**
626  * Main driver
627  */
628 void amd64_gen_routine(const amd64_code_gen_t *cg, ir_graph *irg)
629 {
630         ir_entity *entity = get_irg_entity(irg);
631         ir_node  **blk_sched;
632         int i, n;
633         (void)cg;
634
635         /* register all emitter functions */
636         amd64_register_emitters();
637
638         blk_sched = be_create_block_schedule(irg);
639
640         be_dbg_method_begin(entity, be_abi_get_stack_layout(cg->birg->abi));
641         be_gas_emit_function_prolog(entity, 4);
642
643         irg_block_walk_graph(irg, amd64_gen_labels, NULL, NULL);
644
645         n = ARR_LEN(blk_sched);
646         for (i = 0; i < n; i++) {
647                 ir_node *block = blk_sched[i];
648                 ir_node *next  = (i + 1) < n ? blk_sched[i+1] : NULL;
649
650                 set_irn_link(block, next);
651         }
652
653         for (i = 0; i < n; ++i) {
654                 ir_node *block = blk_sched[i];
655
656                 amd64_gen_block(block, 0);
657         }
658
659         be_gas_emit_function_epilog(entity);
660         be_dbg_method_end();
661         be_emit_char('\n');
662         be_emit_write_line();
663 }