sparc: implement float->unsigned conversions
[libfirm] / ir / be / amd64 / amd64_emitter.c
1 /*
2  * Copyright (C) 1995-2011 University of Karlsruhe.  All right reserved.
3  *
4  * This file is part of libFirm.
5  *
6  * This file may be distributed and/or modified under the terms of the
7  * GNU General Public License version 2 as published by the Free Software
8  * Foundation and appearing in the file LICENSE.GPL included in the
9  * packaging of this file.
10  *
11  * Licensees holding valid libFirm Professional Edition licenses may use
12  * this file in accordance with the libFirm Commercial License.
13  * Agreement provided with the Software.
14  *
15  * This file is provided AS IS with NO WARRANTY OF ANY KIND, INCLUDING THE
16  * WARRANTY OF DESIGN, MERCHANTABILITY AND FITNESS FOR A PARTICULAR
17  * PURPOSE.
18  */
19
20 /**
21  * @file
22  * @brief   emit assembler for a backend graph
23  */
24 #include "config.h"
25
26 #include <limits.h>
27
28 #include "xmalloc.h"
29 #include "tv.h"
30 #include "iredges.h"
31 #include "debug.h"
32 #include "irgwalk.h"
33 #include "irprintf.h"
34 #include "irop_t.h"
35 #include "irargs_t.h"
36 #include "irprog.h"
37
38 #include "besched.h"
39 #include "begnuas.h"
40 #include "beblocksched.h"
41 #include "be_dbgout.h"
42
43 #include "amd64_emitter.h"
44 #include "gen_amd64_emitter.h"
45 #include "gen_amd64_regalloc_if.h"
46 #include "amd64_nodes_attr.h"
47 #include "amd64_new_nodes.h"
48
49 #define SNPRINTF_BUF_LEN 128
50
51 #include "benode.h"
52
53 /*************************************************************
54  *             _       _    __   _          _
55  *            (_)     | |  / _| | |        | |
56  *  _ __  _ __ _ _ __ | |_| |_  | |__   ___| |_ __   ___ _ __
57  * | '_ \| '__| | '_ \| __|  _| | '_ \ / _ \ | '_ \ / _ \ '__|
58  * | |_) | |  | | | | | |_| |   | | | |  __/ | |_) |  __/ |
59  * | .__/|_|  |_|_| |_|\__|_|   |_| |_|\___|_| .__/ \___|_|
60  * | |                                       | |
61  * |_|                                       |_|
62  *************************************************************/
63
64 void amd64_emit_register(const arch_register_t *reg)
65 {
66         be_emit_char('%');
67         be_emit_string(arch_register_get_name(reg));
68 }
69
70 void amd64_emit_immediate(const ir_node *node)
71 {
72         const amd64_attr_t *attr = get_amd64_attr_const (node);
73         be_emit_char('$');
74         be_emit_irprintf("0x%X", attr->ext.imm_value);
75 }
76
77 void amd64_emit_fp_offset(const ir_node *node)
78 {
79         const amd64_SymConst_attr_t *attr = get_amd64_SymConst_attr_const(node);
80         if (attr->fp_offset)
81                 be_emit_irprintf("%d", attr->fp_offset);
82 }
83
84 void amd64_emit_source_register(const ir_node *node, int pos)
85 {
86         amd64_emit_register(arch_get_irn_register_in(node, pos));
87 }
88
89 void amd64_emit_dest_register(const ir_node *node, int pos)
90 {
91         amd64_emit_register(arch_get_irn_register_out(node, pos));
92 }
93
94 /**
95  * Returns the target label for a control flow node.
96  */
97 /*
98 static void amd64_emit_cfop_target(const ir_node *node)
99 {
100         ir_node *block = get_irn_link(node);
101
102         be_emit_irprintf("BLOCK_%ld", get_irn_node_nr(block));
103 }
104 */
105
106 /***********************************************************************************
107  *                  _          __                                             _
108  *                 (_)        / _|                                           | |
109  *  _ __ ___   __ _ _ _ __   | |_ _ __ __ _ _ __ ___   _____      _____  _ __| | __
110  * | '_ ` _ \ / _` | | '_ \  |  _| '__/ _` | '_ ` _ \ / _ \ \ /\ / / _ \| '__| |/ /
111  * | | | | | | (_| | | | | | | | | | | (_| | | | | | |  __/\ V  V / (_) | |  |   <
112  * |_| |_| |_|\__,_|_|_| |_| |_| |_|  \__,_|_| |_| |_|\___| \_/\_/ \___/|_|  |_|\_\
113  *
114  ***********************************************************************************/
115
116 /**
117  * Default emitter for anything that we don't want to generate code for.
118  */
119 static void emit_nothing(const ir_node *node)
120 {
121         (void) node;
122 }
123
124 /**
125  * Emit a SymConst.
126  */
127 static void emit_amd64_SymConst(const ir_node *irn)
128 {
129         const amd64_SymConst_attr_t *attr = get_amd64_SymConst_attr_const(irn);
130 #if 0
131         sym_or_tv_t key, *entry;
132         unsigned label;
133
134         key.u.id     = get_entity_ld_ident(attr->entity);
135         key.is_ident = 1;
136         key.label    = 0;
137         entry = (sym_or_tv_t *)set_insert(sym_or_tv, &key, sizeof(key), hash_ptr(key.u.generic));
138         if (entry->label == 0) {
139                 /* allocate a label */
140                 entry->label = get_unique_label();
141         }
142         label = entry->label;
143 #endif
144
145         be_emit_cstring("\tmov $");
146         be_gas_emit_entity(attr->entity);
147         be_emit_cstring(", ");
148         amd64_emit_dest_register(irn, 0);
149         be_emit_finish_line_gas(irn);
150 }
151
152 /**
153  * Emit a Conv.
154  */
155 static void emit_amd64_Conv(const ir_node *irn)
156 {
157         be_emit_cstring("\tmov ");
158         amd64_emit_source_register(irn, 0);
159         be_emit_cstring(", ");
160         amd64_emit_dest_register(irn, 0);
161         be_emit_finish_line_gas(irn);
162 }
163
164
165 /**
166  * Returns the next block in a block schedule.
167  */
168 static ir_node *sched_next_block(const ir_node *block)
169 {
170     return (ir_node*)get_irn_link(block);
171 }
172
173 /**
174  * Returns the target block for a control flow node.
175  */
176 static ir_node *get_cfop_target_block(const ir_node *irn)
177 {
178         return (ir_node*)get_irn_link(irn);
179 }
180
181 /**
182  * Emit the target label for a control flow node.
183  */
184 static void amd64_emit_cfop_target(const ir_node *irn)
185 {
186         ir_node *block = get_cfop_target_block(irn);
187
188         be_gas_emit_block_name(block);
189 }
190
191 /**
192  * Emit a Jmp.
193  */
194 static void emit_amd64_Jmp(const ir_node *node)
195 {
196         ir_node *block, *next_block;
197
198         /* for now, the code works for scheduled and non-schedules blocks */
199         block = get_nodes_block(node);
200
201         /* we have a block schedule */
202         next_block = sched_next_block(block);
203         if (get_cfop_target_block(node) != next_block) {
204                 be_emit_cstring("\tjmp ");
205                 amd64_emit_cfop_target(node);
206         } else {
207                 be_emit_cstring("\t/* fallthrough to ");
208                 amd64_emit_cfop_target(node);
209                 be_emit_cstring(" */");
210         }
211         be_emit_finish_line_gas(node);
212 }
213
214 /**
215  * Emit a Compare with conditional branch.
216  */
217 static void emit_amd64_Jcc(const ir_node *irn)
218 {
219         const ir_edge_t      *edge;
220         const ir_node        *proj_true  = NULL;
221         const ir_node        *proj_false = NULL;
222         const ir_node        *block;
223         const ir_node        *next_block;
224         const char           *suffix;
225         const amd64_attr_t   *attr      = get_amd64_attr_const(irn);
226         ir_relation           relation  = attr->ext.relation;
227         ir_node              *op1       = get_irn_n(irn, 0);
228         const amd64_attr_t   *cmp_attr  = get_amd64_attr_const(op1);
229         bool                  is_signed = !cmp_attr->data.cmp_unsigned;
230
231         assert(is_amd64_Cmp(op1));
232
233         foreach_out_edge(irn, edge) {
234                 ir_node *proj = get_edge_src_irn(edge);
235                 long nr = get_Proj_proj(proj);
236                 if (nr == pn_Cond_true) {
237                         proj_true = proj;
238                 } else {
239                         proj_false = proj;
240                 }
241         }
242
243         if (cmp_attr->data.ins_permuted) {
244                 relation = get_inversed_relation(relation);
245         }
246
247         /* for now, the code works for scheduled and non-schedules blocks */
248         block = get_nodes_block(irn);
249
250         /* we have a block schedule */
251         next_block = sched_next_block(block);
252
253         assert(relation != ir_relation_false);
254         assert(relation != ir_relation_true);
255
256         if (get_cfop_target_block(proj_true) == next_block) {
257                 /* exchange both proj's so the second one can be omitted */
258                 const ir_node *t = proj_true;
259
260                 proj_true  = proj_false;
261                 proj_false = t;
262                 relation   = get_negated_relation(relation);
263         }
264
265         switch (relation & ir_relation_less_equal_greater) {
266                 case ir_relation_equal:              suffix = "e"; break;
267                 case ir_relation_less:               suffix = is_signed ? "l"  : "b"; break;
268                 case ir_relation_less_equal:         suffix = is_signed ? "le" : "be"; break;
269                 case ir_relation_greater:            suffix = is_signed ? "g"  : "a"; break;
270                 case ir_relation_greater_equal:      suffix = is_signed ? "ge" : "ae"; break;
271                 case ir_relation_less_greater:       suffix = "ne"; break;
272                 case ir_relation_less_equal_greater: suffix = "mp"; break;
273                 default: panic("Cmp has unsupported pnc");
274         }
275
276         /* emit the true proj */
277         be_emit_irprintf("\tj%s ", suffix);
278         amd64_emit_cfop_target(proj_true);
279         be_emit_finish_line_gas(proj_true);
280
281         if (get_cfop_target_block(proj_false) == next_block) {
282                 be_emit_cstring("\t/* fallthrough to ");
283                 amd64_emit_cfop_target(proj_false);
284                 be_emit_cstring(" */");
285                 be_emit_finish_line_gas(proj_false);
286         } else {
287                 be_emit_cstring("\tjmp ");
288                 amd64_emit_cfop_target(proj_false);
289                 be_emit_finish_line_gas(proj_false);
290         }
291 }
292
293 /**
294  * Emits code for a call.
295  */
296 static void emit_be_Call(const ir_node *node)
297 {
298         ir_entity *entity = be_Call_get_entity(node);
299
300         /* %eax/%rax is used in AMD64 to pass the number of vector parameters for
301          * variable argument counts */
302         if (get_method_variadicity (be_Call_get_type((ir_node *) node))) {
303                 /* But this still is a hack... */
304                 be_emit_cstring("\txor %rax, %rax");
305                 be_emit_finish_line_gas(node);
306         }
307
308         if (entity) {
309                 be_emit_cstring("\tcall ");
310                 be_gas_emit_entity (be_Call_get_entity(node));
311                 be_emit_finish_line_gas(node);
312         } else {
313                 be_emit_pad_comment();
314                 be_emit_cstring("/* FIXME: call NULL entity?! */\n");
315         }
316 }
317
318 /**
319  * emit copy node
320  */
321 static void emit_be_Copy(const ir_node *irn)
322 {
323         ir_mode *mode = get_irn_mode(irn);
324
325         if (arch_get_irn_register_in(irn, 0) == arch_get_irn_register_out(irn, 0)) {
326                 /* omitted Copy */
327                 return;
328         }
329
330         if (mode_is_float(mode)) {
331                 panic("emit_be_Copy: move not supported for FP");
332         } else if (mode_is_data(mode)) {
333                 be_emit_cstring("\tmov ");
334                 amd64_emit_source_register(irn, 0);
335                 be_emit_cstring(", ");
336                 amd64_emit_dest_register(irn, 0);
337                 be_emit_finish_line_gas(irn);
338         } else {
339                 panic("emit_be_Copy: move not supported for this mode");
340         }
341 }
342
343 static void emit_be_Perm(const ir_node *node)
344 {
345         const arch_register_t *in0, *in1;
346         const arch_register_class_t *cls0, *cls1;
347
348         in0 = arch_get_irn_register(get_irn_n(node, 0));
349         in1 = arch_get_irn_register(get_irn_n(node, 1));
350
351         cls0 = arch_register_get_class(in0);
352         cls1 = arch_register_get_class(in1);
353
354         assert(cls0 == cls1 && "Register class mismatch at Perm");
355
356         be_emit_cstring("\txchg ");
357         amd64_emit_register (in0);
358         be_emit_cstring(", ");
359         amd64_emit_register (in1);
360         be_emit_finish_line_gas(node);
361
362         if (cls0 != &amd64_reg_classes[CLASS_amd64_gp]) {
363                 panic("unexpected register class in be_Perm (%+F)", node);
364         }
365 }
366
367 static void emit_amd64_FrameAddr(const ir_node *irn)
368 {
369         const amd64_SymConst_attr_t *attr =
370                 (const amd64_SymConst_attr_t*) get_amd64_attr_const(irn);
371
372         be_emit_cstring("\tmov ");
373         amd64_emit_source_register(irn, 0);
374         be_emit_cstring(", ");
375         amd64_emit_dest_register(irn, 0);
376         be_emit_finish_line_gas(irn);
377
378         be_emit_cstring("\tadd ");
379         be_emit_irprintf("$0x%X", attr->fp_offset);
380         be_emit_cstring(", ");
381         amd64_emit_dest_register(irn, 0);
382         be_emit_finish_line_gas(irn);
383 }
384
385 /**
386  * Emits code to increase stack pointer.
387  */
388 static void emit_be_IncSP(const ir_node *node)
389 {
390         int offs = be_get_IncSP_offset(node);
391
392         if (offs == 0)
393                 return;
394
395         if (offs > 0) {
396                 be_emit_irprintf("\tsub ");
397                 be_emit_irprintf("$%u, ", offs);
398                 amd64_emit_dest_register(node, 0);
399                 be_emit_finish_line_gas(node);
400         } else {
401                 be_emit_irprintf("\tadd ");
402                 be_emit_irprintf("$%u, ", -offs);
403                 amd64_emit_dest_register(node, 0);
404                 be_emit_finish_line_gas(node);
405         }
406 }
407
408 /**
409  * Emits code for a return.
410  */
411 static void emit_be_Return(const ir_node *node)
412 {
413         be_emit_cstring("\tret");
414         be_emit_finish_line_gas(node);
415 }
416
417
418 static void emit_amd64_binop_op(const ir_node *irn, int second_op)
419 {
420         if (irn->op == op_amd64_Add) {
421                 be_emit_cstring("\tadd ");
422                 amd64_emit_source_register(irn, second_op);
423                 be_emit_cstring(", ");
424                 amd64_emit_dest_register(irn, 0);
425                 be_emit_finish_line_gas(irn);
426         } else if (irn->op == op_amd64_Sub) {
427                 be_emit_cstring("\tneg ");
428                 amd64_emit_source_register(irn, second_op);
429                 be_emit_finish_line_gas(irn);
430                 be_emit_cstring("\tadd ");
431                 amd64_emit_source_register(irn, second_op);
432                 be_emit_cstring(", ");
433                 amd64_emit_dest_register(irn, 0);
434                 be_emit_finish_line_gas(irn);
435                 be_emit_cstring("\tneg ");
436                 amd64_emit_source_register(irn, second_op);
437                 be_emit_finish_line_gas(irn);
438         }
439
440 }
441
442 /**
443  * Emits an arithmetic operation that handles arbitraty input registers.
444  */
445 static void emit_amd64_binop(const ir_node *irn)
446 {
447         const arch_register_t *reg_s1 = arch_get_irn_register_in(irn, 0);
448         const arch_register_t *reg_s2 = arch_get_irn_register_in(irn, 1);
449         const arch_register_t *reg_d1 = arch_get_irn_register_out(irn, 0);
450
451         int second_op = 0;
452
453         if (reg_d1 != reg_s1 && reg_d1 != reg_s2) {
454                 be_emit_cstring("\tmov ");
455                 amd64_emit_register(reg_s1);
456                 be_emit_cstring(", ");
457                 amd64_emit_register(reg_d1);
458                 be_emit_finish_line_gas(irn);
459                 second_op = 1;
460
461         } else if (reg_d1 == reg_s2 && reg_d1 != reg_s1) {
462                 second_op = 0;
463
464         }
465
466         emit_amd64_binop_op(irn, second_op);
467 }
468
469 /**
470  * The type of a emitter function.
471  */
472 typedef void (emit_func)(const ir_node *irn);
473
474 /**
475  * Set a node emitter. Make it a bit more type safe.
476  */
477 static inline void set_emitter(ir_op *op, emit_func arm_emit_node)
478 {
479         op->ops.generic = (op_func)arm_emit_node;
480 }
481
482 /**
483  * Enters the emitter functions for handled nodes into the generic
484  * pointer of an opcode.
485  */
486 static void amd64_register_emitters(void)
487 {
488         /* first clear the generic function pointer for all ops */
489         ir_clear_opcodes_generic_func();
490
491         /* register all emitter functions defined in spec */
492         amd64_register_spec_emitters();
493
494         set_emitter(op_amd64_SymConst,   emit_amd64_SymConst);
495         set_emitter(op_amd64_Jmp,        emit_amd64_Jmp);
496         set_emitter(op_amd64_Jcc,        emit_amd64_Jcc);
497         set_emitter(op_amd64_Conv,       emit_amd64_Conv);
498         set_emitter(op_amd64_FrameAddr,  emit_amd64_FrameAddr);
499         set_emitter(op_be_Return,        emit_be_Return);
500         set_emitter(op_be_Call,          emit_be_Call);
501         set_emitter(op_be_Copy,          emit_be_Copy);
502         set_emitter(op_be_IncSP,         emit_be_IncSP);
503         set_emitter(op_be_Perm,          emit_be_Perm);
504
505         set_emitter(op_amd64_Add,        emit_amd64_binop);
506         set_emitter(op_amd64_Sub,        emit_amd64_binop);
507
508         set_emitter(op_be_Start,         emit_nothing);
509         set_emitter(op_be_Keep,          emit_nothing);
510         set_emitter(op_Phi,              emit_nothing);
511 }
512
513 typedef void (*emit_func_ptr) (const ir_node *);
514
515 /**
516  * Emits code for a node.
517  */
518 static void amd64_emit_node(const ir_node *node)
519 {
520         ir_op               *op       = get_irn_op(node);
521
522         if (op->ops.generic) {
523                 emit_func_ptr func = (emit_func_ptr) op->ops.generic;
524                 (*func) (node);
525         } else {
526                 ir_fprintf(stderr, "No emitter for node %+F\n", node);
527         }
528 }
529
530 /**
531  * Walks over the nodes in a block connected by scheduling edges
532  * and emits code for each node.
533  */
534 static void amd64_gen_block(ir_node *block, void *data)
535 {
536         ir_node *node;
537         (void) data;
538
539         if (! is_Block(block))
540                 return;
541
542         be_gas_emit_block_name(block);
543         be_emit_char(':');
544
545         be_emit_write_line();
546
547         sched_foreach(block, node) {
548                 amd64_emit_node(node);
549         }
550 }
551
552
553 /**
554  * Sets labels for control flow nodes (jump target)
555  * TODO: Jump optimization
556  */
557 static void amd64_gen_labels(ir_node *block, void *env)
558 {
559         ir_node *pred;
560         int n = get_Block_n_cfgpreds(block);
561         (void) env;
562
563         for (n--; n >= 0; n--) {
564                 pred = get_Block_cfgpred(block, n);
565                 set_irn_link(pred, block);
566         }
567 }
568
569 /**
570  * Main driver
571  */
572 void amd64_gen_routine(ir_graph *irg)
573 {
574         ir_entity *entity = get_irg_entity(irg);
575         ir_node  **blk_sched;
576         size_t i, n;
577
578         /* register all emitter functions */
579         amd64_register_emitters();
580
581         blk_sched = be_create_block_schedule(irg);
582
583         be_gas_emit_function_prolog(entity, 4);
584
585         irg_block_walk_graph(irg, amd64_gen_labels, NULL, NULL);
586
587         n = ARR_LEN(blk_sched);
588         for (i = 0; i < n; i++) {
589                 ir_node *block = blk_sched[i];
590                 ir_node *next  = (i + 1) < n ? blk_sched[i+1] : NULL;
591
592                 set_irn_link(block, next);
593         }
594
595         for (i = 0; i < n; ++i) {
596                 ir_node *block = blk_sched[i];
597
598                 amd64_gen_block(block, 0);
599         }
600
601         be_gas_emit_function_epilog(entity);
602 }