amd64: Added Load and FrameAddr transformation. And fixed some corruption bugs w...
[libfirm] / ir / be / amd64 / amd64_emitter.c
1 /*
2  * Copyright (C) 1995-2008 University of Karlsruhe.  All right reserved.
3  *
4  * This file is part of libFirm.
5  *
6  * This file may be distributed and/or modified under the terms of the
7  * GNU General Public License version 2 as published by the Free Software
8  * Foundation and appearing in the file LICENSE.GPL included in the
9  * packaging of this file.
10  *
11  * Licensees holding valid libFirm Professional Edition licenses may use
12  * this file in accordance with the libFirm Commercial License.
13  * Agreement provided with the Software.
14  *
15  * This file is provided AS IS with NO WARRANTY OF ANY KIND, INCLUDING THE
16  * WARRANTY OF DESIGN, MERCHANTABILITY AND FITNESS FOR A PARTICULAR
17  * PURPOSE.
18  */
19
20 /**
21  * @file
22  * @brief   emit assembler for a backend graph
23  * @version $Id: amd64_emitter.c 26746 2009-11-27 08:53:15Z matze $
24  */
25 #include "config.h"
26
27 #include <limits.h>
28
29 #include "xmalloc.h"
30 #include "tv.h"
31 #include "iredges.h"
32 #include "debug.h"
33 #include "irgwalk.h"
34 #include "irprintf.h"
35 #include "irop_t.h"
36 #include "irargs_t.h"
37 #include "irprog.h"
38
39 #include "../besched.h"
40 #include "../begnuas.h"
41 #include "../beblocksched.h"
42 #include "../be_dbgout.h"
43
44 #include "amd64_emitter.h"
45 #include "gen_amd64_emitter.h"
46 #include "amd64_nodes_attr.h"
47 #include "amd64_new_nodes.h"
48
49 #define SNPRINTF_BUF_LEN 128
50
51 #include "../benode.h"
52
53 /**
54  * Returns the register at in position pos.
55  */
56 static const arch_register_t *get_in_reg(const ir_node *node, int pos)
57 {
58         ir_node                *op;
59         const arch_register_t  *reg = NULL;
60
61         assert(get_irn_arity(node) > pos && "Invalid IN position");
62
63         /* The out register of the operator at position pos is the
64            in register we need. */
65         op = get_irn_n(node, pos);
66
67         reg = arch_get_irn_register(op);
68
69         assert(reg && "no in register found");
70         return reg;
71 }
72
73 /**
74  * Returns the register at out position pos.
75  */
76 static const arch_register_t *get_out_reg(const ir_node *node, int pos)
77 {
78         ir_node                *proj;
79         const arch_register_t  *reg = NULL;
80
81         /* 1st case: irn is not of mode_T, so it has only                 */
82         /*           one OUT register -> good                             */
83         /* 2nd case: irn is of mode_T -> collect all Projs and ask the    */
84         /*           Proj with the corresponding projnum for the register */
85
86         if (get_irn_mode(node) != mode_T) {
87                 reg = arch_get_irn_register(node);
88         } else if (is_amd64_irn(node)) {
89                 reg = arch_irn_get_register(node, pos);
90         } else {
91                 const ir_edge_t *edge;
92
93                 foreach_out_edge(node, edge) {
94                         proj = get_edge_src_irn(edge);
95                         assert(is_Proj(proj) && "non-Proj from mode_T node");
96                         if (get_Proj_proj(proj) == pos) {
97                                 reg = arch_get_irn_register(proj);
98                                 break;
99                         }
100                 }
101         }
102
103         assert(reg && "no out register found");
104         return reg;
105 }
106
107 /*************************************************************
108  *             _       _    __   _          _
109  *            (_)     | |  / _| | |        | |
110  *  _ __  _ __ _ _ __ | |_| |_  | |__   ___| |_ __   ___ _ __
111  * | '_ \| '__| | '_ \| __|  _| | '_ \ / _ \ | '_ \ / _ \ '__|
112  * | |_) | |  | | | | | |_| |   | | | |  __/ | |_) |  __/ |
113  * | .__/|_|  |_|_| |_|\__|_|   |_| |_|\___|_| .__/ \___|_|
114  * | |                                       | |
115  * |_|                                       |_|
116  *************************************************************/
117
118 void amd64_emit_immediate(const ir_node *node)
119 {
120         const amd64_attr_t *attr = get_amd64_attr_const (node);
121         be_emit_char('$');
122         be_emit_irprintf("0x%X", attr->ext.imm_value);
123 }
124
125 void amd64_emit_source_register(const ir_node *node, int pos)
126 {
127         const arch_register_t *reg = get_in_reg(node, pos);
128         be_emit_char('%');
129         be_emit_string(arch_register_get_name(reg));
130 }
131
132 void amd64_emit_dest_register(const ir_node *node, int pos)
133 {
134         const arch_register_t *reg = get_out_reg(node, pos);
135         be_emit_char('%');
136         be_emit_string(arch_register_get_name(reg));
137 }
138
139 /**
140  * Returns the target label for a control flow node.
141  */
142 /*
143 static void amd64_emit_cfop_target(const ir_node *node)
144 {
145         ir_node *block = get_irn_link(node);
146
147         be_emit_irprintf("BLOCK_%ld", get_irn_node_nr(block));
148 }
149 */
150
151 /***********************************************************************************
152  *                  _          __                                             _
153  *                 (_)        / _|                                           | |
154  *  _ __ ___   __ _ _ _ __   | |_ _ __ __ _ _ __ ___   _____      _____  _ __| | __
155  * | '_ ` _ \ / _` | | '_ \  |  _| '__/ _` | '_ ` _ \ / _ \ \ /\ / / _ \| '__| |/ /
156  * | | | | | | (_| | | | | | | | | | | (_| | | | | | |  __/\ V  V / (_) | |  |   <
157  * |_| |_| |_|\__,_|_|_| |_| |_| |_|  \__,_|_| |_| |_|\___| \_/\_/ \___/|_|  |_|\_\
158  *
159  ***********************************************************************************/
160
161 /**
162  * Default emitter for anything that we don't want to generate code for.
163  */
164 static void emit_nothing(const ir_node *node)
165 {
166         (void) node;
167 }
168
169 /**
170  * Emit a SymConst.
171  */
172 static void emit_amd64_SymConst(const ir_node *irn)
173 {
174         const amd64_SymConst_attr_t *attr = get_amd64_SymConst_attr_const(irn);
175 //      sym_or_tv_t key, *entry;
176 //      unsigned label;
177 //
178 //      key.u.id     = get_entity_ld_ident(attr->entity);
179 //      key.is_ident = 1;
180 //      key.label    = 0;
181 //      entry = (sym_or_tv_t *)set_insert(sym_or_tv, &key, sizeof(key), HASH_PTR(key.u.generic));
182 //      if (entry->label == 0) {
183 //              /* allocate a label */
184 //              entry->label = get_unique_label();
185 //      }
186 //      label = entry->label;
187
188         be_gas_emit_entity(attr->entity);
189         be_emit_char(':');
190         be_emit_finish_line_gas(irn);
191         be_emit_cstring("\t.long 0x0");
192         be_emit_finish_line_gas(irn);
193 }
194
195 /**
196  * Returns the next block in a block schedule.
197  */
198 static ir_node *sched_next_block(const ir_node *block)
199 {
200     return get_irn_link(block);
201 }
202
203 /**
204  * Returns the target block for a control flow node.
205  */
206 static ir_node *get_cfop_target_block(const ir_node *irn)
207 {
208         return get_irn_link(irn);
209 }
210
211 /**
212  * Emit the target label for a control flow node.
213  */
214 static void amd64_emit_cfop_target(const ir_node *irn)
215 {
216         ir_node *block = get_cfop_target_block(irn);
217
218         be_gas_emit_block_name(block);
219 }
220
221 /**
222  * Emit a Jmp.
223  */
224 static void emit_amd64_Jmp(const ir_node *node)
225 {
226         ir_node *block, *next_block;
227
228         /* for now, the code works for scheduled and non-schedules blocks */
229         block = get_nodes_block(node);
230
231         /* we have a block schedule */
232         next_block = sched_next_block(block);
233         if (get_cfop_target_block(node) != next_block) {
234                 be_emit_cstring("\tjmp ");
235                 amd64_emit_cfop_target(node);
236         } else {
237                 be_emit_cstring("\t/* fallthrough to ");
238                 amd64_emit_cfop_target(node);
239                 be_emit_cstring(" */");
240         }
241         be_emit_finish_line_gas(node);
242 }
243
244 /**
245  * Emit a Compare with conditional branch.
246  */
247 static void emit_amd64_Jcc(const ir_node *irn)
248 {
249         const ir_edge_t      *edge;
250         const ir_node        *proj_true  = NULL;
251         const ir_node        *proj_false = NULL;
252         const ir_node        *block;
253         const ir_node        *next_block;
254         const char           *suffix;
255         const amd64_attr_t   *attr      = get_irn_generic_attr_const(irn);
256         int                   proj_num  = attr->ext.pnc;
257         ir_node              *op1       = get_irn_n(irn, 0);
258         const amd64_attr_t   *cmp_attr  = get_irn_generic_attr_const(op1);
259         bool                  is_signed = !cmp_attr->data.cmp_unsigned;
260
261         assert(is_amd64_Cmp(op1));
262
263         foreach_out_edge(irn, edge) {
264                 ir_node *proj = get_edge_src_irn(edge);
265                 long nr = get_Proj_proj(proj);
266                 if (nr == pn_Cond_true) {
267                         proj_true = proj;
268                 } else {
269                         proj_false = proj;
270                 }
271         }
272
273         if (cmp_attr->data.ins_permuted) {
274                 proj_num = get_mirrored_pnc(proj_num);
275         }
276
277         /* for now, the code works for scheduled and non-schedules blocks */
278         block = get_nodes_block(irn);
279
280         /* we have a block schedule */
281         next_block = sched_next_block(block);
282
283         assert(proj_num != pn_Cmp_False);
284         assert(proj_num != pn_Cmp_True);
285
286         if (get_cfop_target_block(proj_true) == next_block) {
287                 /* exchange both proj's so the second one can be omitted */
288                 const ir_node *t = proj_true;
289
290                 proj_true  = proj_false;
291                 proj_false = t;
292                 proj_num   = get_negated_pnc(proj_num, mode_Iu);
293         }
294
295         switch (proj_num) {
296                 case pn_Cmp_Eq:  suffix = "e"; break;
297                 case pn_Cmp_Lt:  suffix = is_signed ? "l"  : "b"; break;
298                 case pn_Cmp_Le:  suffix = is_signed ? "le" : "be"; break;
299                 case pn_Cmp_Gt:  suffix = is_signed ? "g"  : "o"; break;
300                 case pn_Cmp_Ge:  suffix = is_signed ? "ge" : "oe"; break;
301                 case pn_Cmp_Lg:  suffix = "ne"; break;
302                 case pn_Cmp_Leg: suffix = "mp"; break;
303                 default: panic("Cmp has unsupported pnc");
304         }
305
306         /* emit the true proj */
307         be_emit_irprintf("\tj%s ", suffix);
308         amd64_emit_cfop_target(proj_true);
309         be_emit_finish_line_gas(proj_true);
310
311         if (get_cfop_target_block(proj_false) == next_block) {
312                 be_emit_cstring("\t/* fallthrough to ");
313                 amd64_emit_cfop_target(proj_false);
314                 be_emit_cstring(" */");
315                 be_emit_finish_line_gas(proj_false);
316         } else {
317                 be_emit_cstring("\tjmp ");
318                 amd64_emit_cfop_target(proj_false);
319                 be_emit_finish_line_gas(proj_false);
320         }
321 }
322
323 /**
324  * Emits code for a call.
325  */
326 static void emit_be_Call(const ir_node *node)
327 {
328         ir_entity *entity = be_Call_get_entity (node);
329
330         if (entity) {
331                 be_emit_cstring("\tcall ");
332                 be_gas_emit_entity (be_Call_get_entity(node));
333                 be_emit_finish_line_gas(node);
334         } else {
335                 be_emit_pad_comment();
336                 be_emit_cstring("/* FIXME: call NULL entity?! */\n");
337         }
338 }
339
340 /**
341  * emit copy node
342  */
343 static void emit_be_Copy(const ir_node *irn)
344 {
345         ir_mode *mode = get_irn_mode(irn);
346
347         if (get_in_reg(irn, 0) == get_out_reg(irn, 0)) {
348                 /* omitted Copy */
349                 return;
350         }
351
352         if (mode_is_float(mode)) {
353                 panic("emit_be_Copy: move not supported for FP");
354         } else if (mode_is_data(mode)) {
355                 be_emit_cstring("\tmov ");
356                 amd64_emit_dest_register(irn, 0);
357                 be_emit_cstring(", ");
358                 amd64_emit_source_register(irn, 0);
359                 be_emit_finish_line_gas(irn);
360         } else {
361                 panic("emit_be_Copy: move not supported for this mode");
362         }
363 }
364
365 static void emit_amd64_FrameAddr(const ir_node *irn)
366 {
367         const amd64_SymConst_attr_t *attr = get_irn_generic_attr_const(irn);
368
369         be_emit_cstring("\tmov ");
370         amd64_emit_dest_register(irn, 0);
371         be_emit_cstring(", ");
372         amd64_emit_source_register(irn, 0);
373         be_emit_finish_line_gas(irn);
374
375         be_emit_cstring("\tadd ");
376         amd64_emit_dest_register(irn, 0);
377         be_emit_cstring(", ");
378         be_emit_irprintf("$0x%X", attr->fp_offset);
379         be_emit_finish_line_gas(irn);
380 }
381
382 /**
383  * Emits code for a return.
384  */
385 static void emit_be_Return(const ir_node *node)
386 {
387         be_emit_cstring("\tret");
388         be_emit_finish_line_gas(node);
389 }
390
391 /**
392  * The type of a emitter function.
393  */
394 typedef void (emit_func)(const ir_node *irn);
395
396 /**
397  * Set a node emitter. Make it a bit more type safe.
398  */
399 static inline void set_emitter(ir_op *op, emit_func arm_emit_node)
400 {
401         op->ops.generic = (op_func)arm_emit_node;
402 }
403
404 /**
405  * Enters the emitter functions for handled nodes into the generic
406  * pointer of an opcode.
407  */
408 static void amd64_register_emitters(void)
409 {
410         /* first clear the generic function pointer for all ops */
411         clear_irp_opcodes_generic_func();
412
413         /* register all emitter functions defined in spec */
414         amd64_register_spec_emitters();
415
416         set_emitter(op_amd64_SymConst,   emit_amd64_SymConst);
417         set_emitter(op_amd64_Jmp,        emit_amd64_Jmp);
418         set_emitter(op_amd64_Jcc,        emit_amd64_Jcc);
419         set_emitter(op_amd64_FrameAddr,  emit_amd64_FrameAddr);
420         set_emitter(op_be_Return,        emit_be_Return);
421         set_emitter(op_be_Call,          emit_be_Call);
422         set_emitter(op_be_Copy,          emit_be_Copy);
423
424         set_emitter(op_be_Start,         emit_nothing);
425         set_emitter(op_be_Keep,          emit_nothing);
426         set_emitter(op_be_Barrier,       emit_nothing);
427         set_emitter(op_be_IncSP,         emit_nothing);
428         set_emitter(op_Phi,              emit_nothing);
429 }
430
431 typedef void (*emit_func_ptr) (const ir_node *);
432
433 /**
434  * Emits code for a node.
435  */
436 static void amd64_emit_node(const ir_node *node)
437 {
438         ir_op               *op       = get_irn_op(node);
439
440         if (op->ops.generic) {
441                 emit_func_ptr func = (emit_func_ptr) op->ops.generic;
442                 (*func) (node);
443         } else {
444                 ir_fprintf(stderr, "No emitter for node %+F\n", node);
445         }
446 }
447
448 /**
449  * Walks over the nodes in a block connected by scheduling edges
450  * and emits code for each node.
451  */
452 static void amd64_gen_block(ir_node *block, void *data)
453 {
454         ir_node *node;
455         (void) data;
456
457         if (! is_Block(block))
458                 return;
459
460         be_gas_emit_block_name(block);
461         be_emit_char(':');
462
463         be_emit_write_line();
464
465         sched_foreach(block, node) {
466                 amd64_emit_node(node);
467         }
468 }
469
470
471 /**
472  * Sets labels for control flow nodes (jump target)
473  * TODO: Jump optimization
474  */
475 static void amd64_gen_labels(ir_node *block, void *env)
476 {
477         ir_node *pred;
478         int n = get_Block_n_cfgpreds(block);
479         (void) env;
480
481         for (n--; n >= 0; n--) {
482                 pred = get_Block_cfgpred(block, n);
483                 set_irn_link(pred, block);
484         }
485 }
486
487 /**
488  * Main driver
489  */
490 void amd64_gen_routine(const amd64_code_gen_t *cg, ir_graph *irg)
491 {
492         ir_entity *entity = get_irg_entity(irg);
493         ir_node  **blk_sched;
494         int i, n;
495         (void)cg;
496
497         /* register all emitter functions */
498         amd64_register_emitters();
499
500         blk_sched = be_create_block_schedule(irg);
501
502         be_dbg_method_begin(entity, be_abi_get_stack_layout(cg->birg->abi));
503         be_gas_emit_function_prolog(entity, 4);
504
505         irg_block_walk_graph(irg, amd64_gen_labels, NULL, NULL);
506
507         n = ARR_LEN(blk_sched);
508         for (i = 0; i < n; i++) {
509                 ir_node *block = blk_sched[i];
510                 ir_node *next  = (i + 1) < n ? blk_sched[i+1] : NULL;
511
512                 set_irn_link(block, next);
513         }
514
515         for (i = 0; i < n; ++i) {
516                 ir_node *block = blk_sched[i];
517
518                 amd64_gen_block(block, 0);
519         }
520
521         be_gas_emit_function_epilog(entity);
522         be_dbg_method_end();
523         be_emit_char('\n');
524         be_emit_write_line();
525 }