simplify/rework lower_calls interface and code
[libfirm] / ir / be / arm / bearch_arm.c
1 /*
2  * Copyright (C) 1995-2008 University of Karlsruhe.  All right reserved.
3  *
4  * This file is part of libFirm.
5  *
6  * This file may be distributed and/or modified under the terms of the
7  * GNU General Public License version 2 as published by the Free Software
8  * Foundation and appearing in the file LICENSE.GPL included in the
9  * packaging of this file.
10  *
11  * Licensees holding valid libFirm Professional Edition licenses may use
12  * this file in accordance with the libFirm Commercial License.
13  * Agreement provided with the Software.
14  *
15  * This file is provided AS IS with NO WARRANTY OF ANY KIND, INCLUDING THE
16  * WARRANTY OF DESIGN, MERCHANTABILITY AND FITNESS FOR A PARTICULAR
17  * PURPOSE.
18  */
19
20 /**
21  * @file
22  * @brief   The main arm backend driver file.
23  * @author  Matthias Braun, Oliver Richter, Tobias Gneist
24  * @version $Id$
25  */
26 #include "config.h"
27
28 #include "lc_opts.h"
29 #include "lc_opts_enum.h"
30
31 #include "irgwalk.h"
32 #include "irprog.h"
33 #include "irprintf.h"
34 #include "ircons.h"
35 #include "irgmod.h"
36 #include "irgopt.h"
37 #include "iroptimize.h"
38 #include "irdump.h"
39 #include "lower_calls.h"
40 #include "error.h"
41
42 #include "bitset.h"
43 #include "debug.h"
44 #include "array_t.h"
45 #include "irtools.h"
46
47 #include "../bearch.h"
48 #include "../benode.h"
49 #include "../belower.h"
50 #include "../besched.h"
51 #include "be.h"
52 #include "../bemachine.h"
53 #include "../bemodule.h"
54 #include "../beirg.h"
55 #include "../bespillslots.h"
56 #include "../begnuas.h"
57 #include "../belistsched.h"
58 #include "../beflags.h"
59
60 #include "bearch_arm_t.h"
61
62 #include "arm_new_nodes.h"
63 #include "gen_arm_regalloc_if.h"
64 #include "arm_transform.h"
65 #include "arm_optimize.h"
66 #include "arm_emitter.h"
67 #include "arm_map_regs.h"
68
69 static arch_irn_class_t arm_classify(const ir_node *irn)
70 {
71         (void) irn;
72         /* TODO: we should mark reload/spill instructions and classify them here */
73         return arch_irn_class_none;
74 }
75
76 static ir_entity *arm_get_frame_entity(const ir_node *irn)
77 {
78         const arm_attr_t *attr = get_arm_attr_const(irn);
79
80         if (is_arm_FrameAddr(irn)) {
81                 const arm_SymConst_attr_t *frame_attr = get_arm_SymConst_attr_const(irn);
82                 return frame_attr->entity;
83         }
84         if (attr->is_load_store) {
85                 const arm_load_store_attr_t *load_store_attr
86                         = get_arm_load_store_attr_const(irn);
87                 if (load_store_attr->is_frame_entity) {
88                         return load_store_attr->entity;
89                 }
90         }
91         return NULL;
92 }
93
94 /**
95  * This function is called by the generic backend to correct offsets for
96  * nodes accessing the stack.
97  */
98 static void arm_set_stack_bias(ir_node *irn, int bias)
99 {
100         if (is_arm_FrameAddr(irn)) {
101                 arm_SymConst_attr_t *attr = get_arm_SymConst_attr(irn);
102                 attr->fp_offset += bias;
103         } else {
104                 arm_load_store_attr_t *attr = get_arm_load_store_attr(irn);
105                 assert(attr->base.is_load_store);
106                 attr->offset += bias;
107         }
108 }
109
110 static int arm_get_sp_bias(const ir_node *irn)
111 {
112         /* We don't have any nodes changing the stack pointer.
113            We probably want to support post-/pre increment/decrement later */
114         (void) irn;
115         return 0;
116 }
117
118 /* fill register allocator interface */
119
120 static const arch_irn_ops_t arm_irn_ops = {
121         arm_classify,
122         arm_get_frame_entity,
123         arm_set_stack_bias,
124         arm_get_sp_bias,
125         NULL,    /* get_inverse             */
126         NULL,    /* get_op_estimated_cost   */
127         NULL,    /* possible_memory_operand */
128         NULL,    /* perform_memory_operand  */
129 };
130
131 /**
132  * Transforms the standard Firm graph into
133  * a ARM firm graph.
134  */
135 static void arm_prepare_graph(ir_graph *irg)
136 {
137         /* transform nodes into assembler instructions */
138         arm_transform_graph(irg);
139
140         /* do local optimizations (mainly CSE) */
141         local_optimize_graph(irg);
142
143         /* do code placement, to optimize the position of constants */
144         place_code(irg);
145 }
146
147 /**
148  * Called immediately before emit phase.
149  */
150 static void arm_finish_irg(ir_graph *irg)
151 {
152         /* do peephole optimizations and fix stack offsets */
153         arm_peephole_optimization(irg);
154 }
155
156 static void arm_before_ra(ir_graph *irg)
157 {
158         be_sched_fix_flags(irg, &arm_reg_classes[CLASS_arm_flags], NULL, NULL);
159 }
160
161 static void transform_Reload(ir_node *node)
162 {
163         ir_node   *block  = get_nodes_block(node);
164         dbg_info  *dbgi   = get_irn_dbg_info(node);
165         ir_node   *ptr    = get_irn_n(node, n_be_Reload_frame);
166         ir_node   *mem    = get_irn_n(node, n_be_Reload_mem);
167         ir_mode   *mode   = get_irn_mode(node);
168         ir_entity *entity = be_get_frame_entity(node);
169         const arch_register_t *reg;
170         ir_node   *proj;
171         ir_node   *load;
172
173         ir_node  *sched_point = sched_prev(node);
174
175         load = new_bd_arm_Ldr(dbgi, block, ptr, mem, mode, entity, false, 0, true);
176         sched_add_after(sched_point, load);
177         sched_remove(node);
178
179         proj = new_rd_Proj(dbgi, load, mode, pn_arm_Ldr_res);
180
181         reg = arch_get_irn_register(node);
182         arch_set_irn_register(proj, reg);
183
184         exchange(node, proj);
185 }
186
187 static void transform_Spill(ir_node *node)
188 {
189         ir_node   *block  = get_nodes_block(node);
190         dbg_info  *dbgi   = get_irn_dbg_info(node);
191         ir_node   *ptr    = get_irn_n(node, n_be_Spill_frame);
192         ir_graph  *irg    = get_irn_irg(node);
193         ir_node   *mem    = get_irg_no_mem(irg);
194         ir_node   *val    = get_irn_n(node, n_be_Spill_val);
195         ir_mode   *mode   = get_irn_mode(val);
196         ir_entity *entity = be_get_frame_entity(node);
197         ir_node   *sched_point;
198         ir_node   *store;
199
200         sched_point = sched_prev(node);
201         store = new_bd_arm_Str(dbgi, block, ptr, val, mem, mode, entity, false, 0,
202                                true);
203
204         sched_remove(node);
205         sched_add_after(sched_point, store);
206
207         exchange(node, store);
208 }
209
210 static void arm_after_ra_walker(ir_node *block, void *data)
211 {
212         ir_node *node, *prev;
213         (void) data;
214
215         for (node = sched_last(block); !sched_is_begin(node); node = prev) {
216                 prev = sched_prev(node);
217
218                 if (be_is_Reload(node)) {
219                         transform_Reload(node);
220                 } else if (be_is_Spill(node)) {
221                         transform_Spill(node);
222                 }
223         }
224 }
225
226 static void arm_collect_frame_entity_nodes(ir_node *node, void *data)
227 {
228         be_fec_env_t  *env = (be_fec_env_t*)data;
229         const ir_mode *mode;
230         int            align;
231         ir_entity     *entity;
232         const arm_load_store_attr_t *attr;
233
234         if (be_is_Reload(node) && be_get_frame_entity(node) == NULL) {
235                 mode  = get_irn_mode(node);
236                 align = get_mode_size_bytes(mode);
237                 be_node_needs_frame_entity(env, node, mode, align);
238                 return;
239         }
240
241         switch (get_arm_irn_opcode(node)) {
242         case iro_arm_Ldf:
243         case iro_arm_Ldr:
244                 break;
245         default:
246                 return;
247         }
248
249         attr   = get_arm_load_store_attr_const(node);
250         entity = attr->entity;
251         mode   = attr->load_store_mode;
252         align  = get_mode_size_bytes(mode);
253         if (entity != NULL)
254                 return;
255         if (!attr->is_frame_entity)
256                 return;
257         be_node_needs_frame_entity(env, node, mode, align);
258 }
259
260 static void arm_set_frame_entity(ir_node *node, ir_entity *entity)
261 {
262         if (is_be_node(node)) {
263                 be_node_set_frame_entity(node, entity);
264         } else {
265                 arm_load_store_attr_t *attr = get_arm_load_store_attr(node);
266                 attr->entity = entity;
267         }
268 }
269
270 static void arm_after_ra(ir_graph *irg)
271 {
272         be_stack_layout_t *stack_layout = be_get_irg_stack_layout(irg);
273         bool               at_begin     = stack_layout->sp_relative ? true : false;
274         be_fec_env_t      *fec_env      = be_new_frame_entity_coalescer(irg);
275
276         irg_walk_graph(irg, NULL, arm_collect_frame_entity_nodes, fec_env);
277         be_assign_entities(fec_env, arm_set_frame_entity, at_begin);
278         be_free_frame_entity_coalescer(fec_env);
279
280         irg_block_walk_graph(irg, NULL, arm_after_ra_walker, NULL);
281 }
282
283 /**
284  * Initializes the code generator.
285  */
286 static void arm_init_graph(ir_graph *irg)
287 {
288         (void) irg;
289 }
290
291
292 /**
293  * Maps all intrinsic calls that the backend support
294  * and map all instructions the backend did not support
295  * to runtime calls.
296  */
297 static void arm_handle_intrinsics(void)
298 {
299         ir_type *tp, *int_tp, *uint_tp;
300         i_record records[8];
301         int n_records = 0;
302
303         runtime_rt rt_iDiv, rt_uDiv, rt_iMod, rt_uMod;
304
305 #define ID(x) new_id_from_chars(x, sizeof(x)-1)
306
307         int_tp  = get_type_for_mode(mode_Is);
308         uint_tp = get_type_for_mode(mode_Iu);
309
310         /* ARM has neither a signed div instruction ... */
311         {
312                 i_instr_record *map_Div = &records[n_records++].i_instr;
313
314                 tp = new_type_method(2, 1);
315                 set_method_param_type(tp, 0, int_tp);
316                 set_method_param_type(tp, 1, int_tp);
317                 set_method_res_type(tp, 0, int_tp);
318
319                 rt_iDiv.ent             = new_entity(get_glob_type(), ID("__divsi3"), tp);
320                 set_entity_ld_ident(rt_iDiv.ent, ID("__divsi3"));
321                 rt_iDiv.mode            = mode_T;
322                 rt_iDiv.res_mode        = mode_Is;
323                 rt_iDiv.mem_proj_nr     = pn_Div_M;
324                 rt_iDiv.regular_proj_nr = pn_Div_X_regular;
325                 rt_iDiv.exc_proj_nr     = pn_Div_X_except;
326                 rt_iDiv.res_proj_nr     = pn_Div_res;
327
328                 add_entity_linkage(rt_iDiv.ent, IR_LINKAGE_CONSTANT);
329                 set_entity_visibility(rt_iDiv.ent, ir_visibility_external);
330
331                 map_Div->kind     = INTRINSIC_INSTR;
332                 map_Div->op       = op_Div;
333                 map_Div->i_mapper = (i_mapper_func)i_mapper_RuntimeCall;
334                 map_Div->ctx      = &rt_iDiv;
335         }
336         /* ... nor an unsigned div instruction ... */
337         {
338                 i_instr_record *map_Div = &records[n_records++].i_instr;
339
340                 tp = new_type_method(2, 1);
341                 set_method_param_type(tp, 0, uint_tp);
342                 set_method_param_type(tp, 1, uint_tp);
343                 set_method_res_type(tp, 0, uint_tp);
344
345                 rt_uDiv.ent             = new_entity(get_glob_type(), ID("__udivsi3"), tp);
346                 set_entity_ld_ident(rt_uDiv.ent, ID("__udivsi3"));
347                 rt_uDiv.mode            = mode_T;
348                 rt_uDiv.res_mode        = mode_Iu;
349                 rt_uDiv.mem_proj_nr     = pn_Div_M;
350                 rt_uDiv.regular_proj_nr = pn_Div_X_regular;
351                 rt_uDiv.exc_proj_nr     = pn_Div_X_except;
352                 rt_uDiv.res_proj_nr     = pn_Div_res;
353
354                 set_entity_visibility(rt_uDiv.ent, ir_visibility_external);
355
356                 map_Div->kind     = INTRINSIC_INSTR;
357                 map_Div->op       = op_Div;
358                 map_Div->i_mapper = (i_mapper_func)i_mapper_RuntimeCall;
359                 map_Div->ctx      = &rt_uDiv;
360         }
361         /* ... nor a signed mod instruction ... */
362         {
363                 i_instr_record *map_Mod = &records[n_records++].i_instr;
364
365                 tp = new_type_method(2, 1);
366                 set_method_param_type(tp, 0, int_tp);
367                 set_method_param_type(tp, 1, int_tp);
368                 set_method_res_type(tp, 0, int_tp);
369
370                 rt_iMod.ent             = new_entity(get_glob_type(), ID("__modsi3"), tp);
371                 set_entity_ld_ident(rt_iMod.ent, ID("__modsi3"));
372                 rt_iMod.mode            = mode_T;
373                 rt_iMod.res_mode        = mode_Is;
374                 rt_iMod.mem_proj_nr     = pn_Mod_M;
375                 rt_iMod.regular_proj_nr = pn_Mod_X_regular;
376                 rt_iMod.exc_proj_nr     = pn_Mod_X_except;
377                 rt_iMod.res_proj_nr     = pn_Mod_res;
378
379                 set_entity_visibility(rt_iMod.ent, ir_visibility_external);
380
381                 map_Mod->kind     = INTRINSIC_INSTR;
382                 map_Mod->op       = op_Mod;
383                 map_Mod->i_mapper = (i_mapper_func)i_mapper_RuntimeCall;
384                 map_Mod->ctx      = &rt_iMod;
385         }
386         /* ... nor an unsigned mod. */
387         {
388                 i_instr_record *map_Mod = &records[n_records++].i_instr;
389
390                 tp = new_type_method(2, 1);
391                 set_method_param_type(tp, 0, uint_tp);
392                 set_method_param_type(tp, 1, uint_tp);
393                 set_method_res_type(tp, 0, uint_tp);
394
395                 rt_uMod.ent             = new_entity(get_glob_type(), ID("__umodsi3"), tp);
396                 set_entity_ld_ident(rt_uMod.ent, ID("__umodsi3"));
397                 rt_uMod.mode            = mode_T;
398                 rt_uMod.res_mode        = mode_Iu;
399                 rt_uMod.mem_proj_nr     = pn_Mod_M;
400                 rt_uMod.regular_proj_nr = pn_Mod_X_regular;
401                 rt_uMod.exc_proj_nr     = pn_Mod_X_except;
402                 rt_uMod.res_proj_nr     = pn_Mod_res;
403
404                 set_entity_visibility(rt_uMod.ent, ir_visibility_external);
405
406                 map_Mod->kind     = INTRINSIC_INSTR;
407                 map_Mod->op       = op_Mod;
408                 map_Mod->i_mapper = (i_mapper_func)i_mapper_RuntimeCall;
409                 map_Mod->ctx      = &rt_uMod;
410         }
411
412         if (n_records > 0)
413                 lower_intrinsics(records, n_records, /*part_block_used=*/0);
414 }
415
416 extern const arch_isa_if_t arm_isa_if;
417 static arm_isa_t arm_isa_template = {
418         {
419                 &arm_isa_if,           /* isa interface */
420                 N_ARM_REGISTERS,
421                 arm_registers,
422                 N_ARM_CLASSES,
423                 arm_reg_classes,
424                 &arm_registers[REG_SP],  /* stack pointer */
425                 &arm_registers[REG_R11], /* base pointer */
426                 &arm_reg_classes[CLASS_arm_gp],  /* static link pointer class */
427                 2,                     /* power of two stack alignment for calls, 2^2 == 4 */
428                 NULL,                  /* main environment */
429                 7,                     /* spill costs */
430                 5,                     /* reload costs */
431                 true,                  /* we do have custom abi handling */
432         },
433         ARM_FPU_ARCH_FPE,      /* FPU architecture */
434 };
435
436 /**
437  * Initializes the backend ISA and opens the output file.
438  */
439 static arch_env_t *arm_init(FILE *file_handle)
440 {
441         arm_isa_t *isa = XMALLOC(arm_isa_t);
442         *isa = arm_isa_template;
443
444         arm_register_init();
445
446         be_emit_init(file_handle);
447
448         arm_create_opcodes(&arm_irn_ops);
449         arm_handle_intrinsics();
450
451         be_gas_emit_types = false;
452
453         return &isa->base;
454 }
455
456
457
458 /**
459  * Closes the output file and frees the ISA structure.
460  */
461 static void arm_done(void *self)
462 {
463         arm_isa_t *isa = (arm_isa_t*)self;
464
465         be_gas_emit_decls(isa->base.main_env);
466
467         be_emit_exit();
468         free(self);
469 }
470
471 /**
472  * Get the register class which shall be used to store a value of a given mode.
473  * @param self The this pointer.
474  * @param mode The mode in question.
475  * @return A register class which can hold values of the given mode.
476  */
477 static const arch_register_class_t *arm_get_reg_class_for_mode(const ir_mode *mode)
478 {
479         if (mode_is_float(mode))
480                 return &arm_reg_classes[CLASS_arm_fpa];
481         else
482                 return &arm_reg_classes[CLASS_arm_gp];
483 }
484
485 /**
486  * Returns the necessary byte alignment for storing a register of given class.
487  */
488 static int arm_get_reg_class_alignment(const arch_register_class_t *cls)
489 {
490         (void) cls;
491         /* ARM is a 32 bit CPU, no need for other alignment */
492         return 4;
493 }
494
495 /**
496  * Return irp irgs in the desired order.
497  */
498 static ir_graph **arm_get_irg_list(const void *self, ir_graph ***irg_list)
499 {
500         (void) self;
501         (void) irg_list;
502         return NULL;
503 }
504
505 /**
506  * Allows or disallows the creation of Psi nodes for the given Phi nodes.
507  * @return 1 if allowed, 0 otherwise
508  */
509 static int arm_is_mux_allowed(ir_node *sel, ir_node *mux_false,
510                               ir_node *mux_true)
511 {
512         (void) sel;
513         (void) mux_false;
514         (void) mux_true;
515         return false;
516 }
517
518 static asm_constraint_flags_t arm_parse_asm_constraint(const char **c)
519 {
520         /* asm not supported */
521         (void) c;
522         return ASM_CONSTRAINT_FLAG_INVALID;
523 }
524
525 static int arm_is_valid_clobber(const char *clobber)
526 {
527         (void) clobber;
528         return 0;
529 }
530
531 static void arm_lower_for_target(void)
532 {
533         size_t i, n_irgs = get_irp_n_irgs();
534
535         /* lower compound param handling */
536         lower_calls_with_compounds(LF_RETURN_HIDDEN);
537
538         for (i = 0; i < n_irgs; ++i) {
539                 ir_graph *irg = get_irp_irg(i);
540                 lower_switch(irg, 4, 256, true);
541         }
542 }
543
544 /**
545  * Returns the libFirm configuration parameter for this backend.
546  */
547 static const backend_params *arm_get_libfirm_params(void)
548 {
549         static ir_settings_arch_dep_t ad = {
550                 1,    /* allow subs */
551                 1,    /* Muls are fast enough on ARM but ... */
552                 31,   /* ... one shift would be possible better */
553                 NULL, /* no evaluator function */
554                 0,    /* SMUL is needed, only in Arch M */
555                 0,    /* UMUL is needed, only in Arch M */
556                 32,   /* SMUL & UMUL available for 32 bit */
557         };
558         static backend_params p = {
559                 0,     /* don't support inline assembler yet */
560                 1,     /* support Rotl nodes */
561                 1,     /* big endian */
562                 &ad,   /* will be set later */
563                 arm_is_mux_allowed, /* allow_ifconv function */
564                 32,    /* machine size */
565                 NULL,  /* float arithmetic mode (TODO) */
566                 0,     /* size of long double */
567                 0,     /* no trampoline support: size 0 */
568                 0,     /* no trampoline support: align 0 */
569                 NULL,  /* no trampoline support: no trampoline builder */
570                 4      /* alignment of stack parameter */
571         };
572
573         return &p;
574 }
575
576 /* fpu set architectures. */
577 static const lc_opt_enum_int_items_t arm_fpu_items[] = {
578         { "softfloat", ARM_FPU_ARCH_SOFTFLOAT },
579         { "fpe",       ARM_FPU_ARCH_FPE },
580         { "fpa",       ARM_FPU_ARCH_FPA },
581         { "vfp1xd",    ARM_FPU_ARCH_VFP_V1xD },
582         { "vfp1",      ARM_FPU_ARCH_VFP_V1 },
583         { "vfp2",      ARM_FPU_ARCH_VFP_V2 },
584         { NULL,        0 }
585 };
586
587 static lc_opt_enum_int_var_t arch_fpu_var = {
588         &arm_isa_template.fpu_arch, arm_fpu_items
589 };
590
591 static const lc_opt_table_entry_t arm_options[] = {
592         LC_OPT_ENT_ENUM_INT("fpunit",    "select the floating point unit", &arch_fpu_var),
593         LC_OPT_LAST
594 };
595
596 const arch_isa_if_t arm_isa_if = {
597         arm_init,
598         arm_lower_for_target,
599         arm_done,
600         NULL,  /* handle_intrinsics */
601         arm_get_reg_class_for_mode,
602         NULL,
603         arm_get_reg_class_alignment,
604         arm_get_libfirm_params,
605         arm_get_irg_list,
606         NULL,               /* mark remat */
607         arm_parse_asm_constraint,
608         arm_is_valid_clobber,
609
610         arm_init_graph,
611         NULL,  /* get_pic_base */
612         NULL,  /* before_abi */
613         arm_prepare_graph,
614         arm_before_ra,
615         arm_after_ra,
616         arm_finish_irg,
617         arm_gen_routine,
618         NULL, /* register_saved_by */
619 };
620
621 BE_REGISTER_MODULE_CONSTRUCTOR(be_init_arch_arm)
622 void be_init_arch_arm(void)
623 {
624         lc_opt_entry_t *be_grp = lc_opt_get_grp(firm_opt_get_root(), "be");
625         lc_opt_entry_t *arm_grp = lc_opt_get_grp(be_grp, "arm");
626
627         lc_opt_add_table(arm_grp, arm_options);
628
629         be_register_isa_if("arm", &arm_isa_if);
630
631         arm_init_transform();
632         arm_init_emitter();
633 }