Rename -fluffig to -fsync, perform opt_sync() (formerly opt_ldst2()) last to not...
[cparser] / driver / firm_opt.c
1 /**
2  *
3  * @file firm_opt.c -- Firm-generating back end optimizations.
4  *
5  * (C) 2005-2007  Michael Beck   beck@ipd.info.uni-karlsruhe.de
6  *
7  * $Id$
8  */
9 #include <stdbool.h>
10 #include <stdlib.h>
11 #include <string.h>
12 #include <stdbool.h>
13 #include <assert.h>
14 #include <libfirm/firm.h>
15 #include <libfirm/be.h>
16
17
18 #include "firm_opt.h"
19 #include "firm_codegen.h"
20 #include "firm_cmdline.h"
21 #include "firm_timing.h"
22
23 #ifdef _WIN32
24 #define snprintf _snprintf
25 #endif
26
27 #if defined(_DEBUG) || defined(FIRM_DEBUG)
28 #define DBG(x)  dbg_printf x
29 #else
30 #define DBG(x)
31 #endif /* _DEBUG || FIRM_DEBUG */
32
33
34 /** dump all the graphs depending on cond */
35 #define DUMP_ALL(cond, suffix)                             \
36   do {                                                     \
37     if (cond) {                                            \
38       timer_push(TV_VCG_DUMP);                             \
39       if (firm_dump.no_blocks)                             \
40         dump_all_ir_graphs(dump_ir_graph, suffix);         \
41       else if (firm_dump.extbb)                            \
42         dump_all_ir_graphs(dump_ir_extblock_graph, suffix);\
43       else                                                 \
44         dump_all_ir_graphs(dump_ir_block_graph, suffix);   \
45       timer_pop();                                         \
46     }                                                      \
47   } while (0)
48
49 /** dump all control flow graphs depending on cond */
50 #define DUMP_ALL_CFG(cond, suffix)                      \
51   do {                                                  \
52     if (cond) {                                         \
53       timer_push(TV_VCG_DUMP);                          \
54         dump_all_ir_graphs(dump_cfg, suffix);           \
55       timer_pop();                                      \
56     }                                                   \
57   } while (0)
58
59 /** check all graphs depending on cond */
60 #define CHECK_ALL(cond)                                 \
61   do {                                                  \
62     if (cond) {                                         \
63       int ii;                                           \
64       timer_push(TV_VERIFY);                            \
65       for (ii = get_irp_n_irgs() - 1; ii >= 0; --ii)    \
66         irg_verify(get_irp_irg(ii), VRFY_ENFORCE_SSA);  \
67       timer_pop();                                      \
68     }                                                   \
69   } while (0)
70
71
72
73 /** dump graphs irg depending on cond */
74 #define DUMP_ONE(cond, irg, suffix)                     \
75   do {                                                  \
76     if (cond) {                                         \
77       timer_push(TV_VCG_DUMP);                          \
78       if (firm_dump.no_blocks)                          \
79         dump_ir_graph(irg, suffix);                     \
80       else if (firm_dump.extbb)                         \
81         dump_ir_extblock_graph(irg, suffix);            \
82       else                                              \
83         dump_ir_block_graph(irg, suffix);               \
84       timer_pop();                                      \
85     }                                                   \
86   } while (0)
87
88 /** dump control flow graph irg depending on cond */
89 #define DUMP_ONE_CFG(cond, irg, suffix)                 \
90   do {                                                  \
91     if (cond) {                                         \
92       timer_push(TV_VCG_DUMP);                          \
93       dump_cfg(irg, suffix);                            \
94       timer_pop();                                      \
95     }                                                   \
96   } while (0)
97
98 /** check a graph irg depending on cond */
99 #define CHECK_ONE(cond, irg)                            \
100   do {                                                  \
101     if (cond) {                                         \
102       timer_push(TV_VERIFY);                            \
103         irg_verify(irg, VRFY_ENFORCE_SSA);              \
104       timer_pop();                                      \
105     }                                                   \
106   } while (0)
107
108
109 /* set by the backend parameters */
110 static const ir_settings_arch_dep_t *ad_param = NULL;
111 static create_intrinsic_fkt *arch_create_intrinsic = NULL;
112 static void *create_intrinsic_ctx = NULL;
113 static const ir_settings_if_conv_t *if_conv_info = NULL;
114
115 ir_mode *firm_imm_fp_mode = NULL;
116
117 /* entities of runtime functions */
118 ir_entity_ptr rts_entities[rts_max];
119
120 /**
121  * factory for setting architecture dependent parameters
122  */
123 static const ir_settings_arch_dep_t *arch_factory(void)
124 {
125   static const ir_settings_arch_dep_t param = {
126       1,   /* also use subs */
127       4,   /* maximum shifts */
128      31,   /* maximum shift amount */
129      NULL, /* use default evaluator */
130
131       1, /* allow Mulhs */
132       1, /* allow Mulus */
133      32  /* Mulh allowed up to 32 bit */
134   };
135
136   return ad_param ? ad_param : &param;
137 }
138
139 /**
140  * Map runtime functions.
141  */
142 static void rts_map(void) {
143   static const struct {
144     ir_entity_ptr *ent; /**< address of the rts entity */
145     i_mapper_func func; /**< mapper function. */
146   } mapper[] = {
147     /* integer */
148     { &rts_entities[rts_abs],     i_mapper_abs },
149     { &rts_entities[rts_labs],    i_mapper_abs },
150     { &rts_entities[rts_llabs],   i_mapper_abs },
151     { &rts_entities[rts_imaxabs], i_mapper_abs },
152
153     /* double -> double */
154     { &rts_entities[rts_fabs],    i_mapper_abs },
155     { &rts_entities[rts_sqrt],    i_mapper_sqrt },
156     { &rts_entities[rts_cbrt],    i_mapper_cbrt },
157     { &rts_entities[rts_pow],     i_mapper_pow },
158     { &rts_entities[rts_exp],     i_mapper_exp },
159     { &rts_entities[rts_exp2],    i_mapper_exp },
160     { &rts_entities[rts_exp10],   i_mapper_exp },
161     { &rts_entities[rts_log],     i_mapper_log },
162     { &rts_entities[rts_log2],    i_mapper_log2 },
163     { &rts_entities[rts_log10],   i_mapper_log10 },
164     { &rts_entities[rts_sin],     i_mapper_sin },
165     { &rts_entities[rts_cos],     i_mapper_cos },
166     { &rts_entities[rts_tan],     i_mapper_tan },
167     { &rts_entities[rts_asin],    i_mapper_asin },
168     { &rts_entities[rts_acos],    i_mapper_acos },
169     { &rts_entities[rts_atan],    i_mapper_atan },
170     { &rts_entities[rts_sinh],    i_mapper_sinh },
171     { &rts_entities[rts_cosh],    i_mapper_cosh },
172     { &rts_entities[rts_tanh],    i_mapper_tanh },
173
174     /* float -> float */
175     { &rts_entities[rts_fabsf],   i_mapper_abs },
176     { &rts_entities[rts_sqrtf],   i_mapper_sqrt },
177     { &rts_entities[rts_cbrtf],   i_mapper_cbrt },
178     { &rts_entities[rts_powf],    i_mapper_pow },
179     { &rts_entities[rts_expf],    i_mapper_exp },
180     { &rts_entities[rts_exp2f],   i_mapper_exp },
181     { &rts_entities[rts_exp10f],  i_mapper_exp },
182     { &rts_entities[rts_logf],    i_mapper_log },
183     { &rts_entities[rts_log2f],   i_mapper_log2 },
184     { &rts_entities[rts_log10f],  i_mapper_log10 },
185     { &rts_entities[rts_sinf],    i_mapper_sin },
186     { &rts_entities[rts_cosf],    i_mapper_cos },
187     { &rts_entities[rts_tanf],    i_mapper_tan },
188     { &rts_entities[rts_asinf],   i_mapper_asin },
189     { &rts_entities[rts_acosf],   i_mapper_acos },
190     { &rts_entities[rts_atanf],   i_mapper_atan },
191     { &rts_entities[rts_sinhf],   i_mapper_sinh },
192     { &rts_entities[rts_coshf],   i_mapper_cosh },
193     { &rts_entities[rts_tanhf],   i_mapper_tanh },
194
195     /* long double -> long double */
196     { &rts_entities[rts_fabsl],   i_mapper_abs },
197     { &rts_entities[rts_sqrtl],   i_mapper_sqrt },
198     { &rts_entities[rts_cbrtl],   i_mapper_cbrt },
199     { &rts_entities[rts_powl],    i_mapper_pow },
200     { &rts_entities[rts_expl],    i_mapper_exp },
201     { &rts_entities[rts_exp2l],   i_mapper_exp },
202     { &rts_entities[rts_exp10l],  i_mapper_exp },
203     { &rts_entities[rts_logl],    i_mapper_log },
204     { &rts_entities[rts_log2l],   i_mapper_log2 },
205     { &rts_entities[rts_log10l],  i_mapper_log10 },
206     { &rts_entities[rts_sinl],    i_mapper_sin },
207     { &rts_entities[rts_cosl],    i_mapper_cos },
208     { &rts_entities[rts_tanl],    i_mapper_tan },
209     { &rts_entities[rts_asinl],   i_mapper_asin },
210     { &rts_entities[rts_acosl],   i_mapper_acos },
211     { &rts_entities[rts_atanl],   i_mapper_atan },
212     { &rts_entities[rts_sinhl],   i_mapper_sinh },
213     { &rts_entities[rts_coshl],   i_mapper_cosh },
214     { &rts_entities[rts_tanhl],   i_mapper_tanh },
215
216     /* string */
217     { &rts_entities[rts_memcpy],  i_mapper_memcpy },
218     { &rts_entities[rts_memset],  i_mapper_memset },
219     { &rts_entities[rts_strcmp],  i_mapper_strcmp },
220     { &rts_entities[rts_strncmp], i_mapper_strncmp },
221     { &rts_entities[rts_strlen],  i_mapper_strlen }
222   };
223   i_record rec[sizeof(mapper)/sizeof(mapper[0])];
224   unsigned i, n_map;
225
226   for (i = n_map = 0; i < sizeof(mapper)/sizeof(mapper[0]); ++i)
227     if (*mapper[i].ent != NULL) {
228       rec[n_map].i_call.kind     = INTRINSIC_CALL;
229       rec[n_map].i_call.i_ent    = *mapper[i].ent;
230       rec[n_map].i_call.i_mapper = mapper[i].func;
231       rec[n_map].i_call.ctx      = NULL;
232       rec[n_map].i_call.link     = NULL;
233       ++n_map;
234   }  /* if */
235   if (n_map > 0)
236     lower_intrinsics(rec, n_map, /* part_block_used=*/0);
237 }  /* rts_map */
238
239 static int *irg_dump_no;
240
241 static void dump_graph_count(ir_graph *const irg, const char *const suffix)
242 {
243   char name[64];
244   snprintf(name, sizeof(name), "-%02d_%s", irg_dump_no[get_irg_idx(irg)]++, suffix);
245   DUMP_ONE(1, irg, name);
246 }
247
248 #if 0
249 static void dump_graph_cfg_count(ir_graph *const irg, const char *const suffix)
250 {
251   char name[64];
252   snprintf(name, sizeof(name), "-%02d_%s", irg_dump_no[get_irg_idx(irg)]++, suffix);
253   DUMP_ONE_CFG(1, irg, name);
254 }
255 #endif
256
257 static void dump_all_count(const char *const suffix)
258 {
259   const int n_irgs = get_irp_n_irgs();
260   int i;
261
262   for (i = 0; i < n_irgs; ++i)
263     dump_graph_count(get_irp_irg(i), suffix);
264 }
265
266 #define DUMP_ONE_C(cond, irg, suffix)    \
267   do {                                   \
268     if (cond) {                          \
269       dump_graph_count((irg), (suffix)); \
270     }                                    \
271   } while (0)
272
273 #define DUMP_ONE_CFG_C(cond, irg, suffix)    \
274   do {                                       \
275     if (cond) {                              \
276       dump_graph_cfg_count((irg), (suffix)); \
277     }                                        \
278   } while (0)
279
280 #define DUMP_ALL_C(cond, suffix) \
281   do {                           \
282     if (cond) {                  \
283       dump_all_count((suffix));  \
284     }                            \
285   } while (0)
286
287 static void remove_unused_functions(void)
288 {
289         ir_entity **keep_methods;
290         int         arr_len;
291
292         /* Analysis that finds the free methods,
293            i.e. methods that are dereferenced.
294            Optimizes polymorphic calls :-). */
295         cgana(&arr_len, &keep_methods);
296
297         /* Remove methods that are never called. */
298         gc_irgs(arr_len, keep_methods);
299         free(keep_methods);
300 }
301
302 static int firm_const_exists;
303
304 static void do_optimize_funccalls(void)
305 {
306         optimize_funccalls(firm_const_exists, NULL);
307 }
308
309 static void do_gcse(ir_graph *irg)
310 {
311         set_opt_global_cse(1);
312         place_code(irg);
313         set_opt_global_cse(0);
314 }
315
316 static void do_lower_highlevel(ir_graph *irg)
317 {
318         lower_highlevel_graph(irg, firm_opt.lower_bitfields);
319 }
320
321 static void do_if_conv(ir_graph *irg)
322 {
323         opt_if_conv(irg, if_conv_info);
324 }
325
326 static void do_stred(ir_graph *irg)
327 {
328         opt_osr(irg, osr_flag_default | osr_flag_keep_reg_pressure | osr_flag_ignore_x86_shift);
329 }
330
331 static void do_inline(void)
332 {
333         inline_functions(500, 50);
334 }
335
336 static void do_cloning(void)
337 {
338         proc_cloning((float) firm_opt.clone_threshold);
339 }
340
341 static void do_lower_switch(ir_graph *irg)
342 {
343         lower_switch(irg, firm_opt.spare_size);
344 }
345
346 typedef enum opt_target {
347         OPT_TARGET_IRG,
348         OPT_TARGET_IRP
349 } opt_target;
350
351 typedef void (*transform_irg_func)(ir_graph *irg);
352 typedef void (*transform_irp_func)(void);
353 typedef void (*func_ptr_t)(void);
354
355 typedef struct {
356         opt_target  target;
357         const char *name;
358         func_ptr_t  func;
359         bool        enabled;
360         bool        dump;
361         bool        verify;
362         int         timer;
363 } opt_config_t;
364
365 static opt_config_t opts[] = {
366         { OPT_TARGET_IRP, "rts",         (func_ptr_t) rts_map,                 true, true,  true,  -1 },
367         { OPT_TARGET_IRG, "combo",       (func_ptr_t) combo,                   true, true,  true,  TV_COMBO },
368         { OPT_TARGET_IRG, "controlflow", (func_ptr_t) optimize_cf,             true, true,  true,  TV_CF_OPT },
369         { OPT_TARGET_IRG, "local",       (func_ptr_t) optimize_graph_df,       true, true,  true,  TV_LOCAL_OPT },
370         { OPT_TARGET_IRP, "gc_irgs",     (func_ptr_t) remove_unused_functions, true, false, false, TV_CGANA },
371         { OPT_TARGET_IRP, "tailrec",     (func_ptr_t) opt_tail_recursion,      true, true,  true,  TV_TAIL_REC },
372         { OPT_TARGET_IRP, "funccalls",   (func_ptr_t) do_optimize_funccalls,   true, true,  true,  TV_REAL_FUNC_CALL },
373         { OPT_TARGET_IRP, "lowerconst",  (func_ptr_t) lower_const_code,        true, false, false, -1 },
374         { OPT_TARGET_IRG, "onereturn",   (func_ptr_t) normalize_one_return,    true, false, false, -1 },
375         { OPT_TARGET_IRG, "scalar",      (func_ptr_t) scalar_replacement_opt,  true, true,  true,  TV_SCALAR_REPLACE },
376         { OPT_TARGET_IRG, "reassoc",     (func_ptr_t) optimize_reassociation,  true, true,  true,  TV_REASSOCIATION },
377         { OPT_TARGET_IRG, "gcse",        (func_ptr_t) do_gcse,                 true, true,  true,  TV_CODE_PLACE },
378         { OPT_TARGET_IRG, "place",       (func_ptr_t) place_code,              true, true,  true,  TV_CODE_PLACE },
379         { OPT_TARGET_IRG, "confirm",     (func_ptr_t) construct_confirms,      true, true,  true,  TV_CONFIRM_CREATE },
380         { OPT_TARGET_IRG, "ldst",        (func_ptr_t) optimize_load_store,     true, true,  true,  TV_LOAD_STORE },
381         { OPT_TARGET_IRG, "sync",        (func_ptr_t) opt_sync,                true, true,  true,  -1 },
382         { OPT_TARGET_IRG, "lower",       (func_ptr_t) do_lower_highlevel,      true, true,  true,  -1 },
383         { OPT_TARGET_IRG, "deconv",      (func_ptr_t) conv_opt,                true, true,  true,  TV_DECONV },
384         { OPT_TARGET_IRG, "condeval",    (func_ptr_t) opt_cond_eval,           true, true,  true,  TV_COND_EVAL },
385         { OPT_TARGET_IRG, "remove_confirms", (func_ptr_t) remove_confirms,     true, false, false, TV_CONFIRM_CREATE },
386         { OPT_TARGET_IRG, "gvnpre",      (func_ptr_t) do_gvn_pre,              true, true,  true,  -1 },
387         { OPT_TARGET_IRG, "ifconv",      (func_ptr_t) do_if_conv,              true, true,  true,  TV_IF_CONV },
388         { OPT_TARGET_IRG, "bool",        (func_ptr_t) opt_bool,                true, true,  true,  -1 },
389         { OPT_TARGET_IRG, "stred",       (func_ptr_t) do_stred,                true, true,  true,  TV_OSR },
390         { OPT_TARGET_IRG, "dead",        (func_ptr_t) dead_node_elimination,   true, false, true,  TV_DEAD_NODE },
391         { OPT_TARGET_IRP, "inline",      (func_ptr_t) do_inline,               true, true,  true,  -1 },
392         { OPT_TARGET_IRP, "clone",       (func_ptr_t) do_cloning,              true, true,  true,  -1 },
393         { OPT_TARGET_IRG, "lower_switch", (func_ptr_t) do_lower_switch,        true, true,  true,  -1 },
394 };
395 static const int n_opts = sizeof(opts) / sizeof(opts[0]);
396
397 static opt_config_t *get_opt(const char *name)
398 {
399         int i;
400         for (i = 0; i < n_opts; ++i) {
401                 opt_config_t *config = &opts[i];
402                 if (strcmp(config->name, name) == 0)
403                         return config;
404         }
405
406         assert(0);
407         return NULL;
408 }
409
410 static void set_opt_enabled(const char *name, bool enabled)
411 {
412         opt_config_t *config = get_opt(name);
413         config->enabled = enabled;
414 }
415
416 static void do_irg_opt(ir_graph *irg, const char *name)
417 {
418         transform_irg_func  func;
419         ir_graph           *old_irg;
420         opt_config_t       *config = get_opt(name);
421         assert(config->target == OPT_TARGET_IRG);
422         if (!config->enabled)
423                 return;
424
425         if (config->timer != -1)
426                 timer_push(config->timer);
427
428         old_irg          = current_ir_graph;
429         current_ir_graph = irg;
430
431         func = (transform_irg_func) config->func;
432         func(irg);
433
434         if (config->timer != -1)
435                 timer_pop();
436
437         DUMP_ONE_C(firm_dump.ir_graph && firm_dump.all_phases, irg, config->name);
438         CHECK_ONE(firm_opt.check_all, irg);
439
440         current_ir_graph = old_irg;
441 }
442
443 static void do_irp_opt(const char *name)
444 {
445         transform_irp_func  func;
446         opt_config_t       *config = get_opt(name);
447         assert(config->target == OPT_TARGET_IRP);
448         if (!config->enabled)
449                 return;
450
451         if (config->timer != -1)
452                 timer_push(config->timer);
453
454         func = (transform_irp_func) config->func;
455         func();
456
457         DUMP_ALL_C(firm_dump.ir_graph && firm_dump.all_phases, config->name);
458         CHECK_ALL(firm_opt.check_all);
459
460         if (config->timer != -1)
461                 timer_pop();
462 }
463
464 /**
465  * run all the Firm optimizations
466  *
467  * @param input_filename     the name of the (main) source file
468  */
469 static void do_firm_optimizations(const char *input_filename)
470 {
471   int      i;
472   unsigned aa_opt;
473
474   /* FIXME: cloning might ADD new graphs. */
475   irg_dump_no = calloc(get_irp_last_idx(), sizeof(*irg_dump_no));
476
477   set_opt_strength_red(firm_opt.strength_red);
478   set_opt_scalar_replacement(firm_opt.scalar_replace);
479   set_opt_auto_create_sync(firm_opt.auto_sync);
480   set_opt_alias_analysis(firm_opt.alias_analysis);
481
482   aa_opt = aa_opt_no_opt;
483   if (firm_opt.strict_alias)
484     aa_opt |= aa_opt_type_based | aa_opt_byte_type_may_alias;
485   if (firm_opt.no_alias)
486     aa_opt = aa_opt_no_alias;
487
488   set_irp_memory_disambiguator_options(aa_opt);
489
490   /* parameter passing code should set them directly sometime... */
491   set_opt_enabled("rts", firm_opt.freestanding);
492   set_opt_enabled("gc_irgs", firm_opt.remove_unused);
493   set_opt_enabled("tailrec", firm_opt.tail_rec);
494   set_opt_enabled("funccalls", firm_opt.func_calls);
495   set_opt_enabled("gcse", firm_opt.gcse);
496   set_opt_enabled("place", !firm_opt.gcse);
497   set_opt_enabled("confirm", firm_opt.confirm);
498   set_opt_enabled("remove_confirms", firm_opt.confirm);
499   set_opt_enabled("sync", firm_opt.sync);
500   set_opt_enabled("ldst", firm_opt.load_store);
501   set_opt_enabled("deconv", firm_opt.deconv);
502   set_opt_enabled("condeval", firm_opt.cond_eval);
503   set_opt_enabled("gvnpre", firm_opt.gvn_pre);
504   set_opt_enabled("ifconv", firm_opt.if_conversion);
505   set_opt_enabled("bool", firm_opt.bool_opt);
506   set_opt_enabled("inline", firm_opt.do_inline);
507   set_opt_enabled("clone", firm_opt.cloning);
508   set_opt_enabled("combo", firm_opt.combo);
509
510   timer_start(TV_ALL_OPT);
511
512   do_irp_opt("rts");
513
514   /* first step: kill dead code */
515   if (firm_opt.combo) {
516     for (i = 0; i < get_irp_n_irgs(); i++) {
517       ir_graph *irg = get_irp_irg(i);
518       do_irg_opt(irg, "combo");
519     }
520   } else {
521     for (i = 0; i < get_irp_n_irgs(); i++) {
522       ir_graph *irg = get_irp_irg(i);
523       do_irg_opt(irg, "local");
524       do_irg_opt(irg, "controlflow");
525     }
526   }
527
528   do_irp_opt("gc_irgs");
529   do_irp_opt("tailrec");
530   do_irp_opt("funccalls");
531   do_irp_opt("lowerconst");
532
533   for (i = 0; i < get_irp_n_irgs(); i++) {
534     ir_graph *irg = get_irp_irg(i);
535
536 #ifdef FIRM_EXT_GRS
537     /* If SIMD optimization is on, make sure we have only 1 return */
538     if (firm_ext_grs.create_pattern || firm_ext_grs.simd_opt)
539       do_irg_opt("onereturn");
540 #endif
541
542     do_irg_opt(irg, "scalar");
543     do_irg_opt(irg, "local");
544     do_irg_opt(irg, "reassoc");
545     do_irg_opt(irg, "local");
546     do_irg_opt(irg, "gcse");
547
548     if (firm_opt.confirm) {
549       /* Confirm construction currently can only handle blocks with only one control
550          flow predecessor. Calling optimize_cf here removes Bad predecessors and help
551          the optimization of switch constructs. */
552       do_irg_opt(irg, "controlflow");
553       do_irg_opt(irg, "confirm");
554       do_irg_opt(irg, "local");
555     }
556
557     do_irg_opt(irg, "controlflow");
558     do_irg_opt(irg, "ldst");
559     do_irg_opt(irg, "lower");
560     do_irg_opt(irg, "deconv");
561     do_irg_opt(irg, "condeval");
562     do_irg_opt(irg, "lower_switch");
563     do_irg_opt(irg, "remove_confirms");
564     do_irg_opt(irg, "gvnpre");
565     do_irg_opt(irg, "place");
566     do_irg_opt(irg, "controlflow");
567
568     if (firm_opt.if_conversion) {
569       do_irg_opt(irg, "ifconv");
570       do_irg_opt(irg, "local");
571       do_irg_opt(irg, "controlflow");
572     }
573
574     do_irg_opt(irg, "bool");
575     do_irg_opt(irg, "stred");
576     do_irg_opt(irg, "local");
577     do_irg_opt(irg, "dead");
578   }
579
580   do_irp_opt("inline");
581   do_irp_opt("clone");
582
583   for (i = 0; i < get_irp_n_irgs(); i++) {
584     ir_graph *irg = get_irp_irg(i);
585     do_irg_opt(irg, "local");
586     do_irg_opt(irg, "controlflow");
587     do_irg_opt(irg, "condeval");
588     do_irg_opt(irg, "local");
589     do_irg_opt(irg, "controlflow");
590   }
591
592   if (firm_dump.ir_graph) {
593     /* recompute backedges for nicer dumps */
594     for (i = 0; i < get_irp_n_irgs(); i++)
595       construct_cf_backedges(get_irp_irg(i));
596   }
597
598   do_irp_opt("gc_irgs");
599
600   DUMP_ALL(firm_dump.ir_graph, "-opt");
601   /* verify optimized graphs */
602   for (i = get_irp_n_irgs() - 1; i >= 0; --i) {
603     ir_graph *irg = get_irp_irg(i);
604     irg_verify(irg, VRFY_ENFORCE_SSA);
605   }
606
607   if (firm_dump.statistic & STAT_AFTER_OPT)
608     stat_dump_snapshot(input_filename, "opt");
609
610   timer_stop(TV_ALL_OPT);
611 }  /* do_firm_optimizations */
612
613 /**
614  * compute the size of a type (do implicit lowering)
615  *
616  * @param ty   a Firm type
617  */
618 static int compute_type_size(ir_type *ty)
619 {
620   optimization_state_t state;
621   unsigned             align_all = 1;
622   int                  n, size = 0, set = 0;
623   int                  i, dims, s;
624
625   if (get_type_state(ty) == layout_fixed) {
626     /* do not layout already layouted types again */
627     return 1;
628   }
629
630   if (is_Method_type(ty) || ty == get_glob_type()) {
631     /* no need for size calculation for method types or the global type */
632     return 1;
633   }
634
635   DBG(("compute type size visiting: %s\n", get_type_name(ty)));
636
637   switch (get_type_tpop_code(ty)) {
638   case tpo_class:
639   case tpo_struct:
640     for (i = 0, n = get_compound_n_members(ty); i < n; ++i) {
641       ir_entity *ent  = get_compound_member(ty, i);
642       ir_type *ent_ty = get_entity_type(ent);
643       unsigned align, misalign;
644
645       /* compute member types */
646       if (! compute_type_size(ent_ty))
647         return 0;
648
649       align     = get_type_alignment_bytes(ent_ty);
650       align_all = align > align_all ? align : align_all;
651       misalign  = (align ? size % align : 0);
652       size     += (misalign ? align - misalign : 0);
653
654       set_entity_offset(ent, size);
655       size += get_type_size_bytes(ent_ty);
656
657       DBG(("  member %s %s -> (size: %u, align: %u)\n",
658             get_type_name(ent_ty), get_entity_name(ent),
659             get_type_size_bytes(ent_ty), get_type_alignment_bytes(ent_ty)));
660     }
661     if (align_all > 0 && size % align_all) {
662        DBG(("align of the struct member: %u, type size: %d\n", align_all, size));
663        size += align_all - (size % align_all);
664        DBG(("correcting type-size to %d\n", size));
665     }
666     set_type_alignment_bytes(ty, align_all);
667     set = 1;
668     break;
669
670   case tpo_union:
671     for (i = 0, n = get_union_n_members(ty); i < n; ++i) {
672       ir_entity *ent = get_union_member(ty, i);
673
674       if (! compute_type_size(get_entity_type(ent)))
675         return 0;
676       s = get_type_size_bytes(get_entity_type(ent));
677
678       set_entity_offset(ent, 0);
679       size = (s > size ? s : size);
680     }
681     set = 1;
682     break;
683
684   case tpo_array:
685     dims = get_array_n_dimensions(ty);
686
687     if (! compute_type_size(get_array_element_type(ty)))
688       return 0;
689
690     size = 1;
691
692     save_optimization_state(&state);
693     set_optimize(1);
694     set_opt_constant_folding(1);
695         set_opt_algebraic_simplification(1);
696
697     for (i = 0; i < dims; ++i) {
698       ir_node *lower   = get_array_lower_bound(ty, i);
699       ir_node *upper   = get_array_upper_bound(ty, i);
700       ir_graph *rem    = current_ir_graph;
701       tarval  *tv_lower, *tv_upper;
702       long     val_lower, val_upper;
703
704       current_ir_graph = get_const_code_irg();
705       local_optimize_node(lower);
706       local_optimize_node(upper);
707       current_ir_graph = rem;
708
709       tv_lower = computed_value(lower);
710       tv_upper = computed_value(upper);
711
712       if (tv_lower == tarval_bad || tv_upper == tarval_bad) {
713         /*
714          * we cannot calculate the size of this array yet, it
715          * even might be unknown until the end, like argv[]
716          */
717         restore_optimization_state(&state);
718         return 0;
719       }
720
721       val_upper = get_tarval_long(tv_upper);
722       val_lower = get_tarval_long(tv_lower);
723       size     *= val_upper - val_lower;
724     }
725     restore_optimization_state(&state);
726
727     DBG(("array %s -> (elements: %d, element type size: %d)\n",
728           get_type_name(ty),
729           size, get_type_size_bytes(get_array_element_type(ty))));
730     size *= get_type_size_bytes(get_array_element_type(ty));
731     set = 1;
732     break;
733
734   default:
735     break;
736   }
737
738   if (set) {
739     set_type_size_bytes(ty, size);
740     set_type_state(ty, layout_fixed);
741   }
742
743   DBG(("size: %d\n", get_type_size_bytes(ty)));
744
745   return set;
746 }  /* compute_type_size */
747
748 /**
749  * layout all non-frame types of the Firm graph
750  */
751 static void compute_type_sizes(void)
752 {
753   int i;
754   ir_type *tp;
755
756   /* all non-frame other types */
757   for (i = get_irp_n_types() - 1; i >= 0; --i) {
758     tp = get_irp_type(i);
759     compute_type_size(tp);
760
761     if (is_Method_type(tp)) {
762       tp = get_method_value_res_type(tp);
763
764       if (tp) {
765         /* we have a value result type for this method, lower */
766         compute_type_size(tp);
767       }
768     }
769   }
770 }  /* compute_type_sizes */
771
772 /**
773  * layout all frame-types of the Firm graph
774  */
775 static void compute_frame_type_sizes(void)
776 {
777   int i;
778   ir_graph *irg;
779
780   /* all frame types */
781   for (i = get_irp_n_irgs() - 1; i >= 0; --i) {
782     irg = get_irp_irg(i);
783     /* do not optimize away variables in debug mode */
784     if (firm_opt.debug_mode == DBG_MODE_NONE)
785       opt_frame_irg(irg);
786     compute_type_size(get_irg_frame_type(irg));
787   }
788 }  /* compute_frame_type_sizes */
789
790 /**
791  * do Firm lowering
792  *
793  * @param input_filename  the name of the (main) source file
794  */
795 static void do_firm_lowering(const char *input_filename)
796 {
797   int i;
798
799   /* do class lowering and vtbl creation */
800 //  lower_classes_to_struct("vtbl", "m");
801
802 #if 0
803   timer_push(TV_LOWER);
804   lower_highlevel();
805   timer_pop();
806 #endif
807
808   if (firm_opt.lower_ll) {
809     lwrdw_param_t init = {
810       1,
811       1,
812       mode_Ls, mode_Lu,
813       mode_Is, mode_Iu,
814       def_create_intrinsic_fkt,
815       NULL
816     };
817
818
819     if (arch_create_intrinsic) {
820       init.create_intrinsic = arch_create_intrinsic;
821       init.ctx              = create_intrinsic_ctx;
822     }
823     timer_push(TV_DW_LOWER);
824       lower_dw_ops(&init);
825     timer_pop();
826   }
827
828   if (firm_dump.statistic & STAT_AFTER_LOWER)
829     stat_dump_snapshot(input_filename, "low");
830
831   /* verify lowered graphs */
832   timer_push(TV_VERIFY);
833   for (i = get_irp_n_irgs() - 1; i >= 0; --i)
834     irg_verify(get_irp_irg(i), VRFY_ENFORCE_SSA);
835   timer_pop();
836
837   DUMP_ALL(firm_dump.ir_graph, "-low");
838
839   if (firm_opt.enabled) {
840     timer_start(TV_ALL_OPT);
841
842     /* run reassociation first on all graphs BEFORE the architecture dependent optimizations
843        are enabled */
844     for (i = get_irp_n_irgs() - 1; i >= 0; --i) {
845       current_ir_graph = get_irp_irg(i);
846
847       timer_push(TV_REASSOCIATION);
848         optimize_reassociation(current_ir_graph);
849       timer_pop();
850       DUMP_ONE_C(firm_dump.ir_graph && firm_dump.all_phases, current_ir_graph, "reassoc");
851       CHECK_ONE(firm_opt.check_all, current_ir_graph);
852     }
853
854     /* enable architecture dependent optimizations */
855     arch_dep_set_opts((arch_dep_opts_t)
856                       ((firm_opt.muls ? arch_dep_mul_to_shift : arch_dep_none) |
857                       (firm_opt.divs ? arch_dep_div_by_const : arch_dep_none) |
858                       (firm_opt.mods ? arch_dep_mod_by_const : arch_dep_none) ));
859
860     for (i = get_irp_n_irgs() - 1; i >= 0; --i) {
861       current_ir_graph = get_irp_irg(i);
862
863       if (firm_opt.gcse)
864         set_opt_global_cse(1);
865
866       timer_push(TV_LOCAL_OPT);
867         optimize_graph_df(current_ir_graph);
868       timer_pop();
869       DUMP_ONE_C(firm_dump.ir_graph && firm_dump.all_phases, current_ir_graph, "lopt");
870       if (! firm_opt.gcse)
871         CHECK_ONE(firm_opt.check_all, current_ir_graph);
872
873       if (firm_opt.gcse) {
874         timer_push(TV_CODE_PLACE);
875           place_code(current_ir_graph);
876           set_opt_global_cse(0);
877         timer_pop();
878         DUMP_ONE_C(firm_dump.ir_graph && firm_dump.all_phases, current_ir_graph, "place");
879         CHECK_ONE(firm_opt.check_all, current_ir_graph);
880       }
881
882       timer_push(TV_LOAD_STORE);
883         optimize_load_store(current_ir_graph);
884       timer_pop();
885       DUMP_ONE_C(firm_dump.ir_graph && firm_dump.all_phases, current_ir_graph, "ldst");
886       CHECK_ONE(firm_opt.check_all, current_ir_graph);
887
888
889       timer_push(TV_LOCAL_OPT);
890         optimize_graph_df(current_ir_graph);
891       timer_pop();
892       DUMP_ONE_C(firm_dump.ir_graph && firm_dump.all_phases, current_ir_graph, "lopt");
893
894       timer_push(TV_CF_OPT);
895         optimize_cf(current_ir_graph);
896       timer_pop();
897       DUMP_ONE_C(firm_dump.ir_graph && firm_dump.all_phases, current_ir_graph, "cf");
898       CHECK_ONE(firm_opt.check_all, current_ir_graph);
899
900       if (firm_opt.if_conversion) {
901         timer_push(TV_IF_CONV);
902           opt_if_conv(current_ir_graph, if_conv_info);
903         timer_pop();
904         DUMP_ONE_C(firm_dump.ir_graph && firm_dump.all_phases, current_ir_graph, "if");
905         CHECK_ONE(firm_opt.check_all, current_ir_graph);
906
907         timer_push(TV_LOCAL_OPT);
908           optimize_graph_df(current_ir_graph);
909         timer_pop();
910         timer_push(TV_CF_OPT);
911           optimize_cf(current_ir_graph);
912         timer_pop();
913         DUMP_ONE_C(firm_dump.ir_graph && firm_dump.all_phases, current_ir_graph, "after_if");
914         CHECK_ONE(firm_opt.check_all, current_ir_graph);
915       }
916
917                         do_irg_opt(current_ir_graph, "sync");
918     }
919     timer_stop(TV_ALL_OPT);
920
921     DUMP_ALL(firm_dump.ir_graph, "-low-opt");
922   }
923
924   if (firm_opt.cc_opt)
925     mark_private_methods();
926
927   /* set the phase to low */
928   for (i = get_irp_n_irgs() - 1; i >= 0; --i)
929     set_irg_phase_low(get_irp_irg(i));
930
931   /* all graphs are lowered, set the irp phase to low */
932   set_irp_phase_state(phase_low);
933
934   if (firm_dump.statistic & STAT_FINAL) {
935     stat_dump_snapshot(input_filename, "final");
936   }
937 }  /* do_firm_lowering */
938
939 /**
940  * Initialize for the Firm-generating back end.
941  */
942 void gen_firm_init(void)
943 {
944   firm_parameter_t params;
945   unsigned         pattern = 0;
946
947   /* the automatic state is only set if inlining is enabled */
948   firm_opt.auto_inline = firm_opt.do_inline;
949
950   if (firm_dump.stat_pattern)
951     pattern |= FIRMSTAT_PATTERN_ENABLED;
952
953   if (firm_dump.stat_dag)
954     pattern |= FIRMSTAT_COUNT_DAG;
955
956   memset(&params, 0, sizeof(params));
957   params.size                  = sizeof(params);
958   params.enable_statistics     = firm_dump.statistic == STAT_NONE ? 0 :
959     FIRMSTAT_ENABLED | FIRMSTAT_COUNT_STRONG_OP | FIRMSTAT_COUNT_CONSTS | pattern;
960   params.initialize_local_func = uninitialized_local_var;
961   params.cc_mask               = 0; /* no regparam, cdecl */
962   params.builtin_dbg           = NULL;
963
964   #ifdef FIRM_EXT_GRS
965   /* Activate Graph rewriting if SIMD optimization is turned on */
966   /* This has to be done before init_firm() is called! */
967   if (firm_ext_grs.simd_opt)
968     ext_grs_activate();
969 #endif
970
971   init_firm(&params);
972
973   if (firm_be_opt.selection == BE_FIRM_BE) {
974     const backend_params *be_params = be_get_backend_param();
975
976     firm_opt.lower_ll       = (a_byte) be_params->do_dw_lowering;
977     params.arch_op_settings = be_params->arch_op_settings;
978
979     arch_create_intrinsic   = be_params->arch_create_intrinsic_fkt;
980     create_intrinsic_ctx    = be_params->create_intrinsic_ctx;
981
982     ad_param                = be_params->dep_param;
983     if_conv_info            = be_params->if_conv_info;
984
985     if (be_params->has_imm_fp_mode)
986       firm_imm_fp_mode = be_params->imm_fp_mode;
987   }
988   /* OS option must be set to the backend */
989   switch (firm_opt.os_support) {
990   case OS_SUPPORT_MINGW:
991     firm_be_option("ia32-gasmode=mingw");
992     break;
993   case OS_SUPPORT_MACHO:
994     firm_be_option("ia32-gasmode=macho");
995     break;
996   case OS_SUPPORT_LINUX:
997   default:
998     firm_be_option("ia32-gasmode=linux");
999     break;
1000   }
1001
1002   dbg_init(NULL, NULL, dbg_snprint);
1003   edges_init_dbg(firm_opt.vrfy_edges);
1004   //cbackend_set_debug_retrieve(dbg_retrieve);
1005
1006   set_opt_precise_exc_context(firm_opt.precise_exc);
1007   set_opt_fragile_ops(firm_opt.fragile_ops);
1008
1009   /* Sel node cannot produce NULL pointers */
1010   set_opt_sel_based_null_check_elim(1);
1011
1012   /* dynamic dispatch works currently only if whole world scenarios */
1013   set_opt_dyn_meth_dispatch(0);
1014
1015   arch_dep_init(arch_factory);
1016
1017   /* do not run architecture dependent optimizations in building phase */
1018   arch_dep_set_opts(arch_dep_none);
1019
1020   do_node_verification((firm_verification_t) firm_opt.vrfy);
1021   if (firm_dump.filter)
1022     only_dump_method_with_name(new_id_from_str(firm_dump.filter));
1023
1024   if (firm_opt.enabled) {
1025     set_optimize(1);
1026     set_opt_constant_folding(firm_opt.const_folding);
1027     set_opt_algebraic_simplification(firm_opt.const_folding);
1028     set_opt_cse(firm_opt.cse);
1029     set_opt_global_cse(0);
1030     set_opt_unreachable_code(1);
1031     set_opt_control_flow(firm_opt.control_flow);
1032     set_opt_control_flow_weak_simplification(1);
1033     set_opt_control_flow_strong_simplification(1);
1034   } else {
1035     set_optimize(0);
1036   }
1037
1038   /* do not dump entity ld names */
1039   dump_ld_names(0);
1040 }  /* gen_firm_init */
1041
1042 /**
1043  * Called, after the Firm generation is completed,
1044  * do all optimizations and backend call here.
1045  *
1046  * @param out                a file handle for the output, may be NULL
1047  * @param input_filename     the name of the (main) source file
1048  * @param c_mode             non-zero if "C" was compiled
1049  * @param new_firm_const_exists  non-zero, if the const attribute was used on functions
1050  */
1051 void gen_firm_finish(FILE *out, const char *input_filename, int c_mode, int new_firm_const_exists)
1052 {
1053   int i;
1054
1055   firm_const_exists = new_firm_const_exists;
1056
1057   /* the general for dumping option must be set, or the others will not work */
1058   firm_dump.ir_graph
1059       = (a_byte) (firm_dump.ir_graph | firm_dump.all_phases | firm_dump.extbb);
1060
1061   dump_keepalive_edges(1);
1062   dump_consts_local(1);
1063   dump_dominator_information(1);
1064   dump_loop_information(0);
1065
1066   if (!firm_dump.edge_labels)
1067     turn_off_edge_labels();
1068
1069   if (firm_dump.all_types) {
1070     dump_all_types("");
1071     if (! c_mode) {
1072       dump_class_hierarchy(0, "");
1073       dump_class_hierarchy(1, "-with-entities");
1074     }
1075   }
1076
1077   /* finalize all graphs */
1078   for (i = get_irp_n_irgs() - 1; i >= 0; --i) {
1079     ir_graph *irg = get_irp_irg(i);
1080
1081     irg_finalize_cons(irg);
1082     DUMP_ONE(firm_dump.ir_graph, irg, "");
1083
1084     /* verify the graph */
1085     timer_push(TV_VERIFY);
1086       irg_verify(irg, VRFY_ENFORCE_SSA);
1087     timer_pop();
1088   }
1089
1090   timer_push(TV_VERIFY);
1091     tr_vrfy();
1092   timer_pop();
1093
1094   /* all graphs are finalized, set the irp phase to high */
1095   set_irp_phase_state(phase_high);
1096
1097   /* BEWARE: kill unreachable code before doing compound lowering */
1098   for (i = get_irp_n_irgs() - 1; i >= 0; --i) {
1099     ir_graph *irg = get_irp_irg(i);
1100     optimize_cf(irg);
1101   }
1102
1103   /* lower all compound call return values */
1104   lower_compound_params();
1105
1106   /* computes the sizes of all types that are still not computed */
1107   compute_type_sizes();
1108
1109   /* lower copyb nodes */
1110   for (i = get_irp_n_irgs() - 1; i >= 0; --i) {
1111     ir_graph *irg = get_irp_irg(i);
1112     lower_CopyB(irg, 128, 4);
1113   }
1114
1115   if (firm_dump.statistic & STAT_BEFORE_OPT) {
1116     stat_dump_snapshot(input_filename, "noopt");
1117   }
1118
1119   if (firm_opt.enabled)
1120     do_firm_optimizations(input_filename);
1121
1122   if (firm_dump.gen_firm_asm) {
1123     timer_push(TV_FIRM_ASM);
1124       gen_Firm_assembler(input_filename);
1125     timer_pop();
1126     return;
1127   }
1128
1129   if (firm_opt.lower)
1130     do_firm_lowering(input_filename);
1131
1132   /* computes the sizes of all frame types */
1133   compute_frame_type_sizes();
1134
1135   /* set the phase to low */
1136   for (i = get_irp_n_irgs() - 1; i >= 0; --i)
1137     set_irg_phase_low(get_irp_irg(i));
1138
1139
1140 #ifdef FIRM_EXT_GRS
1141   /** SIMD Optimization  Extensions **/
1142
1143   /* Pattern creation step. No code has to be generated, so
1144      exit after pattern creation */
1145   if (firm_ext_grs.create_pattern) {
1146     ext_grs_create_pattern();
1147     exit(0);
1148   }
1149
1150   /* SIMD optimization step. Uses graph patterns to find
1151      rich instructions and rewrite */
1152   if (firm_ext_grs.simd_opt)
1153     ext_grs_simd_opt();
1154 #endif
1155
1156   if (firm_dump.statistic & STAT_FINAL_IR)
1157     stat_dump_snapshot(input_filename, "final-ir");
1158
1159   /* run the code generator */
1160   if (firm_be_opt.selection != BE_NONE)
1161     do_codegen(out, input_filename);
1162
1163   if (firm_dump.statistic & STAT_FINAL)
1164     stat_dump_snapshot(input_filename, "final");
1165
1166 #if 0
1167   if (firm_opt.ycomp_dbg)
1168     firm_finish_ycomp_debugger();
1169 #endif
1170 }  /* gen_firm_finish */
1171
1172 /**
1173  * Do very early initializations
1174  */
1175 void firm_early_init(void) {
1176   /* arg: need this here for command line options */
1177   be_opt_register();
1178   firm_init_options(NULL, 0, NULL);
1179 }  /* firm_early_init */