synchronize with eccp
[cparser] / driver / firm_opt.c
1 /**
2  *
3  * @file firm_opt.c -- Firm-generating back end optimizations.
4  *
5  * (C) 2005-2007  Michael Beck   beck@ipd.info.uni-karlsruhe.de
6  *
7  * $Id$
8  */
9 #include <stdlib.h>
10 #include <string.h>
11 #include <libfirm/firm.h>
12 #include <libfirm/be.h>
13
14
15 #include "firm_opt.h"
16 #include "firm_codegen.h"
17 #include "firm_cmdline.h"
18 #include "firm_timing.h"
19
20 #ifdef _WIN32
21 #define snprintf _snprintf
22 #endif
23
24 #if defined(_DEBUG) || defined(FIRM_DEBUG)
25 #define DBG(x)  dbg_printf x
26 #else
27 #define DBG(x)
28 #endif /* _DEBUG || FIRM_DEBUG */
29
30
31 /** dump all the graphs depending on cond */
32 #define DUMP_ALL(cond, suffix)                             \
33   do {                                                     \
34     if (cond) {                                            \
35       timer_push(TV_VCG_DUMP);                             \
36       if (firm_dump.no_blocks)                             \
37         dump_all_ir_graphs(dump_ir_graph, suffix);         \
38       else if (firm_dump.extbb)                            \
39         dump_all_ir_graphs(dump_ir_extblock_graph, suffix);\
40       else                                                 \
41         dump_all_ir_graphs(dump_ir_block_graph, suffix);   \
42       timer_pop();                                         \
43     }                                                      \
44   } while (0)
45
46 /** dump all control flow graphs depending on cond */
47 #define DUMP_ALL_CFG(cond, suffix)                      \
48   do {                                                  \
49     if (cond) {                                         \
50       timer_push(TV_VCG_DUMP);                          \
51         dump_all_ir_graphs(dump_cfg, suffix);           \
52       timer_pop();                                      \
53     }                                                   \
54   } while (0)
55
56 /** check all graphs depending on cond */
57 #define CHECK_ALL(cond)                                 \
58   do {                                                  \
59     if (cond) {                                         \
60       int ii;                                           \
61       timer_push(TV_VERIFY);                            \
62       for (ii = get_irp_n_irgs() - 1; ii >= 0; --ii)    \
63         irg_verify(get_irp_irg(ii), VRFY_ENFORCE_SSA);  \
64       timer_pop();                                      \
65     }                                                   \
66   } while (0)
67
68
69
70 /** dump graphs irg depending on cond */
71 #define DUMP_ONE(cond, irg, suffix)                     \
72   do {                                                  \
73     if (cond) {                                         \
74       timer_push(TV_VCG_DUMP);                          \
75       if (firm_dump.no_blocks)                          \
76         dump_ir_graph(irg, suffix);                     \
77       else if (firm_dump.extbb)                         \
78         dump_ir_extblock_graph(irg, suffix);            \
79       else                                              \
80         dump_ir_block_graph(irg, suffix);               \
81       timer_pop();                                      \
82     }                                                   \
83   } while (0)
84
85 /** dump control flow graph irg depending on cond */
86 #define DUMP_ONE_CFG(cond, irg, suffix)                 \
87   do {                                                  \
88     if (cond) {                                         \
89       timer_push(TV_VCG_DUMP);                          \
90       dump_cfg(irg, suffix);                            \
91       timer_pop();                                      \
92     }                                                   \
93   } while (0)
94
95 /** check a graph irg depending on cond */
96 #define CHECK_ONE(cond, irg)                            \
97   do {                                                  \
98     if (cond) {                                         \
99       timer_push(TV_VERIFY);                            \
100         irg_verify(irg, VRFY_ENFORCE_SSA);              \
101       timer_pop();                                      \
102     }                                                   \
103   } while (0)
104
105
106 /* set by the backend parameters */
107 static const ir_settings_arch_dep_t *ad_param = NULL;
108 static create_intrinsic_fkt *arch_create_intrinsic = NULL;
109 static void *create_intrinsic_ctx = NULL;
110 static const ir_settings_if_conv_t *if_conv_info = NULL;
111
112 ir_mode *firm_imm_fp_mode = NULL;
113
114 /* entities of runtime functions */
115 ir_entity_ptr rts_entities[rts_max];
116
117 /**
118  * factory for setting architecture dependent parameters
119  */
120 static const ir_settings_arch_dep_t *arch_factory(void)
121 {
122   static const ir_settings_arch_dep_t param = {
123       1,   /* also use subs */
124       4,   /* maximum shifts */
125      31,   /* maximum shift amount */
126      NULL, /* use default evaluator */
127
128       1, /* allow Mulhs */
129       1, /* allow Mulus */
130      32  /* Mulh allowed up to 32 bit */
131   };
132
133   return ad_param ? ad_param : &param;
134 }
135
136 /**
137  * Map runtime functions.
138  */
139 static void rts_map(void) {
140   static const struct {
141     ir_entity_ptr *ent; /**< address of the rts entity */
142     i_mapper_func func; /**< mapper function. */
143   } mapper[] = {
144     /* integer */
145     { &rts_entities[rts_abs],     i_mapper_abs },
146         { &rts_entities[rts_alloca],  i_mapper_alloca },
147     { &rts_entities[rts_labs],    i_mapper_abs },
148     { &rts_entities[rts_llabs],   i_mapper_abs },
149     { &rts_entities[rts_imaxabs], i_mapper_abs },
150
151     /* double -> double */
152     { &rts_entities[rts_fabs],    i_mapper_abs },
153     { &rts_entities[rts_sqrt],    i_mapper_sqrt },
154     { &rts_entities[rts_cbrt],    i_mapper_cbrt },
155     { &rts_entities[rts_pow],     i_mapper_pow },
156     { &rts_entities[rts_exp],     i_mapper_exp },
157     { &rts_entities[rts_exp2],    i_mapper_exp },
158     { &rts_entities[rts_exp10],   i_mapper_exp },
159     { &rts_entities[rts_log],     i_mapper_log },
160     { &rts_entities[rts_log2],    i_mapper_log2 },
161     { &rts_entities[rts_log10],   i_mapper_log10 },
162     { &rts_entities[rts_sin],     i_mapper_sin },
163     { &rts_entities[rts_cos],     i_mapper_cos },
164     { &rts_entities[rts_tan],     i_mapper_tan },
165     { &rts_entities[rts_asin],    i_mapper_asin },
166     { &rts_entities[rts_acos],    i_mapper_acos },
167     { &rts_entities[rts_atan],    i_mapper_atan },
168     { &rts_entities[rts_sinh],    i_mapper_sinh },
169     { &rts_entities[rts_cosh],    i_mapper_cosh },
170     { &rts_entities[rts_tanh],    i_mapper_tanh },
171
172     /* float -> float */
173     { &rts_entities[rts_fabsf],   i_mapper_abs },
174     { &rts_entities[rts_sqrtf],   i_mapper_sqrt },
175     { &rts_entities[rts_cbrtf],   i_mapper_cbrt },
176     { &rts_entities[rts_powf],    i_mapper_pow },
177     { &rts_entities[rts_expf],    i_mapper_exp },
178     { &rts_entities[rts_exp2f],   i_mapper_exp },
179     { &rts_entities[rts_exp10f],  i_mapper_exp },
180     { &rts_entities[rts_logf],    i_mapper_log },
181     { &rts_entities[rts_log2f],   i_mapper_log2 },
182     { &rts_entities[rts_log10f],  i_mapper_log10 },
183     { &rts_entities[rts_sinf],    i_mapper_sin },
184     { &rts_entities[rts_cosf],    i_mapper_cos },
185     { &rts_entities[rts_tanf],    i_mapper_tan },
186     { &rts_entities[rts_asinf],   i_mapper_asin },
187     { &rts_entities[rts_acosf],   i_mapper_acos },
188     { &rts_entities[rts_atanf],   i_mapper_atan },
189     { &rts_entities[rts_sinhf],   i_mapper_sinh },
190     { &rts_entities[rts_coshf],   i_mapper_cosh },
191     { &rts_entities[rts_tanhf],   i_mapper_tanh },
192
193     /* long double -> long double */
194     { &rts_entities[rts_fabsl],   i_mapper_abs },
195     { &rts_entities[rts_sqrtl],   i_mapper_sqrt },
196     { &rts_entities[rts_cbrtl],   i_mapper_cbrt },
197     { &rts_entities[rts_powl],    i_mapper_pow },
198     { &rts_entities[rts_expl],    i_mapper_exp },
199     { &rts_entities[rts_exp2l],   i_mapper_exp },
200     { &rts_entities[rts_exp10l],  i_mapper_exp },
201     { &rts_entities[rts_logl],    i_mapper_log },
202     { &rts_entities[rts_log2l],   i_mapper_log2 },
203     { &rts_entities[rts_log10l],  i_mapper_log10 },
204     { &rts_entities[rts_sinl],    i_mapper_sin },
205     { &rts_entities[rts_cosl],    i_mapper_cos },
206     { &rts_entities[rts_tanl],    i_mapper_tan },
207     { &rts_entities[rts_asinl],   i_mapper_asin },
208     { &rts_entities[rts_acosl],   i_mapper_acos },
209     { &rts_entities[rts_atanl],   i_mapper_atan },
210     { &rts_entities[rts_sinhl],   i_mapper_sinh },
211     { &rts_entities[rts_coshl],   i_mapper_cosh },
212     { &rts_entities[rts_tanhl],   i_mapper_tanh },
213
214     /* string */
215     { &rts_entities[rts_memcpy],  i_mapper_memcpy },
216     { &rts_entities[rts_memset],  i_mapper_memset },
217     { &rts_entities[rts_strcmp],  i_mapper_strcmp },
218     { &rts_entities[rts_strncmp], i_mapper_strncmp },
219     { &rts_entities[rts_strlen],  i_mapper_strlen }
220   };
221   i_record rec[sizeof(mapper)/sizeof(mapper[0])];
222   unsigned i, n_map;
223
224   for (i = n_map = 0; i < sizeof(mapper)/sizeof(mapper[0]); ++i) {
225     if (*mapper[i].ent != NULL) {
226       rec[n_map].i_call.kind     = INTRINSIC_CALL;
227       rec[n_map].i_call.i_ent    = *mapper[i].ent;
228       rec[n_map].i_call.i_mapper = mapper[i].func;
229       rec[n_map].i_call.ctx      = NULL;
230       rec[n_map].i_call.link     = NULL;
231       ++n_map;
232     }  /* if */
233   }
234   if (n_map > 0)
235     lower_intrinsics(rec, n_map, /* part_block_used=*/0);
236 }  /* rts_map */
237
238 static int *irg_dump_no;
239
240 static void dump_graph_count(ir_graph *const irg, const char *const suffix)
241 {
242   char name[64];
243   snprintf(name, sizeof(name), "-%02d_%s", irg_dump_no[get_irg_idx(irg)]++, suffix);
244   DUMP_ONE(1, irg, name);
245 }
246
247 static void dump_graph_cfg_count(ir_graph *const irg, const char *const suffix)
248 {
249   char name[64];
250   snprintf(name, sizeof(name), "-%02d_%s", irg_dump_no[get_irg_idx(irg)]++, suffix);
251   DUMP_ONE_CFG(1, irg, name);
252 }
253
254 static void dump_all_count(const char *const suffix)
255 {
256   const int n_irgs = get_irp_n_irgs();
257   int i;
258
259   for (i = 0; i < n_irgs; ++i)
260     dump_graph_count(get_irp_irg(i), suffix);
261 }
262
263 #define DUMP_ONE_C(cond, irg, suffix)    \
264   do {                                   \
265     if (cond) {                          \
266       dump_graph_count((irg), (suffix)); \
267     }                                    \
268   } while (0)
269
270 #define DUMP_ONE_CFG_C(cond, irg, suffix)    \
271   do {                                       \
272     if (cond) {                              \
273       dump_graph_cfg_count((irg), (suffix)); \
274     }                                        \
275   } while (0)
276
277 #define DUMP_ALL_C(cond, suffix) \
278   do {                           \
279     if (cond) {                  \
280       dump_all_count((suffix));  \
281     }                            \
282   } while (0)
283
284 /**
285  * run all the Firm optimizations
286  *
287  * @param input_filename     the name of the (main) source file
288  * @param firm_const_exists  non-zero, if the const attribute was used on functions
289  */
290 static void do_firm_optimizations(const char *input_filename, int firm_const_exists)
291 {
292   int      i;
293   ir_graph *irg;
294   unsigned aa_opt;
295
296   /* FIXME: cloning might ADD new graphs. */
297   irg_dump_no = calloc(get_irp_last_idx(), sizeof(*irg_dump_no));
298
299   set_opt_strength_red(firm_opt.strength_red);
300   set_opt_scalar_replacement(firm_opt.scalar_replace);
301   set_opt_auto_create_sync(firm_opt.auto_sync);
302   set_opt_alias_analysis(firm_opt.alias_analysis);
303
304   aa_opt = aa_opt_no_opt;
305   if (firm_opt.strict_alias)
306     aa_opt |= aa_opt_type_based | aa_opt_byte_type_may_alias;
307   if (firm_opt.no_alias)
308     aa_opt = aa_opt_no_alias;
309
310   set_irp_memory_disambiguator_options(aa_opt);
311
312   timer_start(TV_ALL_OPT);
313
314   if (firm_opt.remove_unused) {
315         ir_entity **keep_methods;
316         int         arr_len;
317
318     /* Analysis that finds the free methods,
319        i.e. methods that are dereferenced.
320        Optimizes polymorphic calls :-). */
321     cgana(&arr_len, &keep_methods);
322
323     /* Remove methods that are never called. */
324     gc_irgs(arr_len, keep_methods);
325
326     free(keep_methods);
327   }
328
329   if (! firm_opt.freestanding) {
330     rts_map();
331     DUMP_ALL_C(firm_dump.ir_graph && firm_dump.all_phases, "rts");
332     CHECK_ALL(firm_opt.check_all);
333   }
334
335   /* first step: kill dead code */
336   for (i = 0; i < get_irp_n_irgs(); i++) {
337     irg = current_ir_graph = get_irp_irg(i);
338     /* Confirm construction currently can only handle blocks with only one control
339        flow predecessor. Calling optimize_cf here removes Bad predecessors and help
340        the optimization of switch constructs. */
341     timer_push(TV_CF_OPT);
342       optimize_graph_df(irg);
343       optimize_cf(irg);
344     timer_pop();
345   }
346
347   if (firm_opt.func_calls) {
348     timer_push(TV_REAL_FUNC_CALL);
349       optimize_funccalls(firm_const_exists, NULL);
350     timer_pop();
351     DUMP_ALL_C(firm_dump.ir_graph && firm_dump.all_phases, "func_call");
352     CHECK_ALL(firm_opt.check_all);
353   }
354
355   /* do lowering on the const code irg */
356   lower_const_code();
357
358   for (i = 0; i < get_irp_n_irgs(); i++) {
359     irg = current_ir_graph = get_irp_irg(i);
360
361 #ifdef FIRM_EXT_GRS
362   /* If SIMD optimization is on, make sure we have only 1 return */
363   if (firm_ext_grs.create_pattern || firm_ext_grs.simd_opt)
364     normalize_one_return(irg);
365 #endif
366
367
368 #if 0
369     if (firm_opt.modes) {
370       /* convert all modes into integer if possible */
371       arch_mode_conversion(irg, predefs.mode_uint);
372     }
373 #endif
374     timer_push(TV_SCALAR_REPLACE);
375       scalar_replacement_opt(irg);
376     timer_pop();
377     DUMP_ONE_C(firm_dump.ir_graph && firm_dump.all_phases, irg, "scalar");
378     CHECK_ONE(firm_opt.check_all, irg);
379
380     timer_push(TV_LOCAL_OPT);
381       optimize_graph_df(irg);
382     timer_pop();
383     DUMP_ONE_C(firm_dump.ir_graph && firm_dump.all_phases, irg, "lopt");
384     CHECK_ONE(firm_opt.check_all, irg);
385
386     timer_push(TV_REASSOCIATION);
387       optimize_reassociation(irg);
388     timer_pop();
389     DUMP_ONE_C(firm_dump.ir_graph && firm_dump.all_phases, irg, "reassoc");
390     CHECK_ONE(firm_opt.check_all, irg);
391
392     compute_doms(irg);
393     CHECK_ONE(firm_opt.check_all, irg);
394
395     if (firm_opt.code_place) {
396       timer_push(TV_CODE_PLACE);
397         set_opt_global_cse(1);
398         optimize_graph_df(irg);
399         place_code(irg);
400         set_opt_global_cse(0);
401       timer_pop();
402       DUMP_ONE_C(firm_dump.ir_graph && firm_dump.all_phases, irg, "place");
403       CHECK_ONE(firm_opt.check_all, irg);
404     }
405
406     if (firm_opt.confirm) {
407       /* Confirm construction currently can only handle blocks with only one control
408          flow predecessor. Calling optimize_cf here removes Bad predecessors and help
409          the optimization of switch constructs. */
410       timer_push(TV_CF_OPT);
411       optimize_cf(irg);
412       timer_pop();
413       DUMP_ONE_C(firm_dump.ir_graph && firm_dump.all_phases, irg, "cfopt");
414       CHECK_ONE(firm_opt.check_all, irg);
415       timer_push(TV_CONFIRM_CREATE);
416         construct_confirms(irg);
417       timer_pop();
418       DUMP_ONE_C(firm_dump.ir_graph && firm_dump.all_phases, irg, "confirms");
419       CHECK_ONE(firm_opt.check_all, irg);
420
421       timer_push(TV_LOCAL_OPT);
422         optimize_graph_df(irg);
423       timer_pop();
424       DUMP_ONE_C(firm_dump.ir_graph && firm_dump.all_phases, irg, "lopt");
425       CHECK_ONE(firm_opt.check_all, irg);
426     }
427
428     if (firm_opt.luffig) {
429       opt_ldst2(irg);
430       DUMP_ONE_C(firm_dump.ir_graph && firm_dump.all_phases, irg, "ldst2");
431       CHECK_ONE(firm_opt.check_all, irg);
432     }
433
434     timer_push(TV_CF_OPT);
435       optimize_cf(irg);
436     timer_pop();
437     DUMP_ONE_C(firm_dump.ir_graph && firm_dump.all_phases, irg, "cfopt");
438     CHECK_ONE(firm_opt.check_all, irg);
439
440     irg_verify(irg, VRFY_ENFORCE_SSA);
441     if (firm_opt.gvn_pre) {
442       do_gvn_pre(irg);
443       DUMP_ONE_C(firm_dump.ir_graph && firm_dump.all_phases, irg, "pre");
444       CHECK_ONE(firm_opt.check_all, irg);
445       irg_verify(irg, VRFY_ENFORCE_SSA);
446     }
447
448     if (firm_opt.load_store) {
449       timer_push(TV_LOAD_STORE);
450         optimize_load_store(irg);
451       timer_pop();
452       DUMP_ONE_C(firm_dump.ir_graph && firm_dump.all_phases, irg, "ldst");
453       CHECK_ONE(firm_opt.check_all, irg);
454     }
455
456     lower_highlevel_graph(irg, firm_opt.lower_bitfields);
457
458     if (firm_opt.deconv) {
459       timer_push(TV_DECONV);
460         conv_opt(irg);
461       timer_pop();
462       DUMP_ONE_C(firm_dump.ir_graph && firm_dump.all_phases, irg, "deconv");
463       CHECK_ONE(firm_opt.check_all, irg);
464     }
465
466     if (firm_opt.cond_eval) {
467       timer_push(TV_COND_EVAL);
468         opt_cond_eval(irg);
469       timer_pop();
470       DUMP_ONE_C(firm_dump.ir_graph && firm_dump.all_phases, irg, "cond_eval");
471       CHECK_ONE(firm_opt.check_all, irg);
472     }
473
474     /* should we really remove the Confirm here? */
475     if (firm_opt.confirm) {
476       timer_push(TV_CONFIRM_CREATE);
477       remove_confirms(irg);
478       timer_pop();
479     }
480
481     compute_doms(irg);
482     compute_postdoms(irg);
483     DUMP_ONE_CFG_C(firm_dump.ir_graph && firm_dump.all_phases, irg, "dom");
484     CHECK_ONE(firm_opt.check_all, irg);
485
486     construct_backedges(irg);
487
488     timer_push(TV_CF_OPT);
489       optimize_cf(irg);
490     timer_pop();
491     DUMP_ONE_C(firm_dump.ir_graph && firm_dump.all_phases, irg, "cfopt");
492     CHECK_ONE(firm_opt.check_all, irg);
493
494     if (firm_opt.if_conversion) {
495       timer_push(TV_IF_CONV);
496         opt_if_conv(current_ir_graph, if_conv_info);
497       timer_pop();
498       DUMP_ONE_C(firm_dump.ir_graph && firm_dump.all_phases, irg, "if");
499       CHECK_ONE(firm_opt.check_all, current_ir_graph);
500
501       timer_push(TV_LOCAL_OPT);
502         optimize_graph_df(current_ir_graph);
503       timer_pop();
504       timer_push(TV_CF_OPT);
505         optimize_cf(current_ir_graph);
506       timer_pop();
507       DUMP_ONE_C(firm_dump.ir_graph && firm_dump.all_phases, irg, "after_if");
508       CHECK_ONE(firm_opt.check_all, current_ir_graph);
509     }
510
511     if (firm_opt.bool_opt) {
512       opt_bool(irg);
513       DUMP_ONE_C(firm_dump.ir_graph && firm_dump.all_phases, irg, "bool");
514       CHECK_ONE(firm_opt.check_all, irg);
515     }
516
517     timer_push(TV_OSR);
518       opt_osr(current_ir_graph, osr_flag_default | osr_flag_keep_reg_pressure | osr_flag_ignore_x86_shift);
519     timer_pop();
520     DUMP_ONE_C(firm_dump.ir_graph && firm_dump.all_phases, irg, "stred");
521     CHECK_ONE(firm_opt.check_all, irg);
522
523     timer_push(TV_LOCAL_OPT);
524       optimize_graph_df(irg);
525     timer_pop();
526     DUMP_ONE_C(firm_dump.ir_graph && firm_dump.all_phases, irg, "lopt");
527     CHECK_ONE(firm_opt.check_all, irg);
528
529     edges_deactivate(irg);
530     timer_push(TV_DEAD_NODE);
531       dead_node_elimination(irg);
532     timer_pop();
533     DUMP_ONE_C(firm_dump.ir_graph && firm_dump.all_phases, irg, "dead");
534     CHECK_ONE(firm_opt.check_all, irg);
535   }
536
537   if (firm_opt.do_inline) {
538     inline_functions(500, 50);
539     DUMP_ALL_C(firm_dump.ir_graph && firm_dump.all_phases, "inl");
540     CHECK_ALL(firm_opt.check_all);
541   }
542   if (firm_opt.cloning) {
543     proc_cloning((float)firm_opt.clone_threshold);
544     DUMP_ALL_C(firm_dump.ir_graph && firm_dump.all_phases, "clone");
545     CHECK_ALL(firm_opt.check_all);
546   }
547   if (firm_opt.tail_rec) {
548     timer_push(TV_TAIL_REC);
549       opt_tail_recursion();
550     timer_pop();
551
552     DUMP_ALL_C(firm_dump.ir_graph && firm_dump.all_phases, "tail_rec");
553     CHECK_ALL(firm_opt.check_all);
554   }
555
556   if (firm_opt.cond_eval) {
557     for (i = 0; i < get_irp_n_irgs(); i++) {
558       irg = get_irp_irg(i);
559       timer_push(TV_COND_EVAL);
560         opt_cond_eval(irg);
561       timer_pop();
562       DUMP_ONE_C(firm_dump.ir_graph && firm_dump.all_phases, irg, "cond_eval");
563       CHECK_ONE(firm_opt.check_all, irg);
564
565       timer_push(TV_CF_OPT);
566         optimize_cf(irg);
567       timer_pop();
568       DUMP_ONE_C(firm_dump.ir_graph && firm_dump.all_phases, irg, "cfopt");
569       CHECK_ONE(firm_opt.check_all, irg);
570     }
571   }
572
573   if (firm_dump.ir_graph) {
574     /* recompute backedges for nicer dumps */
575     for (i = 0; i < get_irp_n_irgs(); i++)
576       construct_cf_backedges(get_irp_irg(i));
577   }
578
579   if (firm_opt.remove_unused) {
580     ir_entity **keep_methods;
581     int arr_len;
582
583     /* Analysis that finds the free methods,
584        i.e. methods that are dereferenced.
585        Optimizes polymorphic calls :-). */
586     cgana(&arr_len, &keep_methods);
587
588     /* Remove methods that are never called. */
589     gc_irgs(arr_len, keep_methods);
590
591     free(keep_methods);
592   }
593
594
595   DUMP_ALL(firm_dump.ir_graph, "-opt");
596
597   /* verify optimized graphs */
598   for (i = get_irp_n_irgs() - 1; i >= 0; --i) {
599     ir_graph *irg = get_irp_irg(i);
600     irg_verify(irg, VRFY_ENFORCE_SSA);
601   }
602
603   if (firm_dump.statistic & STAT_AFTER_OPT)
604     stat_dump_snapshot(input_filename, "opt");
605
606   timer_stop(TV_ALL_OPT);
607 }  /* do_firm_optimizations */
608
609 /**
610  * compute the size of a type (do implicit lowering)
611  *
612  * @param ty   a Firm type
613  */
614 static int compute_type_size(ir_type *ty)
615 {
616   optimization_state_t state;
617   unsigned             align_all = 1;
618   int                  n, size = 0, set = 0;
619   int                  i, dims, s;
620
621   if (get_type_state(ty) == layout_fixed) {
622     /* do not layout already layouted types again */
623     return 1;
624   }
625
626   if (is_Method_type(ty) || ty == get_glob_type()) {
627     /* no need for size calculation for method types or the global type */
628     return 1;
629   }
630
631   DBG(("compute type size visiting: %s\n", get_type_name(ty)));
632
633   switch (get_type_tpop_code(ty)) {
634   case tpo_class:
635   case tpo_struct:
636     for (i = 0, n = get_compound_n_members(ty); i < n; ++i) {
637       ir_entity *ent  = get_compound_member(ty, i);
638       ir_type *ent_ty = get_entity_type(ent);
639       unsigned align, misalign;
640
641       /* compute member types */
642       if (! compute_type_size(ent_ty))
643         return 0;
644
645       align     = get_type_alignment_bytes(ent_ty);
646       align_all = align > align_all ? align : align_all;
647       misalign  = (align ? size % align : 0);
648       size     += (misalign ? align - misalign : 0);
649
650       set_entity_offset(ent, size);
651       size += get_type_size_bytes(ent_ty);
652
653       DBG(("  member %s %s -> (size: %u, align: %u)\n",
654             get_type_name(ent_ty), get_entity_name(ent),
655             get_type_size_bytes(ent_ty), get_type_alignment_bytes(ent_ty)));
656     }
657     if (align_all > 0 && size % align_all) {
658        DBG(("align of the struct member: %u, type size: %d\n", align_all, size));
659        size += align_all - (size % align_all);
660        DBG(("correcting type-size to %d\n", size));
661     }
662     set_type_alignment_bytes(ty, align_all);
663     set = 1;
664     break;
665
666   case tpo_union:
667     for (i = 0, n = get_union_n_members(ty); i < n; ++i) {
668       ir_entity *ent = get_union_member(ty, i);
669
670       if (! compute_type_size(get_entity_type(ent)))
671         return 0;
672       s = get_type_size_bytes(get_entity_type(ent));
673
674       set_entity_offset(ent, 0);
675       size = (s > size ? s : size);
676     }
677     set = 1;
678     break;
679
680   case tpo_array:
681     dims = get_array_n_dimensions(ty);
682
683     if (! compute_type_size(get_array_element_type(ty)))
684       return 0;
685
686     size = 1;
687
688     save_optimization_state(&state);
689     set_optimize(1);
690     set_opt_constant_folding(1);
691
692     for (i = 0; i < dims; ++i) {
693       ir_node *lower   = get_array_lower_bound(ty, i);
694       ir_node *upper   = get_array_upper_bound(ty, i);
695       ir_graph *rem    = current_ir_graph;
696       tarval  *tv_lower, *tv_upper;
697       long     val_lower, val_upper;
698
699       current_ir_graph = get_const_code_irg();
700       local_optimize_node(lower);
701       local_optimize_node(upper);
702       current_ir_graph = rem;
703
704       tv_lower = computed_value(lower);
705       tv_upper = computed_value(upper);
706
707       if (tv_lower == tarval_bad || tv_upper == tarval_bad) {
708         /*
709          * we cannot calculate the size of this array yet, it
710          * even might be unknown until the end, like argv[]
711          */
712         restore_optimization_state(&state);
713         return 0;
714       }
715
716       val_upper = get_tarval_long(tv_upper);
717       val_lower = get_tarval_long(tv_lower);
718       size     *= val_upper - val_lower;
719     }
720     restore_optimization_state(&state);
721
722     DBG(("array %s -> (elements: %d, element type size: %d)\n",
723           get_type_name(ty),
724           size, get_type_size_bytes(get_array_element_type(ty))));
725     size *= get_type_size_bytes(get_array_element_type(ty));
726     set = 1;
727     break;
728
729   default:
730     break;
731   }
732
733   if (set) {
734     set_type_size_bytes(ty, size);
735     set_type_state(ty, layout_fixed);
736   }
737
738   DBG(("size: %d\n", get_type_size_bytes(ty)));
739
740   return set;
741 }  /* compute_type_size */
742
743 /**
744  * layout all non-frame types of the Firm graph
745  */
746 static void compute_type_sizes(void)
747 {
748   int i;
749   ir_type *tp;
750
751   /* all non-frame other types */
752   for (i = get_irp_n_types() - 1; i >= 0; --i) {
753     tp = get_irp_type(i);
754     compute_type_size(tp);
755
756     if (is_Method_type(tp)) {
757       tp = get_method_value_res_type(tp);
758
759       if (tp) {
760         /* we have a value result type for this method, lower */
761         compute_type_size(tp);
762       }
763     }
764   }
765 }  /* compute_type_sizes */
766
767 /**
768  * layout all frame-types of the Firm graph
769  */
770 static void compute_frame_type_sizes(void)
771 {
772   int i;
773   ir_graph *irg;
774
775   /* all frame types */
776   for (i = get_irp_n_irgs() - 1; i >= 0; --i) {
777     irg = get_irp_irg(i);
778     /* do not optimize away variables in debug mode */
779     if (firm_opt.debug_mode == DBG_MODE_NONE)
780       opt_frame_irg(irg);
781     compute_type_size(get_irg_frame_type(irg));
782   }
783 }  /* compute_frame_type_sizes */
784
785 /**
786  * do Firm lowering
787  *
788  * @param input_filename  the name of the (main) source file
789  */
790 static void do_firm_lowering(const char *input_filename)
791 {
792   int i;
793
794   /* do class lowering and vtbl creation */
795 //  lower_classes_to_struct("vtbl", "m");
796
797 #if 0
798   timer_push(TV_LOWER);
799   lower_highlevel();
800   timer_pop();
801 #endif
802
803   if (firm_opt.lower_ll) {
804     lwrdw_param_t init = {
805       1,
806       1,
807       mode_Ls, mode_Lu,
808       mode_Is, mode_Iu,
809       def_create_intrinsic_fkt,
810       NULL
811     };
812
813
814     if (arch_create_intrinsic) {
815       init.create_intrinsic = arch_create_intrinsic;
816       init.ctx              = create_intrinsic_ctx;
817     }
818     timer_push(TV_DW_LOWER);
819       lower_dw_ops(&init);
820     timer_pop();
821   }
822
823   if (firm_dump.statistic & STAT_AFTER_LOWER)
824     stat_dump_snapshot(input_filename, "low");
825
826   /* verify lowered graphs */
827   timer_push(TV_VERIFY);
828   for (i = get_irp_n_irgs() - 1; i >= 0; --i)
829     irg_verify(get_irp_irg(i), VRFY_ENFORCE_SSA);
830   timer_pop();
831
832   DUMP_ALL(firm_dump.ir_graph, "-low");
833
834   if (firm_opt.enabled) {
835     timer_start(TV_ALL_OPT);
836
837     /* run reassociation first on all graphs BEFORE the architecture dependent optimizations
838        are enabled */
839     for (i = get_irp_n_irgs() - 1; i >= 0; --i) {
840       current_ir_graph = get_irp_irg(i);
841
842       timer_push(TV_REASSOCIATION);
843         optimize_reassociation(current_ir_graph);
844       timer_pop();
845       DUMP_ONE_C(firm_dump.ir_graph && firm_dump.all_phases, current_ir_graph, "reassoc");
846       CHECK_ONE(firm_opt.check_all, current_ir_graph);
847     }
848
849     /* enable architecture dependent optimizations */
850     arch_dep_set_opts((arch_dep_opts_t)
851                       ((firm_opt.muls ? arch_dep_mul_to_shift : arch_dep_none) |
852                       (firm_opt.divs ? arch_dep_div_by_const : arch_dep_none) |
853                       (firm_opt.mods ? arch_dep_mod_by_const : arch_dep_none) ));
854
855     for (i = get_irp_n_irgs() - 1; i >= 0; --i) {
856       current_ir_graph = get_irp_irg(i);
857
858       if (firm_opt.code_place)
859         set_opt_global_cse(1);
860
861       timer_push(TV_LOCAL_OPT);
862         optimize_graph_df(current_ir_graph);
863       timer_pop();
864       DUMP_ONE_C(firm_dump.ir_graph && firm_dump.all_phases, current_ir_graph, "lopt");
865       if (! firm_opt.code_place)
866         CHECK_ONE(firm_opt.check_all, current_ir_graph);
867
868       if (firm_opt.code_place) {
869         timer_push(TV_CODE_PLACE);
870           place_code(current_ir_graph);
871           set_opt_global_cse(0);
872         timer_pop();
873         DUMP_ONE_C(firm_dump.ir_graph && firm_dump.all_phases, current_ir_graph, "place");
874         CHECK_ONE(firm_opt.check_all, current_ir_graph);
875       }
876
877       timer_push(TV_LOAD_STORE);
878         optimize_load_store(current_ir_graph);
879       timer_pop();
880       DUMP_ONE_C(firm_dump.ir_graph && firm_dump.all_phases, current_ir_graph, "ldst");
881       CHECK_ONE(firm_opt.check_all, current_ir_graph);
882
883
884       timer_push(TV_LOCAL_OPT);
885         optimize_graph_df(current_ir_graph);
886       timer_pop();
887       DUMP_ONE_C(firm_dump.ir_graph && firm_dump.all_phases, current_ir_graph, "lopt");
888
889       timer_push(TV_CF_OPT);
890         optimize_cf(current_ir_graph);
891       timer_pop();
892       DUMP_ONE_C(firm_dump.ir_graph && firm_dump.all_phases, current_ir_graph, "cf");
893       CHECK_ONE(firm_opt.check_all, current_ir_graph);
894
895       if (firm_opt.if_conversion) {
896         timer_push(TV_IF_CONV);
897           opt_if_conv(current_ir_graph, if_conv_info);
898         timer_pop();
899         DUMP_ONE_C(firm_dump.ir_graph && firm_dump.all_phases, current_ir_graph, "if");
900         CHECK_ONE(firm_opt.check_all, current_ir_graph);
901
902         timer_push(TV_LOCAL_OPT);
903           optimize_graph_df(current_ir_graph);
904         timer_pop();
905         timer_push(TV_CF_OPT);
906           optimize_cf(current_ir_graph);
907         timer_pop();
908         DUMP_ONE_C(firm_dump.ir_graph && firm_dump.all_phases, current_ir_graph, "after_if");
909         CHECK_ONE(firm_opt.check_all, current_ir_graph);
910       }
911     }
912     timer_stop(TV_ALL_OPT);
913
914     DUMP_ALL(firm_dump.ir_graph, "-low-opt");
915   }
916
917   if (firm_opt.cc_opt)
918     mark_private_methods();
919
920   /* set the phase to low */
921   for (i = get_irp_n_irgs() - 1; i >= 0; --i)
922     set_irg_phase_low(get_irp_irg(i));
923
924   /* all graphs are lowered, set the irp phase to low */
925   set_irp_phase_state(phase_low);
926
927   if (firm_dump.statistic & STAT_FINAL) {
928     stat_dump_snapshot(input_filename, "final");
929   }
930 }  /* do_firm_lowering */
931
932 /**
933  * Initialize for the Firm-generating back end.
934  */
935 void gen_firm_init(void)
936 {
937   firm_parameter_t params;
938   char             *dump_filter;
939   unsigned         pattern = 0;
940
941   /* the automatic state is only set if inlining is enabled */
942   firm_opt.auto_inline = firm_opt.do_inline;
943
944   if (firm_dump.stat_pattern)
945     pattern |= FIRMSTAT_PATTERN_ENABLED;
946
947   if (firm_dump.stat_dag)
948     pattern |= FIRMSTAT_COUNT_DAG;
949
950   memset(&params, 0, sizeof(params));
951   params.size                  = sizeof(params);
952   params.enable_statistics     = firm_dump.statistic == STAT_NONE ? 0 :
953     FIRMSTAT_ENABLED | FIRMSTAT_COUNT_STRONG_OP | FIRMSTAT_COUNT_CONSTS | pattern;
954   params.initialize_local_func = uninitialized_local_var;
955   params.cc_mask               = 0; /* no regparam, cdecl */
956   params.builtin_dbg           = NULL;
957
958   #ifdef FIRM_EXT_GRS
959   /* Activate Graph rewriting if SIMD optimization is turned on */
960   /* This has to be done before init_firm() is called! */
961   if (firm_ext_grs.simd_opt)
962     ext_grs_activate();
963 #endif
964
965   init_firm(&params);
966
967   if (firm_be_opt.selection == BE_FIRM_BE) {
968     const backend_params *be_params = be_get_backend_param();
969
970     firm_opt.lower_ll       = (a_byte) be_params->do_dw_lowering;
971     params.arch_op_settings = be_params->arch_op_settings;
972
973     arch_create_intrinsic   = be_params->arch_create_intrinsic_fkt;
974     create_intrinsic_ctx    = be_params->create_intrinsic_ctx;
975
976     ad_param                = be_params->dep_param;
977     if_conv_info            = be_params->if_conv_info;
978
979     if (be_params->has_imm_fp_mode)
980       firm_imm_fp_mode = be_params->imm_fp_mode;
981   }
982
983   dbg_init(NULL, NULL, dbg_snprint);
984   edges_init_dbg(firm_opt.vrfy_edges);
985   //cbackend_set_debug_retrieve(dbg_retrieve);
986
987   set_opt_precise_exc_context(firm_opt.precise_exc);
988   set_opt_fragile_ops(firm_opt.fragile_ops);
989
990   /* Sel node cannot produce NULL pointers */
991   set_opt_sel_based_null_check_elim(1);
992
993   /* dynamic dispatch works currently only if whole world scenarios */
994   set_opt_dyn_meth_dispatch(0);
995
996   arch_dep_init(arch_factory);
997
998   /* do not run architecture dependent optimizations in building phase */
999   arch_dep_set_opts(arch_dep_none);
1000
1001   do_node_verification((firm_verification_t) firm_opt.vrfy);
1002   if (firm_dump.filter)
1003     only_dump_method_with_name(new_id_from_str(firm_dump.filter));
1004
1005   if (firm_opt.enabled) {
1006     set_optimize(1);
1007     set_opt_constant_folding(firm_opt.const_folding);
1008     set_opt_cse(firm_opt.cse);
1009     set_opt_global_cse (0);
1010     set_opt_unreachable_code(1);
1011     set_opt_control_flow(firm_opt.control_flow);
1012     set_opt_control_flow_weak_simplification(1);
1013     set_opt_control_flow_strong_simplification(1);
1014   }
1015   else
1016     set_optimize(0);
1017
1018   dump_filter = getenv("FIRM_DUMP_FILTER");
1019   if (dump_filter)
1020     only_dump_method_with_name(new_id_from_str(dump_filter));
1021
1022   /* do not dump entity ld names */
1023   dump_ld_names(0);
1024
1025 #if 0
1026   /* init the ycomp debugger extension */
1027   if (firm_opt.ycomp_dbg)
1028     firm_init_ycomp_debugger(firm_opt.ycomp_host, firm_opt.ycomp_port);
1029 #endif
1030 }  /* gen_firm_init */
1031
1032 /**
1033  * Called, after the Firm generation is completed,
1034  * do all optimizations and backend call here.
1035  *
1036  * @param out                a file handle for the output, may be NULL
1037  * @param input_filename     the name of the (main) source file
1038  * @param c_mode             non-zero if "C" was compiled
1039  * @param firm_const_exists  non-zero, if the const attribute was used on functions
1040  */
1041 void gen_firm_finish(FILE *out, const char *input_filename, int c_mode, int firm_const_exists)
1042 {
1043   int i;
1044
1045   /* the general for dumping option must be set, or the others will not work */
1046   firm_dump.ir_graph
1047       = (a_byte) (firm_dump.ir_graph | firm_dump.all_phases | firm_dump.extbb);
1048
1049   dump_keepalive_edges(1);
1050   dump_consts_local(1);
1051   dump_dominator_information(1);
1052   dump_loop_information(0);
1053
1054   if (!firm_dump.edge_labels)
1055     turn_off_edge_labels();
1056
1057   if (firm_dump.all_types) {
1058     dump_all_types("");
1059     if (! c_mode) {
1060       dump_class_hierarchy(0, "");
1061       dump_class_hierarchy(1, "-with-entities");
1062     }
1063   }
1064
1065   /* finalize all graphs */
1066   for (i = get_irp_n_irgs() - 1; i >= 0; --i) {
1067     ir_graph *irg = get_irp_irg(i);
1068
1069     irg_finalize_cons(irg);
1070     DUMP_ONE(firm_dump.ir_graph, irg, "");
1071
1072     /* verify the graph */
1073     timer_push(TV_VERIFY);
1074       irg_verify(irg, VRFY_ENFORCE_SSA);
1075     timer_pop();
1076   }
1077
1078   timer_push(TV_VERIFY);
1079     tr_vrfy();
1080   timer_pop();
1081
1082   /* all graphs are finalized, set the irp phase to high */
1083   set_irp_phase_state(phase_high);
1084
1085   /* BEWARE: kill unreachable code before doing compound lowering */
1086   for (i = get_irp_n_irgs() - 1; i >= 0; --i) {
1087     ir_graph *irg = get_irp_irg(i);
1088     optimize_cf(irg);
1089   }
1090
1091   /* lower all compound call return values */
1092   lower_compound_params();
1093
1094   /* computes the sizes of all types that are still not computed */
1095   compute_type_sizes();
1096
1097   /* lower copyb nodes */
1098   for (i = get_irp_n_irgs() - 1; i >= 0; --i) {
1099     ir_graph *irg = get_irp_irg(i);
1100     lower_CopyB(irg, 128, 4);
1101   }
1102
1103   if (firm_dump.statistic & STAT_BEFORE_OPT) {
1104     stat_dump_snapshot(input_filename, "noopt");
1105   }
1106
1107   if (firm_opt.enabled)
1108     do_firm_optimizations(input_filename, firm_const_exists);
1109
1110   if (firm_dump.gen_firm_asm) {
1111     timer_push(TV_FIRM_ASM);
1112       gen_Firm_assembler(input_filename);
1113     timer_pop();
1114     return;
1115   }
1116
1117   if (firm_opt.lower)
1118     do_firm_lowering(input_filename);
1119
1120   /* computes the sizes of all frame types */
1121   compute_frame_type_sizes();
1122
1123   /* set the phase to low */
1124   for (i = get_irp_n_irgs() - 1; i >= 0; --i)
1125     set_irg_phase_low(get_irp_irg(i));
1126
1127
1128 #ifdef FIRM_EXT_GRS
1129   /** SIMD Optimization  Extensions **/
1130
1131   /* Pattern creation step. No code has to be generated, so
1132      exit after pattern creation */
1133   if (firm_ext_grs.create_pattern) {
1134     ext_grs_create_pattern();
1135     exit(0);
1136   }
1137
1138   /* SIMD optimization step. Uses graph patterns to find
1139      rich instructions and rewrite */
1140   if (firm_ext_grs.simd_opt)
1141     ext_grs_simd_opt();
1142 #endif
1143
1144   if (firm_dump.statistic & STAT_FINAL_IR)
1145     stat_dump_snapshot(input_filename, "final-ir");
1146
1147   /* run the code generator */
1148   if (firm_be_opt.selection != BE_NONE)
1149     do_codegen(out, input_filename);
1150
1151   if (firm_dump.statistic & STAT_FINAL)
1152     stat_dump_snapshot(input_filename, "final");
1153
1154 #if 0
1155   if (firm_opt.ycomp_dbg)
1156     firm_finish_ycomp_debugger();
1157 #endif
1158 }  /* gen_firm_finish */
1159
1160 /**
1161  * Do very early initializations
1162  */
1163 void firm_early_init(void) {
1164   /* arg: need this here for command line options */
1165   be_opt_register();
1166   firm_init_options(NULL, 0, NULL);
1167 }  /* firm_early_init */