7e70ec548ae7c518f1848951c21aad2acc43fd1f
[libfirm] / ir / opt / funccall.c
1 /*
2  * Copyright (C) 1995-2011 University of Karlsruhe.  All right reserved.
3  *
4  * This file is part of libFirm.
5  *
6  * This file may be distributed and/or modified under the terms of the
7  * GNU General Public License version 2 as published by the Free Software
8  * Foundation and appearing in the file LICENSE.GPL included in the
9  * packaging of this file.
10  *
11  * Licensees holding valid libFirm Professional Edition licenses may use
12  * this file in accordance with the libFirm Commercial License.
13  * Agreement provided with the Software.
14  *
15  * This file is provided AS IS with NO WARRANTY OF ANY KIND, INCLUDING THE
16  * WARRANTY OF DESIGN, MERCHANTABILITY AND FITNESS FOR A PARTICULAR
17  * PURPOSE.
18  */
19
20 /**
21  * @file
22  * @brief   Optimization of function calls.
23  * @author  Michael Beck
24  * @version $Id$
25  */
26 #include "config.h"
27
28 #include "opt_init.h"
29
30 #include "irnode_t.h"
31 #include "irgraph_t.h"
32 #include "irgmod.h"
33 #include "irgwalk.h"
34 #include "dbginfo_t.h"
35 #include "irflag_t.h"
36 #include "irloop_t.h"
37 #include "ircons.h"
38 #include "iredges_t.h"
39 #include "irpass_t.h"
40 #include "iroptimize.h"
41 #include "analyze_irg_args.h"
42 #include "irhooks.h"
43 #include "raw_bitset.h"
44 #include "debug.h"
45
46 DEBUG_ONLY(static firm_dbg_module_t *dbg;)
47
48 /**
49  * The walker environment for updating function calls.
50  */
51 typedef struct env_t {
52         size_t   n_calls_SymConst;
53         size_t   n_calls_Sel;
54         ir_node  *float_const_call_list;    /**< The list of all floating const function calls that will be changed. */
55         ir_node  *nonfloat_const_call_list; /**< The list of all non-floating const function calls that will be changed. */
56         ir_node  *pure_call_list;           /**< The list of all pure function calls that will be changed. */
57         ir_node  *nothrow_call_list;        /**< The list of all nothrow function calls that will be changed. */
58         ir_node  *proj_list;                /**< The list of all potential Proj nodes that must be fixed. */
59 } env_t;
60
61 /** Ready IRG's are marked in the ready set. */
62 static unsigned *ready_set;
63
64 /** IRG's that are in progress are marked here. */
65 static unsigned *busy_set;
66
67 /**
68  * We misuse the mtp_property_inherited flag as temporary here.
69  * The is ok, as we cannot set or get it anyway using the
70  * get_addtional_properties API.
71  */
72 #define mtp_temporary  mtp_property_inherited
73
74 /**
75  * Walker: Collect all calls to const and pure functions
76  * to lists. Collect all Proj(Call) nodes into a Proj list.
77  */
78 static void collect_const_and_pure_calls(ir_node *node, void *env)
79 {
80         env_t     *ctx = (env_t*)env;
81         ir_node   *call;
82         ir_node   *ptr;
83         ir_entity *ent;
84         unsigned  and_prop, or_prop, prop;
85
86         if (is_Call(node)) {
87                 call = node;
88
89                 /* set the link to NULL for all non-const/pure calls */
90                 set_irn_link(call, NULL);
91                 ptr = get_Call_ptr(call);
92                 if (is_Global(ptr)) {
93                         ent = get_Global_entity(ptr);
94
95                         prop = get_entity_additional_properties(ent);
96                         if ((prop & (mtp_property_const|mtp_property_pure)) == 0)
97                                 return;
98                         ++ctx->n_calls_SymConst;
99                 } else if (get_opt_closed_world() &&
100                            is_Sel(ptr) &&
101                            get_irg_callee_info_state(get_irn_irg(node)) == irg_callee_info_consistent) {
102                         /* If all possible callees are const functions, we can remove the memory edge. */
103                         size_t i, n_callees = get_Call_n_callees(call);
104                         if (n_callees == 0) {
105                                 /* This is kind of strange:  dying code or a Call that will raise an exception
106                                    when executed as there is no implementation to call.  So better not
107                                    optimize. */
108                                 return;
109                         }
110
111                         /* note that const function are a subset of pure ones */
112                         and_prop = mtp_property_const | mtp_property_pure;
113                         or_prop  = 0;
114                         for (i = 0; i < n_callees; ++i) {
115                                 ent = get_Call_callee(call, i);
116                                 if (ent == unknown_entity) {
117                                         /* we don't know which entity is called here */
118                                         return;
119                                 }
120                                 prop      = get_entity_additional_properties(ent);
121                                 and_prop &= prop;
122                                 or_prop  &= prop;
123                                 if (and_prop == mtp_no_property)
124                                         return;
125                         }
126                         prop = and_prop | (or_prop & mtp_property_has_loop);
127                         ++ctx->n_calls_Sel;
128                 } else
129                         return;
130
131                 /* ok, if we get here we found a call to a const or a pure function */
132                 if (prop & mtp_property_pure) {
133                         set_irn_link(call, ctx->pure_call_list);
134                         ctx->pure_call_list = call;
135                 } else {
136                         if (prop & mtp_property_has_loop) {
137                                 set_irn_link(call, ctx->nonfloat_const_call_list);
138                                 ctx->nonfloat_const_call_list = call;
139                         } else {
140                                 set_irn_link(call, ctx->float_const_call_list);
141                                 ctx->float_const_call_list = call;
142                         }
143                 }
144         } else if (is_Proj(node)) {
145                 /*
146                  * Collect all memory and exception Proj's from
147                  * calls.
148                  */
149                 call = get_Proj_pred(node);
150                 if (! is_Call(call))
151                         return;
152
153                 /* collect the Proj's in the Proj list */
154                 switch (get_Proj_proj(node)) {
155                 case pn_Call_M:
156                 case pn_Call_X_except:
157                 case pn_Call_X_regular:
158                         set_irn_link(node, ctx->proj_list);
159                         ctx->proj_list = node;
160                         break;
161                 default:
162                         break;
163                 }
164         }
165 }  /* collect_const_and_pure_calls */
166
167 /**
168  * Fix the list of collected Calls.
169  *
170  * @param irg  the graph that contained calls to pure functions
171  * @param ctx  context
172  */
173 static void fix_const_call_lists(ir_graph *irg, env_t *ctx)
174 {
175         ir_node *call, *next, *mem, *proj;
176         int exc_changed = 0;
177
178         /* First step: fix all calls by removing their memory input and let
179          * them floating.
180          * The original memory input is preserved in their link fields. */
181         for (call = ctx->float_const_call_list; call != NULL; call = next) {
182                 next = (ir_node*)get_irn_link(call);
183                 mem  = get_Call_mem(call);
184
185                 set_irn_link(call, mem);
186                 set_Call_mem(call, get_irg_no_mem(irg));
187
188                 /*
189                  * Unfortunately we cannot simply set the node to 'float'.
190                  * There is a reason for that:
191                  *
192                  * - The call might be inside a loop/if that is NOT entered
193                  *   and calls a endless function. Setting the call to float
194                  *   would allow to move it out from the loop/if causing this
195                  *   function be called even if the loop/if is not entered ...
196                  *
197                  * This could be fixed using post-dominators for calls and Pin nodes
198                  * but need some more analyzes to ensure that a call that potential
199                  * never returns is not executed before some code that generates
200                  * observable states...
201                  */
202
203                 /* finally, this call can float */
204                 set_irn_pinned(call, op_pin_state_floats);
205                 hook_func_call(irg, call);
206         }
207
208         /* Last step: fix all Proj's */
209         for (proj = ctx->proj_list; proj != NULL; proj = next) {
210                 next = (ir_node*)get_irn_link(proj);
211                 call = get_Proj_pred(proj);
212                 mem  = (ir_node*)get_irn_link(call);
213
214                 /* beware of calls in the pure call list */
215                 if (!mem || is_Call(mem))
216                         continue;
217                 assert(get_irn_mode(mem) == mode_M);
218
219                 switch (get_Proj_proj(proj)) {
220                 case pn_Call_M: {
221                         /* in dead code there might be cycles where proj == mem */
222                         if (proj != mem)
223                                 exchange(proj, mem);
224                          break;
225                 }
226                 case pn_Call_X_except:
227                         exc_changed = 1;
228                         exchange(proj, new_r_Bad(irg, mode_X));
229                         break;
230                 case pn_Call_X_regular: {
231                         ir_node *block = get_nodes_block(call);
232                         exc_changed = 1;
233                         exchange(proj, new_r_Jmp(block));
234                         break;
235                 }
236                 default:
237                         break;
238                 }
239         }
240
241         if (exc_changed) {
242                 /* ... including exception edges */
243                 clear_irg_state(irg, IR_GRAPH_STATE_CONSISTENT_DOMINANCE
244                                    | IR_GRAPH_STATE_CONSISTENT_LOOPINFO);
245         }
246 }  /* fix_const_call_list */
247
248 /**
249  * Walker: Collect all calls to nothrow functions
250  * to lists. Collect all Proj(Call) nodes into a Proj list.
251  */
252 static void collect_nothrow_calls(ir_node *node, void *env)
253 {
254         env_t *ctx = (env_t*)env;
255         ir_node *call, *ptr;
256         ir_entity *ent;
257         unsigned prop;
258
259         if (is_Call(node)) {
260                 call = node;
261
262                 /* set the link to NULL for all non-const/pure calls */
263                 set_irn_link(call, NULL);
264                 ptr = get_Call_ptr(call);
265                 if (is_Global(ptr)) {
266                         ent = get_Global_entity(ptr);
267
268                         prop = get_entity_additional_properties(ent);
269                         if ((prop & mtp_property_nothrow) == 0)
270                                 return;
271                         ++ctx->n_calls_SymConst;
272                 } else if (get_opt_closed_world() &&
273                            is_Sel(ptr) &&
274                            get_irg_callee_info_state(get_irn_irg(node)) == irg_callee_info_consistent) {
275                         /* If all possible callees are nothrow functions, we can remove the exception edge. */
276                         size_t i, n_callees = get_Call_n_callees(call);
277                         if (n_callees == 0) {
278                                 /* This is kind of strange:  dying code or a Call that will raise an exception
279                                    when executed as there is no implementation to call.  So better not
280                                    optimize. */
281                                 return;
282                         }
283
284                         /* note that const function are a subset of pure ones */
285                         prop = mtp_property_nothrow;
286                         for (i = 0; i < n_callees; ++i) {
287                                 ent = get_Call_callee(call, i);
288                                 if (ent == unknown_entity) {
289                                         /* we don't know which entity is called here */
290                                         return;
291                                 }
292                                 prop &= get_entity_additional_properties(ent);
293                                 if (prop == mtp_no_property)
294                                         return;
295                         }
296                         ++ctx->n_calls_Sel;
297                 } else
298                         return;
299
300                 /* ok, if we get here we found a call to a nothrow function */
301                 set_irn_link(call, ctx->nothrow_call_list);
302                 ctx->nothrow_call_list = call;
303         } else if (is_Proj(node)) {
304                 /*
305                  * Collect all memory and exception Proj's from
306                  * calls.
307                  */
308                 call = get_Proj_pred(node);
309                 if (! is_Call(call))
310                         return;
311
312                 /* collect the Proj's in the Proj list */
313                 switch (get_Proj_proj(node)) {
314                 case pn_Call_M:
315                 case pn_Call_X_except:
316                 case pn_Call_X_regular:
317                         set_irn_link(node, ctx->proj_list);
318                         ctx->proj_list = node;
319                         break;
320                 default:
321                         break;
322                 }
323         }
324 }  /* collect_nothrow_calls */
325
326 /**
327  * Fix the list of collected nothrow Calls.
328  *
329  * @param irg        the graph that contained calls to pure functions
330  * @param call_list  the list of all call sites of const functions
331  * @param proj_list  the list of all memory/exception Proj's of this call sites
332  */
333 static void fix_nothrow_call_list(ir_graph *irg, ir_node *call_list, ir_node *proj_list)
334 {
335         ir_node *call, *next, *proj;
336         int exc_changed = 0;
337
338         /* First step: go through the list of calls and mark them. */
339         for (call = call_list; call; call = next) {
340                 next = (ir_node*)get_irn_link(call);
341
342                 /* current_ir_graph is in memory anyway, so it's a good marker */
343                 set_irn_link(call, &current_ir_graph);
344                 hook_func_call(irg, call);
345         }
346
347         /* Second step: Remove all exception Proj's */
348         for (proj = proj_list; proj; proj = next) {
349                 next = (ir_node*)get_irn_link(proj);
350                 call = get_Proj_pred(proj);
351
352                 /* handle only marked calls */
353                 if (get_irn_link(call) != &current_ir_graph)
354                         continue;
355
356                 /* kill any exception flow */
357                 switch (get_Proj_proj(proj)) {
358                 case pn_Call_X_except:
359                         exc_changed = 1;
360                         exchange(proj, new_r_Bad(irg, mode_X));
361                         break;
362                 case pn_Call_X_regular: {
363                         ir_node *block = get_nodes_block(call);
364                         exc_changed = 1;
365                         exchange(proj, new_r_Jmp(block));
366                         break;
367                 }
368                 default:
369                         break;
370                 }
371         }
372
373         /* changes were done ... */
374         if (exc_changed) {
375                 /* ... including exception edges */
376                 clear_irg_state(irg, IR_GRAPH_STATE_CONSISTENT_DOMINANCE
377                                    | IR_GRAPH_STATE_CONSISTENT_LOOPINFO);
378         }
379 }  /* fix_nothrow_call_list */
380
381 /* marking */
382 #define SET_IRG_READY(irg)  rbitset_set(ready_set, get_irg_idx(irg))
383 #define IS_IRG_READY(irg)   rbitset_is_set(ready_set, get_irg_idx(irg))
384 #define SET_IRG_BUSY(irg)   rbitset_set(busy_set, get_irg_idx(irg))
385 #define CLEAR_IRG_BUSY(irg) rbitset_clear(busy_set, get_irg_idx(irg))
386 #define IS_IRG_BUSY(irg)    rbitset_is_set(busy_set, get_irg_idx(irg))
387
388 /* forward */
389 static mtp_additional_properties check_const_or_pure_function(ir_graph *irg, int top);
390
391 /**
392  * Calculate the bigger property of two. Handle the temporary flag right.
393  */
394 static mtp_additional_properties max_property(mtp_additional_properties a,
395                                               mtp_additional_properties b)
396 {
397         mtp_additional_properties r;
398         mtp_additional_properties t = (a | b) & mtp_temporary;
399         a &= ~mtp_temporary;
400         b &= ~mtp_temporary;
401
402         if (a == mtp_no_property || b == mtp_no_property)
403                 return mtp_no_property;
404         r = a > b ? a : b;
405         return r | t;
406 }  /* max_property */
407
408 /**
409  * Follow the memory chain starting at node and determine
410  * the mtp_property.
411  *
412  * @return mtp_property_const if only calls of const functions are detected
413  *         mtp_property_pure  if only Loads and const/pure calls detected
414  *         mtp_no_property    else
415  */
416 static mtp_additional_properties follow_mem_(ir_node *node)
417 {
418         mtp_additional_properties mode = mtp_property_const;
419         mtp_additional_properties m;
420         ir_node  *ptr;
421         int i;
422
423         for (;;) {
424                 if (mode == mtp_no_property)
425                         return mtp_no_property;
426
427                 if (irn_visited_else_mark(node))
428                         return mode;
429
430                 switch (get_irn_opcode(node)) {
431                 case iro_Proj:
432                         node = get_Proj_pred(node);
433                         break;
434
435                 case iro_NoMem:
436                         /* finish here */
437                         return mode;
438
439                 case iro_Phi:
440                 case iro_Sync:
441                         /* do a dfs search */
442                         for (i = get_irn_arity(node) - 1; i >= 0; --i) {
443                                 m    = follow_mem_(get_irn_n(node, i));
444                                 mode = max_property(mode, m);
445                                 if (mode == mtp_no_property)
446                                         return mtp_no_property;
447                         }
448                         return mode;
449
450                 case iro_Load:
451                         /* Beware volatile Loads are NOT allowed in pure functions. */
452                         if (get_Load_volatility(node) == volatility_is_volatile)
453                                 return mtp_no_property;
454                         mode = max_property(mode, mtp_property_pure);
455                         node = get_Load_mem(node);
456                         break;
457
458                 case iro_Call:
459                         /* A call is only tolerable if its either constant or pure. */
460                         ptr = get_Call_ptr(node);
461                         if (is_SymConst_addr_ent(ptr)) {
462                                 ir_entity *ent = get_SymConst_entity(ptr);
463                                 ir_graph  *irg = get_entity_irg(ent);
464
465                                 if (irg == NULL) {
466                                         m = get_entity_additional_properties(ent) & (mtp_property_const|mtp_property_pure);
467                                         mode = max_property(mode, m);
468                                 } else {
469                                         /* we have a graph, analyze it. */
470                                         m = check_const_or_pure_function(irg, /*top=*/0);
471                                         mode = max_property(mode, m);
472                                 }
473                         } else
474                                 return mtp_no_property;
475                         node = get_Call_mem(node);
476                         break;
477
478                 default:
479                         return mtp_no_property;
480                 }
481         }
482 }
483
484 /**
485  * Follow the memory chain starting at node and determine
486  * the mtp_property.
487  *
488  * @return mtp_property_const if only calls of const functions are detected
489  *         mtp_property_pure  if only Loads and const/pure calls detected
490  *         mtp_no_property else
491  */
492 static mtp_additional_properties follow_mem(ir_node *node, mtp_additional_properties mode)
493 {
494         mtp_additional_properties m = follow_mem_(node);
495         return max_property(mode, m);
496 }
497
498 /**
499  * Check if a graph represents a const or a pure function.
500  *
501  * @param irg  the graph to check
502  * @param top  if set, this is the top call
503  */
504 static mtp_additional_properties check_const_or_pure_function(ir_graph *irg, int top)
505 {
506         ir_node *end, *endbl;
507         int j;
508         ir_entity *entity   = get_irg_entity(irg);
509         ir_type   *type     = get_entity_type(entity);
510         size_t     n_params = get_method_n_params(type);
511         size_t     i;
512         mtp_additional_properties may_be_const = mtp_property_const;
513         mtp_additional_properties prop = get_irg_additional_properties(irg);
514
515         /* libfirm handles aggregate parameters by passing around pointers to
516          * stuff in memory, so if we have compound parameters we are never const */
517         for (i = 0; i < n_params; ++i) {
518                 ir_type *param = get_method_param_type(type, i);
519                 if (is_compound_type(param)) {
520                         prop        &= ~mtp_property_const;
521                         may_be_const = mtp_no_property;
522                 }
523         }
524
525         if (prop & mtp_property_const) {
526                 /* already marked as a const function */
527                 return mtp_property_const;
528         }
529         if (prop & mtp_property_pure) {
530                 /* already marked as a pure function */
531                 return mtp_property_pure;
532         }
533
534         if (IS_IRG_READY(irg)) {
535                 /* already checked */
536                 return mtp_no_property;
537         }
538         if (IS_IRG_BUSY(irg)) {
539                 /* We are still evaluate this method.
540                  * The function (indirectly) calls itself and thus may not terminate.
541                  */
542                 return mtp_no_property;
543         }
544         SET_IRG_BUSY(irg);
545
546         end   = get_irg_end(irg);
547         endbl = get_nodes_block(end);
548         prop  = may_be_const;
549
550         ir_reserve_resources(irg, IR_RESOURCE_IRN_VISITED);
551         inc_irg_visited(irg);
552         /* mark the initial mem: recursion of follow_mem() stops here */
553         mark_irn_visited(get_irg_initial_mem(irg));
554
555         /* visit every Return */
556         for (j = get_Block_n_cfgpreds(endbl) - 1; j >= 0; --j) {
557                 ir_node   *node = get_Block_cfgpred(endbl, j);
558                 unsigned   code = get_irn_opcode(node);
559                 ir_node   *mem;
560
561                 /* Bad nodes usually do NOT produce anything, so it's ok */
562                 if (code == iro_Bad)
563                         continue;
564
565                 if (code == iro_Return) {
566                         mem = get_Return_mem(node);
567
568                         /* Bad nodes usually do NOT produce anything, so it's ok */
569                         if (is_Bad(mem))
570                                 continue;
571
572                         if (mem != get_irg_initial_mem(irg))
573                                 prop = max_property(prop, follow_mem(mem, prop));
574                 } else {
575                         /* Exception found. Cannot be const or pure. */
576                         prop = mtp_no_property;
577                         break;
578                 }
579                 if (prop == mtp_no_property)
580                         break;
581         }
582
583         if (prop != mtp_no_property) {
584                 /* check, if a keep-alive exists */
585                 for (j = get_End_n_keepalives(end) - 1; j >= 0; --j) {
586                         ir_node *kept = get_End_keepalive(end, j);
587
588                         if (is_Block(kept)) {
589                                 prop = mtp_no_property;
590                                 break;
591                         }
592
593                         if (mode_M != get_irn_mode(kept))
594                                 continue;
595
596                         prop = max_property(prop, follow_mem(kept, prop));
597                         if (prop == mtp_no_property)
598                                 break;
599                 }
600         }
601
602         if (top) {
603                 /* Set the property only if we are at top-level. */
604                 if (prop != mtp_no_property) {
605                         add_irg_additional_properties(irg, prop);
606                 }
607                 SET_IRG_READY(irg);
608         }
609         CLEAR_IRG_BUSY(irg);
610         ir_free_resources(irg, IR_RESOURCE_IRN_VISITED);
611         return prop;
612 }  /* check_const_or_pure_function */
613
614 /**
615  * Handle calls to const functions.
616  *
617  * @param ctx  context
618  */
619 static void handle_const_Calls(env_t *ctx)
620 {
621         size_t i, n;
622
623         ctx->n_calls_SymConst = 0;
624         ctx->n_calls_Sel      = 0;
625
626         /* all calls of const functions can be transformed */
627         for (i = 0, n = get_irp_n_irgs(); i < n; ++i) {
628                 ir_graph *irg  = get_irp_irg(i);
629
630                 ctx->float_const_call_list    = NULL;
631                 ctx->nonfloat_const_call_list = NULL;
632                 ctx->pure_call_list           = NULL;
633                 ctx->proj_list                = NULL;
634
635                 ir_reserve_resources(irg, IR_RESOURCE_IRN_LINK);
636                 irg_walk_graph(irg, NULL, collect_const_and_pure_calls, ctx);
637
638                 if (ctx->float_const_call_list != NULL)
639                         fix_const_call_lists(irg, ctx);
640                 ir_free_resources(irg, IR_RESOURCE_IRN_LINK);
641         }
642 }  /* handle_const_Calls */
643
644 /**
645  * Handle calls to nothrow functions.
646  *
647  * @param ctx  context
648  */
649 static void handle_nothrow_Calls(env_t *ctx)
650 {
651         size_t i, n;
652
653         ctx->n_calls_SymConst = 0;
654         ctx->n_calls_Sel      = 0;
655
656         /* all calls of const functions can be transformed */
657         for (i = 0, n = get_irp_n_irgs(); i < n; ++i) {
658                 ir_graph *irg  = get_irp_irg(i);
659
660                 ctx->nothrow_call_list = NULL;
661                 ctx->proj_list         = NULL;
662
663                 ir_reserve_resources(irg, IR_RESOURCE_IRN_LINK);
664                 irg_walk_graph(irg, NULL, collect_nothrow_calls, ctx);
665
666                 if (ctx->nothrow_call_list)
667                         fix_nothrow_call_list(irg, ctx->nothrow_call_list, ctx->proj_list);
668                 ir_free_resources(irg, IR_RESOURCE_IRN_LINK);
669         }
670 }
671
672 /**
673  * Check, whether a given node represents a return value of
674  * a malloc like function (ie, new heap allocated memory).
675  *
676  * @param node  the node to check
677  */
678 static int is_malloc_call_result(const ir_node *node)
679 {
680         if (is_Alloc(node) && get_Alloc_where(node) == heap_alloc) {
681                 /* Firm style high-level allocation */
682                 return 1;
683         }
684         /* TODO: check mtp_malloc */
685         return 0;
686 }
687
688 /**
689  * Update a property depending on a call property.
690  */
691 static mtp_additional_properties update_property(mtp_additional_properties orig_prop, mtp_additional_properties call_prop)
692 {
693         mtp_additional_properties t = (orig_prop | call_prop) & mtp_temporary;
694         mtp_additional_properties r = orig_prop & call_prop;
695         return r | t;
696 }
697
698 /**
699  * Check if a node is stored.
700  */
701 static int is_stored(const ir_node *n)
702 {
703         const ir_edge_t *edge;
704         const ir_node   *ptr;
705
706         foreach_out_edge(n, edge) {
707                 const ir_node *succ = get_edge_src_irn(edge);
708
709                 switch (get_irn_opcode(succ)) {
710                 case iro_Return:
711                 case iro_Load:
712                 case iro_Cmp:
713                         /* ok */
714                         break;
715                 case iro_Store:
716                         if (get_Store_value(succ) == n)
717                                 return 1;
718                         /* ok if its only the address input */
719                         break;
720                 case iro_Sel:
721                 case iro_Cast:
722                 case iro_Confirm:
723                         if (is_stored(succ))
724                                 return 1;
725                         break;
726                 case iro_Call:
727                         ptr = get_Call_ptr(succ);
728                         if (is_Global(ptr)) {
729                                 ir_entity *ent = get_Global_entity(ptr);
730                                 size_t    i;
731
732                                 /* we know the called entity */
733                                 for (i = get_Call_n_params(succ); i > 0;) {
734                                         if (get_Call_param(succ, --i) == n) {
735                                                 /* n is the i'th param of the call */
736                                                 if (get_method_param_access(ent, i) & ptr_access_store) {
737                                                         /* n is store in ent */
738                                                         return 1;
739                                                 }
740                                         }
741                                 }
742                         } else {
743                                 /* unknown call address */
744                                 return 1;
745                         }
746                         break;
747                 default:
748                         /* bad, potential alias */
749                         return 1;
750                 }
751         }
752         return 0;
753 }  /* is_stored */
754
755 /**
756  * Check that the return value of an irg is not stored anywhere.
757  *
758  * return ~mtp_property_malloc if return values are stored, ~0 else
759  */
760 static mtp_additional_properties check_stored_result(ir_graph *irg)
761 {
762         ir_node  *end_blk = get_irg_end_block(irg);
763         int      i;
764         mtp_additional_properties res = ~mtp_no_property;
765         int      old_edges = edges_assure_kind(irg, EDGE_KIND_NORMAL);
766
767         for (i = get_Block_n_cfgpreds(end_blk) - 1; i >= 0; --i) {
768                 ir_node *pred = get_Block_cfgpred(end_blk, i);
769                 size_t  j;
770
771                 if (! is_Return(pred))
772                         continue;
773                 for (j = get_Return_n_ress(pred); j > 0;) {
774                         const ir_node *irn = get_Return_res(pred, --j);
775
776                         if (is_stored(irn)) {
777                                 /* bad, might create an alias */
778                                 res = ~mtp_property_malloc;
779                                 goto finish;
780                         }
781                 }
782         }
783 finish:
784         if (! old_edges)
785                 edges_deactivate_kind(irg, EDGE_KIND_NORMAL);
786         return res;
787 }
788
789 /**
790  * Check if a graph represents a nothrow or a malloc function.
791  *
792  * @param irg  the graph to check
793  * @param top  if set, this is the top call
794  */
795 static mtp_additional_properties check_nothrow_or_malloc(ir_graph *irg, int top)
796 {
797         mtp_additional_properties curr_prop = mtp_property_malloc | mtp_property_nothrow;
798         ir_node                  *end_blk   = get_irg_end_block(irg);
799         ir_entity *ent;
800         ir_type   *mtp;
801         int       i;
802
803         if (IS_IRG_READY(irg)) {
804                 /* already checked */
805                 return get_irg_additional_properties(irg);
806         }
807         if (IS_IRG_BUSY(irg)) {
808                 /* we are still evaluate this method. Be optimistic,
809                 return the best possible so far but mark the result as temporary. */
810                 return mtp_temporary | mtp_property_malloc | mtp_property_nothrow;
811         }
812         SET_IRG_BUSY(irg);
813
814         ent = get_irg_entity(irg);
815         mtp = get_entity_type(ent);
816
817         if (get_method_n_ress(mtp) <= 0)
818                 curr_prop &= ~mtp_property_malloc;
819
820         for (i = get_Block_n_cfgpreds(end_blk) - 1; i >= 0; --i) {
821                 ir_node *pred = get_Block_cfgpred(end_blk, i);
822
823                 if (is_Return(pred)) {
824                         if (curr_prop & mtp_property_malloc) {
825                                 size_t j;
826
827                                 /* check, if malloc is called here */
828                                 for (j = get_Return_n_ress(pred); j > 0;) {
829                                         ir_node *res = get_Return_res(pred, --j);
830
831                                         /* skip Confirms and Casts */
832                                         res = skip_HighLevel_ops(res);
833                                         /* skip Proj's */
834                                         while (is_Proj(res))
835                                                 res = get_Proj_pred(res);
836                                         if (is_malloc_call_result(res)) {
837                                                 /* ok, this is a malloc */
838                                         } else if (is_Call(res)) {
839                                                 ir_node *ptr = get_Call_ptr(res);
840
841                                                 if (is_Global(ptr)) {
842                                                         /* a direct call */
843                                                         ir_entity *ent    = get_Global_entity(ptr);
844                                                         ir_graph  *callee = get_entity_irg(ent);
845
846                                                         if (callee == irg) {
847                                                                 /* A self-recursive call. The property did not depend on this call. */
848                                                         } else if (callee != NULL) {
849                                                                 mtp_additional_properties prop = check_nothrow_or_malloc(callee, /*top=*/0);
850                                                                 curr_prop = update_property(curr_prop, prop);
851                                                         } else {
852                                                                 curr_prop = update_property(curr_prop, get_entity_additional_properties(ent));
853                                                         }
854                                                 } else if (get_opt_closed_world() &&
855                                                            is_Sel(ptr) &&
856                                                            get_irg_callee_info_state(irg) == irg_callee_info_consistent) {
857                                                         /* check if all possible callees are malloc functions. */
858                                                         size_t i, n_callees = get_Call_n_callees(res);
859                                                         if (n_callees == 0) {
860                                                                 /* This is kind of strange:  dying code or a Call that will raise an exception
861                                                                    when executed as there is no implementation to call.  So better not
862                                                                    optimize. */
863                                                                 curr_prop &= ~mtp_property_malloc;
864                                                                 continue;
865                                                         }
866
867                                                         for (i = 0; i < n_callees; ++i) {
868                                                                 ir_entity *ent = get_Call_callee(res, i);
869                                                                 if (ent == unknown_entity) {
870                                                                         /* we don't know which entity is called here */
871                                                                         curr_prop &= ~mtp_property_malloc;
872                                                                         break;
873                                                                 }
874                                                                 if ((get_entity_additional_properties(ent) & mtp_property_malloc) == 0) {
875                                                                         curr_prop &= ~mtp_property_malloc;
876                                                                         break;
877                                                                 }
878                                                         }
879                                                         /* if we pass the for cycle, malloc is still ok */
880                                                 } else {
881                                                         /* unknown call */
882                                                         curr_prop &= ~mtp_property_malloc;
883                                                 }
884                                         } else {
885                                                 /* unknown return value */
886                                                 curr_prop &= ~mtp_property_malloc;
887                                         }
888                                 }
889                         }
890                 } else if (curr_prop & mtp_property_nothrow) {
891                         /* exception flow detected */
892                         pred = skip_Proj(pred);
893
894                         if (is_Call(pred)) {
895                                 ir_node *ptr = get_Call_ptr(pred);
896
897                                 if (is_Global(ptr)) {
898                                         /* a direct call */
899                                         ir_entity *ent    = get_Global_entity(ptr);
900                                         ir_graph  *callee = get_entity_irg(ent);
901
902                                         if (callee == irg) {
903                                                 /* A self-recursive call. The property did not depend on this call. */
904                                         } else if (callee != NULL) {
905                                                 /* Note: we check here for nothrow only, so do NOT reset the malloc property */
906                                                 mtp_additional_properties prop = check_nothrow_or_malloc(callee, /*top=*/0) | mtp_property_malloc;
907                                                 curr_prop = update_property(curr_prop, prop);
908                                         } else {
909                                                 if ((get_entity_additional_properties(ent) & mtp_property_nothrow) == 0)
910                                                         curr_prop &= ~mtp_property_nothrow;
911                                         }
912                                 } else if (get_opt_closed_world() &&
913                                            is_Sel(ptr) &&
914                                            get_irg_callee_info_state(irg) == irg_callee_info_consistent) {
915                                         /* check if all possible callees are nothrow functions. */
916                                         size_t i, n_callees = get_Call_n_callees(pred);
917                                         if (n_callees == 0) {
918                                                 /* This is kind of strange:  dying code or a Call that will raise an exception
919                                                    when executed as there is no implementation to call.  So better not
920                                                    optimize. */
921                                                 curr_prop &= ~mtp_property_nothrow;
922                                                 continue;
923                                         }
924
925                                         for (i = 0; i < n_callees; ++i) {
926                                                 ir_entity *ent = get_Call_callee(pred, i);
927                                                 if (ent == unknown_entity) {
928                                                         /* we don't know which entity is called here */
929                                                         curr_prop &= ~mtp_property_nothrow;
930                                                         break;
931                                                 }
932                                                 if ((get_entity_additional_properties(ent) & mtp_property_nothrow) == 0) {
933                                                         curr_prop &= ~mtp_property_nothrow;
934                                                         break;
935                                                 }
936                                         }
937                                         /* if we pass the for cycle, nothrow is still ok */
938                                 } else {
939                                         /* unknown call */
940                                         curr_prop &= ~mtp_property_nothrow;
941                                 }
942                         } else {
943                                 /* real exception flow possible. */
944                                 curr_prop &= ~mtp_property_nothrow;
945                         }
946                 }
947                 if ((curr_prop & ~mtp_temporary) == mtp_no_property) {
948                         /* no need to search further */
949                         break;
950                 }
951         }
952
953         if (curr_prop & mtp_property_malloc) {
954                 /*
955                  * Note that the malloc property means not only return newly allocated
956                  * memory, but also that this memory is ALIAS FREE.
957                  * To ensure that, we do NOT allow that the returned memory is somewhere
958                  * stored.
959              */
960                 curr_prop &= check_stored_result(irg);
961         }
962
963         if (curr_prop != mtp_no_property) {
964                 if (top || (curr_prop & mtp_temporary) == 0) {
965                         /* We use the temporary flag here to mark an optimistic result.
966                            Set the property only if we are sure that it does NOT base on
967                            temporary results OR if we are at top-level. */
968                         add_irg_additional_properties(irg, curr_prop & ~mtp_temporary);
969                         SET_IRG_READY(irg);
970                 }
971         }
972         if (top)
973                 SET_IRG_READY(irg);
974         CLEAR_IRG_BUSY(irg);
975         return curr_prop;
976 }  /* check_nothrow_or_malloc */
977
978 /**
979  * When a function was detected as "const", it might be moved out of loops.
980  * This might be dangerous if the graph can contain endless loops.
981  */
982 static void check_for_possible_endless_loops(ir_graph *irg)
983 {
984         ir_loop *root_loop;
985         assure_loopinfo(irg);
986
987         root_loop = get_irg_loop(irg);
988         if (root_loop->flags & loop_outer_loop)
989                 add_irg_additional_properties(irg, mtp_property_has_loop);
990 }
991
992 /*
993  * optimize function calls by handling const functions
994  */
995 void optimize_funccalls(void)
996 {
997         size_t i, n;
998         size_t last_idx;
999         env_t  ctx;
1000         size_t num_const   = 0;
1001         size_t num_pure    = 0;
1002         size_t num_nothrow = 0;
1003         size_t num_malloc  = 0;
1004
1005         /* prepare: mark all graphs as not analyzed */
1006         last_idx  = get_irp_last_idx();
1007         ready_set = rbitset_malloc(last_idx);
1008         busy_set  = rbitset_malloc(last_idx);
1009
1010         /* first step: detect, which functions are nothrow or malloc */
1011         DB((dbg, LEVEL_2, "Detecting nothrow and malloc properties ...\n"));
1012         for (i = 0, n = get_irp_n_irgs(); i < n; ++i) {
1013                 ir_graph *irg = get_irp_irg(i);
1014                 unsigned prop = check_nothrow_or_malloc(irg, /*top=*/1);
1015
1016                 if (prop & mtp_property_nothrow) {
1017                         ++num_nothrow;
1018                         DB((dbg, LEVEL_2, "%+F has the nothrow property\n", irg));
1019                 } else if (prop & mtp_property_malloc) {
1020                         ++num_malloc;
1021                         DB((dbg, LEVEL_2, "%+F has the malloc property\n", irg));
1022                 }
1023         }
1024
1025         /* second step: remove exception edges: this must be done before the
1026            detection of const and pure functions take place. */
1027         handle_nothrow_Calls(&ctx);
1028         DB((dbg, LEVEL_1, "Detected %zu nothrow graphs, %zu malloc graphs.\n", num_nothrow, num_malloc));
1029         DB((dbg, LEVEL_1, "Optimizes %zu(SymConst) + %zu(Sel) calls to nothrow functions.\n",
1030                 ctx.n_calls_SymConst, ctx.n_calls_Sel));
1031
1032         rbitset_clear_all(ready_set, last_idx);
1033         rbitset_clear_all(busy_set, last_idx);
1034
1035         /* third step: detect, which functions are const or pure */
1036         DB((dbg, LEVEL_2, "Detecting const and pure properties ...\n"));
1037         for (i = 0, n = get_irp_n_irgs(); i < n; ++i) {
1038                 ir_graph *irg = get_irp_irg(i);
1039                 unsigned prop = check_const_or_pure_function(irg, /*top=*/1);
1040
1041                 if (prop & mtp_property_const) {
1042                         ++num_const;
1043                         DB((dbg, LEVEL_2, "%+F has the const property\n", irg));
1044                         check_for_possible_endless_loops(irg);
1045                 } else if (prop & mtp_property_pure) {
1046                         ++num_pure;
1047                         DB((dbg, LEVEL_2, "%+F has the pure property\n", irg));
1048                 }
1049         }
1050
1051         handle_const_Calls(&ctx);
1052         DB((dbg, LEVEL_1, "Detected %zu const graphs, %zu pure graphs.\n", num_const, num_pure));
1053         DB((dbg, LEVEL_1, "Optimizes %u(SymConst) + %u(Sel) calls to const functions.\n",
1054                    ctx.n_calls_SymConst, ctx.n_calls_Sel));
1055
1056         xfree(busy_set);
1057         xfree(ready_set);
1058 }
1059
1060 /* initialize the funccall optimization */
1061 void firm_init_funccalls(void)
1062 {
1063         FIRM_DBG_REGISTER(dbg, "firm.opt.funccalls");
1064 }
1065
1066 /* Creates an ir_prog pass for optimize_funccalls. */
1067 ir_prog_pass_t *optimize_funccalls_pass(const char *name)
1068 {
1069         return def_prog_pass(name ? name : "funccall", optimize_funccalls);
1070 }