removed flag from remove_critical_cf_edges()
[libfirm] / ir / ir / irgopt.h
1 /*
2  * Project:     libFIRM
3  * File name:   ir/ir/irgopt.h
4  * Purpose:     Optimizations for a whole ir graph, i.e., a procedure.
5  * Author:      Christian Schaefer, Goetz Lindenmaier
6  * Modified by: Sebastian Felis
7  * Created:
8  * CVS-ID:      $Id$
9  * Copyright:   (c) 1998-2003 Universität Karlsruhe
10  * Licence:     This file protected by GPL -  GNU GENERAL PUBLIC LICENSE.
11  */
12
13 /**
14  * @file irgopt.h
15  *
16  * Optimizations for a whole ir graph, i.e., a procedure.
17  *
18  * @author Christian Schaefer, Goetz Lindenmaier
19  */
20
21 # ifndef _IRGOPT_H_
22 # define _IRGOPT_H_
23
24 # include "irgraph.h"
25
26 /** Applies local optimizations (see iropt.h) to all nodes reachable from node n.
27  *
28  * @param n The node to be optimized.
29  */
30 void local_optimize_node(ir_node *n);
31
32 /** Applies local optimizations (see iropt.h) to all nodes in the graph.
33  *
34  * @param irg  The graph to be optimized.
35  *
36  * After applying local_optimize_graph() to a IR-graph, Bad nodes
37  * only occure as predecessor of Block and Phi nodes.
38  */
39 void local_optimize_graph (ir_graph *irg);
40
41 /** Performs dead node elimination by copying the ir graph to a new obstack.
42  *
43  *  The major intention of this pass is to free memory occupied by
44  *  dead nodes and outdated analyses information.  Further this
45  *  function removes Bad predecesors from Blocks and the corresponding
46  *  inputs to Phi nodes.  This opens optmization potential for other
47  *  optimizations.  Further this phase reduces dead Block<->Jmp
48  *  self-cycles to Bad nodes.
49  *
50  *  Dead_node_elimination is only performed if options `optimize' and
51  *  `opt_dead_node_elimination' are set.  The graph may
52  *  not be in state phase_building.  The outs datasturcture is freed,
53  *  the outs state set to outs_none.  Backedge information is conserved.
54  *  Removes old attributes of nodes.  Sets link field to NULL.
55  *  Callee information must be freed (irg_callee_info_none).
56  *
57  * @param irg  The graph to be optimized.
58  */
59 void dead_node_elimination(ir_graph *irg);
60
61 typedef struct _survive_dce_t survive_dce_t;
62
63 /**
64  * Make a new Survive DCE environment.
65  */
66 survive_dce_t *new_survive_dce(void);
67
68 /**
69  * Free a Survive DCE environment.
70  */
71 void free_survive_dce(survive_dce_t *sd);
72
73 /**
74  * Register a node pointer to be patched upon DCE.
75  * When DCE occurs, the node pointer specified by @p place will be
76  * patched to the new address of the node it is pointing to.
77  *
78  * @param sd    The Survive DCE environment.
79  * @param place The address of the node pointer.
80  */
81 void survive_dce_register_irn(survive_dce_t *sd, ir_node **place);
82
83 /**  Cleans the control flow from Bad predecesors.
84  *
85  * Removes Bad predecesors from Blocks and the corresponding
86  * inputs to Phi nodes as in dead_node_elimination but without
87  * copying the graph.
88  *
89  * Conserves loop information.
90  *
91  * @param irg  The graph to be optimized.
92  */
93 void remove_bad_predecessors(ir_graph *irg);
94
95 /** Inlines a method at the given call site.
96  *
97  *  Removes the call node and splits the basic block the call node
98  *  belongs to.  Inserts a copy of the called graph between these nodes.
99  *  Assumes that call is a Call node in current_ir_graph and that
100  *  the type in the Call nodes type attribute is the same as the
101  *  type of the called graph.
102  *  Further it assumes that all Phi nodes in a block of current_ir_graph
103  *  are assembled in a "link" list in the link field of the corresponding
104  *  block nodes.  Further assumes that all Proj nodes are in a "link" list
105  *  in the nodes producing the tuple.  (This is only an optical feature
106  *  for the graph.)  Conserves this feature for the old
107  *  nodes of the graph.  This precondition can be established by a call to
108  *  collect_phisprojs(), see irgmod.h.
109  *  As dead_node_elimination this function reduces dead Block<->Jmp
110  *  self-cycles to Bad nodes.
111  *
112  *  Called_graph must be unequal to current_ir_graph.   Will not inline
113  *  if they are equal.
114  *  Sets visited masterflag in current_ir_graph to the max of the flag in
115  *  current and called graph.
116  *  Assumes that both, the called and the calling graph are in state
117  *  "op_pin_state_pinned".
118  *  It is recommended to call local_optimize_graph() after inlining as this
119  *  function leaves a set of obscure Tuple nodes, e.g. a Proj-Tuple-Jmp
120  *  combination as control flow operation.
121  *
122  *  @param call          the call node that should be inlined
123  *  @param called_graph  the IR-graph that is called at call
124  *
125  *  @return zero if method could not be inlined (recursion for instance),
126  *          non-zero if all went ok
127  */
128 int inline_method(ir_node *call, ir_graph *called_graph);
129
130 /** Inlines all small methods at call sites where the called address comes
131  *  from a SymConst node that references the entity representing the called
132  *  method.
133  *
134  *  The size argument is a rough measure for the code size of the method:
135  *  Methods where the obstack containing the firm graph is smaller than
136  *  size are inlined.  Further only a limited number of calls are inlined.
137  *  If the method contains more than 1024 inlineable calls none will be
138  *  inlined.
139  *  Inlining is only performed if flags `optimize' and `inlineing' are set.
140  *  The graph may not be in state phase_building.
141  *  It is recommended to call local_optimize_graph() after inlining as this
142  *  function leaves a set of obscure Tuple nodes, e.g. a Proj-Tuple-Jmp
143  *  combination as control flow operation.
144  */
145 void inline_small_irgs(ir_graph *irg, int size);
146
147
148 /** Inlineing with a different heuristic than inline_small_irgs().
149  *
150  *  Inlines leave functions.  If inlinening creates new leave
151  *  function inlines these, too. (If g calls f, and f calls leave h,
152  *  h is first inlined in f and then f in g.)
153  *
154  *  Then inlines all small functions (this is not recursive).
155  *
156  *  For a heuristic this inlineing uses firm node counts.  It does
157  *  not count auxiliary nodes as Proj, Tuple, End, Start, Id, Sync.
158  *
159  *  @param maxsize   Do not inline any calls if a method has more than
160  *                   maxsize firm nodes.  It may reach this limit by
161  *                   inlineing.
162  *  @param leavesize Inline leave functions if they have less than leavesize
163  *                   nodes.
164  *  @param size      Inline all function smaller than size.
165  */
166 void inline_leave_functions(int maxsize, int leavesize, int size);
167
168 /** Code Placement.
169  *
170  * Pins all floating nodes to a block where they
171  * will be executed only if needed.   Depends on the flag opt_global_cse.
172  * Graph may not be in phase_building.  Does not schedule control dead
173  * code.  Uses dominator information which it computes if the irg is not
174  * in state dom_consistent.  Destroys the out information as it moves nodes
175  * to other blocks.  Optimizes Tuples in Control edges.
176  * @todo This is not tested!
177  *
178  * Call remove_critical_cf_edges() before place_code().  This normalizes
179  * the control flow graph so that for all operations a basic block exists
180  * where they can be optimally placed.
181  *
182  * @todo A more powerful code placement would move operations past Phi nodes
183  * out of loops.
184  */
185 void place_code(ir_graph *irg);
186
187 /** Places an empty basic block on critical control flow edges thereby
188  * removing them.
189  *
190  * A critical control flow edge is an edge from a block with several
191  * control exits to a block with several control entries (See Muchnic
192  * p. 407).
193  *
194  * @param irg IR Graph
195  */
196 void remove_critical_cf_edges(ir_graph *irg);
197
198 # endif /* _IRGOPT_H_ */