remove unnecessary members from be_abi_irg_t structure, cleanup beabi a bit
[libfirm] / ir / be / beflags.c
1 /*
2  * Copyright (C) 1995-2008 University of Karlsruhe.  All right reserved.
3  *
4  * This file is part of libFirm.
5  *
6  * This file may be distributed and/or modified under the terms of the
7  * GNU General Public License version 2 as published by the Free Software
8  * Foundation and appearing in the file LICENSE.GPL included in the
9  * packaging of this file.
10  *
11  * Licensees holding valid libFirm Professional Edition licenses may use
12  * this file in accordance with the libFirm Commercial License.
13  * Agreement provided with the Software.
14  *
15  * This file is provided AS IS with NO WARRANTY OF ANY KIND, INCLUDING THE
16  * WARRANTY OF DESIGN, MERCHANTABILITY AND FITNESS FOR A PARTICULAR
17  * PURPOSE.
18  */
19
20 /**
21  * @file
22  * @brief       modifies schedule so flags dependencies are respected.
23  * @author      Matthias Braun, Christoph Mallon
24  * @version     $Id: besched.h 14693 2007-06-21 15:35:49Z beck $
25  *
26  * Fixup schedule to respect flag constraints by moving and rematerialisation of
27  * nodes.
28  *
29  * Flags are modeled as register classes with ignore registers. However to avoid
30  * bloating the graph, only flag-consumer -> producer dependencies are
31  * explicitely modeled in the graph. Nodes that just change the flags are only
32  * marked with the arch_irn_flags_modify_flags flag.
33  *
34  * Flags are usually a limited resource that can't (or at least shouldn't) be
35  * spilled. So in some situations (for example 2 adc-nodes that use the flags of
36  * a single add node on x86) operations have to be repeated to work correctly.
37  */
38 #include "config.h"
39
40 #include "irgwalk.h"
41 #include "irnode_t.h"
42 #include "irtools.h"
43 #include "ircons.h"
44 #include "iredges_t.h"
45 #include "irprintf.h"
46 #include "error.h"
47
48 #include "beflags.h"
49 #include "bearch.h"
50 #include "beirg.h"
51 #include "besched.h"
52 #include "benode.h"
53 #include "belive.h"
54
55 static const arch_register_class_t *flag_class = NULL;
56 static const arch_register_t       *flags_reg  = NULL;
57 static func_rematerialize           remat      = NULL;
58 static int                          changed;
59
60 static ir_node *default_remat(ir_node *node, ir_node *after)
61 {
62         ir_node *block, *copy;
63         if (is_Block(after))
64                 block = after;
65         else
66                 block = get_nodes_block(after);
67
68         copy = exact_copy(node);
69         set_nodes_block(copy, block);
70         sched_add_after(after, copy);
71
72         return copy;
73 }
74
75 /**
76  * tests whether we can legally move node node after node after
77  * (only works for nodes in same block)
78  */
79 static int can_move(ir_node *node, ir_node *after)
80 {
81         const ir_edge_t *edge;
82         assert(get_nodes_block(node) == get_nodes_block(after));
83
84         /* TODO respect dep edges */
85         assert(get_irn_n_edges_kind(node, EDGE_KIND_DEP) == 0);
86
87         /** all users have to be after the after node */
88         foreach_out_edge(node, edge) {
89                 ir_node *out = get_edge_src_irn(edge);
90                 if (is_Proj(out)) {
91                         const ir_edge_t *edge2;
92                         assert(get_irn_n_edges_kind(out, EDGE_KIND_DEP) == 0);
93                         foreach_out_edge(out, edge2) {
94                                 ir_node *out2 = get_edge_src_irn(edge2);
95                                 /* Phi or End represents a usage at block end. */
96                                 if (is_Phi(out2) || is_End(out2))
97                                         continue;
98                                 if (is_Sync(out2)) {
99                                         const ir_edge_t *edge3;
100                                         foreach_out_edge(out2, edge3) {
101                                                 ir_node *out3 = get_edge_src_irn(edge3);
102                                                 /* Phi or End represents a usage at block end. */
103                                                 if (is_Phi(out3) || is_End(out3))
104                                                         continue;
105                                                 assert(!is_Sync(out3));
106                                                 if (sched_get_time_step(out3) <= sched_get_time_step(after)) {
107                                                         return 0;
108                                                 }
109                                         }
110                                 } else if (sched_get_time_step(out2) <= sched_get_time_step(after)) {
111                                         return 0;
112                                 }
113                         }
114                 } else {
115                         /* phi represents a usage at block end */
116                         if (is_Phi(out))
117                                 continue;
118                         if (sched_get_time_step(out) <= sched_get_time_step(after)) {
119                                 return 0;
120                         }
121                 }
122         }
123
124         return 1;
125 }
126
127 static void rematerialize_or_move(ir_node *flags_needed, ir_node *node,
128                                   ir_node *flag_consumers, int pn, be_lv_t *lv)
129 {
130         ir_node *n;
131         ir_node *copy;
132         ir_node *value;
133
134         if (!is_Block(node) &&
135                         get_nodes_block(flags_needed) == get_nodes_block(node) &&
136                         can_move(flags_needed, node)) {
137                 /* move it */
138                 sched_remove(flags_needed);
139                 sched_add_after(node, flags_needed);
140                 /* No need to update liveness, because the node stays in the same block */
141                 return;
142         }
143
144         changed = 1;
145         copy    = remat(flags_needed, node);
146
147         if (get_irn_mode(copy) == mode_T) {
148                 ir_mode *mode = flag_class->mode;
149                 value = new_rd_Proj(NULL, copy, mode, pn);
150         } else {
151                 value = copy;
152         }
153
154         n = flag_consumers;
155         do {
156                 int i;
157                 int arity = get_irn_arity(n);
158                 for (i = 0; i < arity; ++i) {
159                         ir_node *in = get_irn_n(n, i);
160                         in = skip_Proj(in);
161                         if (in == flags_needed) {
162                                 set_irn_n(n, i, value);
163                                 break;
164                         }
165                 }
166                 n = get_irn_link(n);
167         } while (n != NULL);
168
169         /* No need to introduce the copy, because it only lives in this block, but
170          * we have to update the liveness of all operands */
171         if (is_Block(node) ||
172                         get_nodes_block(node) != get_nodes_block(flags_needed)) {
173                 int i;
174
175                 if (lv != NULL) {
176                         for (i = get_irn_arity(copy) - 1; i >= 0; --i) {
177                                 be_liveness_update(lv, get_irn_n(copy, i));
178                         }
179                 }
180         }
181 }
182
183 static int is_modify_flags(ir_node *node)
184 {
185         int i, arity;
186
187         if (arch_irn_is(node, modify_flags))
188                 return 1;
189         if (!be_is_Keep(node))
190                 return 0;
191
192         arity = get_irn_arity(node);
193         for (i = 0; i < arity; ++i) {
194                 ir_node *in = get_irn_n(node, i);
195                 in = skip_Proj(in);
196                 if (arch_irn_is(in, modify_flags))
197                         return 1;
198         }
199
200         return 0;
201 }
202
203 /**
204  * walks up the schedule and makes sure there are no flag-destroying nodes
205  * between a flag-consumer -> flag-producer chain. Fixes problematic situations
206  * by moving and/or rematerialisation of the flag-producers.
207  * (This can be extended in the future to do some register allocation on targets
208  *  like ppc32 where we conceptually have 8 flag registers)
209  */
210 static void fix_flags_walker(ir_node *block, void *env)
211 {
212         ir_node *node;
213         ir_node *flags_needed   = NULL;
214         ir_node *flag_consumers = NULL;
215         int      pn = -1;
216
217         sched_foreach_reverse(block, node) {
218                 int i, arity;
219                 ir_node *new_flags_needed = NULL;
220
221                 if (is_Phi(node))
222                         break;
223
224                 if (node == flags_needed) {
225                         /* all ok */
226                         flags_needed   = NULL;
227                         flag_consumers = NULL;
228                 }
229
230                 /* test whether node destroys the flags */
231                 if (flags_needed != NULL && is_modify_flags(node)) {
232                         /* rematerialize */
233                         rematerialize_or_move(flags_needed, node, flag_consumers, pn, env);
234                         flags_needed   = NULL;
235                         flag_consumers = NULL;
236                 }
237
238                 /* test whether the current node needs flags */
239                 arity = get_irn_arity(node);
240                 for (i = 0; i < arity; ++i) {
241                         const arch_register_class_t *cls = arch_get_irn_reg_class(node, i);
242                         if (cls == flag_class) {
243                                 assert(new_flags_needed == NULL);
244                                 new_flags_needed = get_irn_n(node, i);
245                         }
246                 }
247
248                 if (new_flags_needed == NULL)
249                         continue;
250
251                 /* spiller can't (correctly) remat flag consumers at the moment */
252                 assert(!arch_irn_is(node, rematerializable));
253
254                 if (skip_Proj(new_flags_needed) != flags_needed) {
255                         if (flags_needed != NULL) {
256                                 /* rematerialize node */
257                                 rematerialize_or_move(flags_needed, node, flag_consumers, pn, env);
258                                 flags_needed   = NULL;
259                                 flag_consumers = NULL;
260                         }
261
262                         flags_needed = new_flags_needed;
263                         arch_set_irn_register(flags_needed, flags_reg);
264                         if (is_Proj(flags_needed)) {
265                                 pn           = get_Proj_proj(flags_needed);
266                                 flags_needed = get_Proj_pred(flags_needed);
267                         }
268                         flag_consumers = node;
269                         set_irn_link(flag_consumers, NULL);
270                         assert(arch_irn_is(flags_needed, rematerializable));
271                 } else {
272                         /* link all consumers in a list */
273                         set_irn_link(node, flag_consumers);
274                         flag_consumers = node;
275                 }
276         }
277
278         if (flags_needed != NULL) {
279                 assert(get_nodes_block(flags_needed) != block);
280                 rematerialize_or_move(flags_needed, node, flag_consumers, pn, env);
281                 flags_needed   = NULL;
282                 flag_consumers = NULL;
283         }
284
285         assert(flags_needed   == NULL);
286         assert(flag_consumers == NULL);
287 }
288
289 void be_sched_fix_flags(ir_graph *irg, const arch_register_class_t *flag_cls,
290                         func_rematerialize remat_func)
291 {
292         flag_class = flag_cls;
293         flags_reg  = & flag_class->regs[0];
294         remat      = remat_func;
295         changed    = 0;
296         if (remat == NULL)
297                 remat = &default_remat;
298
299         ir_reserve_resources(irg, IR_RESOURCE_IRN_LINK);
300         irg_block_walk_graph(irg, fix_flags_walker, NULL, be_get_irg_liveness(irg));
301         ir_free_resources(irg, IR_RESOURCE_IRN_LINK);
302
303         if (changed) {
304                 be_remove_dead_nodes_from_schedule(irg);
305         }
306 }