e3bfdbd6fa7335dcc7a1ffa4a16b81f6dd87d79a
[libfirm] / ir / be / bespilldaemel.c
1 /*
2  * Copyright (C) 1995-2011 University of Karlsruhe.  All right reserved.
3  *
4  * This file is part of libFirm.
5  *
6  * This file may be distributed and/or modified under the terms of the
7  * GNU General Public License version 2 as published by the Free Software
8  * Foundation and appearing in the file LICENSE.GPL included in the
9  * packaging of this file.
10  *
11  * Licensees holding valid libFirm Professional Edition licenses may use
12  * this file in accordance with the libFirm Commercial License.
13  * Agreement provided with the Software.
14  *
15  * This file is provided AS IS with NO WARRANTY OF ANY KIND, INCLUDING THE
16  * WARRANTY OF DESIGN, MERCHANTABILITY AND FITNESS FOR A PARTICULAR
17  * PURPOSE.
18  */
19
20 /**
21  * @file
22  * @brief       Naive spilling algorithm
23  * @author      Matthias Braun
24  * @date        20.09.2005
25  * @brief
26  *   This implements a naive spilling algorithm. It is designed to produce
27  *   similar effects to the spill decisions produced by traditional graph
28  *   coloring register allocators that spill while they are coloring the graph.
29  *
30  *   This spiller walks over all blocks and looks for places with too high
31  *   register pressure where it spills the values that are cheapest to spill.
32  *   Spilling in this context means placing a spill instruction behind the
33  *   definition of the value and a reload before each usage.
34  */
35 #include "config.h"
36
37 #include "debug.h"
38
39 #include "irnodeset.h"
40 #include "irgwalk.h"
41 #include "irprintf.h"
42 #include "iredges_t.h"
43 #include "error.h"
44
45 #include "beirg.h"
46 #include "bespill.h"
47 #include "bespillutil.h"
48 #include "bemodule.h"
49 #include "besched.h"
50 #include "bearch.h"
51 #include "be_t.h"
52 #include "benode.h"
53 #include "beirg.h"
54 #include "belive.h"
55
56 DEBUG_ONLY(static firm_dbg_module_t *dbg = NULL;)
57
58 static spill_env_t                 *spill_env;
59 static unsigned                     n_regs;
60 static const arch_register_class_t *cls;
61 static const be_lv_t               *lv;
62 static bitset_t                    *spilled_nodes;
63
64 typedef struct spill_candidate_t spill_candidate_t;
65 struct spill_candidate_t {
66         double   costs;
67         ir_node *node;
68 };
69
70 static int compare_spill_candidates_desc(const void *d1, const void *d2)
71 {
72         const spill_candidate_t *c1 = (const spill_candidate_t*)d1;
73         const spill_candidate_t *c2 = (const spill_candidate_t*)d2;
74
75         return (int) (c1->costs - c2->costs);
76 }
77
78 static double get_spill_costs(ir_node *node)
79 {
80         ir_node *spill_place = skip_Proj(node);
81         double   costs       = be_get_spill_costs(spill_env, node, spill_place);
82
83         foreach_out_edge(node, edge) {
84                 ir_node *use = get_edge_src_irn(edge);
85
86                 /* keeps should be directly below the node */
87                 if (be_is_Keep(use)) {
88                         continue;
89                 }
90
91                 if (is_Phi(use)) {
92                         int      in    = get_edge_src_pos(edge);
93                         ir_node *block = get_nodes_block(use);
94
95                         costs += be_get_reload_costs_on_edge(spill_env, node, block, in);
96                 } else {
97                         costs += be_get_reload_costs(spill_env, node, use);
98                 }
99         }
100
101         return costs;
102 }
103
104 /**
105  * spills a node by placing a reload before each usage
106  */
107 static void spill_node(ir_node *node)
108 {
109         DBG((dbg, LEVEL_3, "\tspilling %+F\n", node));
110
111         foreach_out_edge(node, edge) {
112                 ir_node *use = get_edge_src_irn(edge);
113                 if (is_Anchor(use))
114                         continue;
115                 if (be_is_Keep(use))
116                         continue;
117
118                 if (is_Phi(use)) {
119                         int      in    = get_edge_src_pos(edge);
120                         ir_node *block = get_nodes_block(use);
121
122                         be_add_reload_on_edge(spill_env, node, block, in, cls, 1);
123                 } else {
124                         be_add_reload(spill_env, node, use, cls, 1);
125                 }
126         }
127
128         bitset_set(spilled_nodes, get_irn_idx(node));
129 }
130
131 static unsigned get_value_width(const ir_node *node)
132 {
133         const arch_register_req_t *req = arch_get_irn_register_req(node);
134         return req->width;
135 }
136
137 /**
138  * spill @p n nodes from a nodeset. Removes the nodes from the nodeset and
139  * sets the spilled bits in spilled_nodes.
140  */
141 static void do_spilling(ir_nodeset_t *live_nodes, ir_node *node)
142 {
143         size_t   values_defined = 0;
144         ir_node *value;
145         be_foreach_definition(node, cls, value,
146                 assert(req_->width >= 1);
147                 values_defined += req_->width;
148         );
149
150         /* we need registers for the non-live argument values */
151         size_t free_regs_needed = 0;
152         int arity = get_irn_arity(node);
153         for (int i = 0; i < arity; ++i) {
154                 ir_node *pred = get_irn_n(node, i);
155                 if (arch_irn_consider_in_reg_alloc(cls, pred)
156                                 && !ir_nodeset_contains(live_nodes, pred)) {
157                         free_regs_needed += get_value_width(pred);
158                 }
159         }
160
161         /* we can reuse all reloaded values for the defined values, but we might
162          * need even more registers */
163         if (values_defined > free_regs_needed)
164                 free_regs_needed = values_defined;
165
166         size_t n_live_nodes  = ir_nodeset_size(live_nodes);
167         int    spills_needed = (n_live_nodes + free_regs_needed) - n_regs;
168         if (spills_needed <= 0)
169                 return;
170         DBG((dbg, LEVEL_2, "\tspills needed after %+F: %d\n", node, spills_needed));
171
172         spill_candidate_t *candidates = ALLOCAN(spill_candidate_t, n_live_nodes);
173
174         /* construct array with spill candidates and calculate their costs */
175         size_t c = 0;
176         foreach_ir_nodeset(live_nodes, n, iter) {
177                 spill_candidate_t *candidate = & candidates[c];
178
179                 assert(!bitset_is_set(spilled_nodes, get_irn_idx(n)));
180
181                 candidate->node  = n;
182                 candidate->costs = get_spill_costs(n);
183                 ++c;
184         }
185         assert(c == n_live_nodes);
186
187         /* sort spill candidates */
188         qsort(candidates, n_live_nodes, sizeof(candidates[0]),
189               compare_spill_candidates_desc);
190
191         /* spill cheapest ones */
192         size_t cand_idx = 0;
193         while (spills_needed > 0) {
194                 if (cand_idx >= n_live_nodes) {
195                         panic("can't spill enough values for node %+F", node);
196                 }
197
198                 spill_candidate_t *candidate = &candidates[cand_idx];
199                 ir_node           *cand_node = candidate->node;
200                 ++cand_idx;
201
202                 if (arch_irn_is(skip_Proj_const(cand_node), dont_spill))
203                         continue;
204
205                 /* make sure the node is not an argument of the instruction */
206                 bool is_use = false;
207                 for (int i = 0; i < arity; ++i) {
208                         ir_node *in = get_irn_n(node, i);
209                         if (in == cand_node) {
210                                 is_use = true;
211                                 break;
212                         }
213                 }
214                 if (is_use)
215                         continue;
216
217                 spill_node(cand_node);
218                 ir_nodeset_remove(live_nodes, cand_node);
219                 spills_needed -= get_value_width(cand_node);
220         }
221 }
222
223 /**
224  * removes all values from the nodeset that are defined by node
225  */
226 static void remove_defs(ir_node *node, ir_nodeset_t *nodeset)
227 {
228         /* You must break out of your loop when hitting the first phi function. */
229         assert(!is_Phi(node));
230
231         ir_node *value;
232         be_foreach_definition(node, cls, value,
233                 ir_nodeset_remove(nodeset, value);
234         );
235 }
236
237 static void add_uses(ir_node *node, ir_nodeset_t *nodeset)
238 {
239         int arity = get_irn_arity(node);
240         for (int i = 0; i < arity; ++i) {
241                 ir_node *op = get_irn_n(node, i);
242
243                 if (arch_irn_consider_in_reg_alloc(cls, op) &&
244                                 !bitset_is_set(spilled_nodes, get_irn_idx(op))) {
245                         ir_nodeset_insert(nodeset, op);
246                 }
247         }
248 }
249
250 static __attribute__((unused))
251 void print_nodeset(ir_nodeset_t *nodeset)
252 {
253         foreach_ir_nodeset(nodeset, node, iter) {
254                 ir_fprintf(stderr, "%+F ", node);
255         }
256         fprintf(stderr, "\n");
257 }
258
259 /**
260  * make sure register pressure in a block is always equal or below the number
261  * of available registers
262  */
263 static void spill_block(ir_node *block, void *data)
264 {
265         (void) data;
266         DBG((dbg, LEVEL_1, "spilling block %+F\n", block));
267
268         /* construct set of live nodes at end of block */
269         ir_nodeset_t live_nodes;
270         ir_nodeset_init(&live_nodes);
271         be_liveness_end_of_block(lv, cls, block, &live_nodes);
272
273         /* remove already spilled nodes from liveset */
274         foreach_ir_nodeset(&live_nodes, node, iter) {
275                 DBG((dbg, LEVEL_2, "\t%+F is live-end... ", node));
276                 if (bitset_is_set(spilled_nodes, get_irn_idx(node))) {
277                         DBG((dbg, LEVEL_2, "but spilled; removing.\n"));
278                         ir_nodeset_remove_iterator(&live_nodes, &iter);
279                 } else {
280                         DBG((dbg, LEVEL_2, "keeping.\n"));
281                 }
282         }
283
284         /* walk schedule backwards and spill until register pressure is fine at
285          * each node */
286         sched_foreach_reverse(block, node) {
287                 if (is_Phi(node))
288                         break;
289
290                 remove_defs(node, &live_nodes);
291                 do_spilling(&live_nodes, node);
292                 add_uses(node, &live_nodes);
293         }
294
295         /* until now only the values of some phis have been spilled the phis itself
296          * are still there and occupy registers, so we need to count them and might
297          * have to spill some of them. */
298         int n_phi_values_spilled = 0;
299         sched_foreach(block, node) {
300                 if (!is_Phi(node))
301                         break;
302
303                 if (bitset_is_set(spilled_nodes, get_irn_idx(node))) {
304                         n_phi_values_spilled += get_value_width(node);
305                 }
306         }
307
308         int live_nodes_pressure = 0;
309         foreach_ir_nodeset(&live_nodes, node, iter) {
310                 live_nodes_pressure += get_value_width(node);
311         }
312
313         /* calculate how many of the phis need to be spilled */
314         int regpressure       = live_nodes_pressure + n_phi_values_spilled;
315         int phi_spills_needed = regpressure - n_regs;
316         DBG((dbg, LEVEL_3, "Regpressure before phis: %d phispills: %d\n",
317              regpressure, phi_spills_needed));
318
319         /* spill as many phis as needed */
320         /* TODO: we should really estimate costs of the phi spill as well...
321          * and preferably spill phis with lower costs... */
322         sched_foreach(block, node) {
323                 if (!is_Phi(node))
324                         break;
325                 if (phi_spills_needed <= 0)
326                         break;
327
328                 if (!bitset_is_set(spilled_nodes, get_irn_idx(node)))
329                         continue;
330
331                 be_spill_phi(spill_env, node);
332                 phi_spills_needed -= get_value_width(node);
333         }
334         assert(phi_spills_needed <= 0);
335
336         ir_nodeset_destroy(&live_nodes);
337 }
338
339 static void be_spill_daemel(ir_graph *irg, const arch_register_class_t *new_cls)
340 {
341         n_regs = be_get_n_allocatable_regs(irg, new_cls);
342         if (n_regs == 0)
343                 return;
344
345         be_assure_live_sets(irg);
346
347         spill_env     = be_new_spill_env(irg);
348         cls           = new_cls;
349         lv            = be_get_irg_liveness(irg);
350         spilled_nodes = bitset_malloc(get_irg_last_idx(irg));
351
352         DBG((dbg, LEVEL_1, "*** RegClass %s\n", cls->name));
353
354         irg_block_walk_graph(irg, spill_block, NULL, NULL);
355
356         bitset_free(spilled_nodes);
357
358         be_insert_spills_reloads(spill_env);
359         be_delete_spill_env(spill_env);
360 }
361
362 BE_REGISTER_MODULE_CONSTRUCTOR(be_init_daemelspill)
363 void be_init_daemelspill(void)
364 {
365         static be_spiller_t daemel_spiller = {
366                 be_spill_daemel
367         };
368
369         be_register_spiller("daemel", &daemel_spiller);
370         FIRM_DBG_REGISTER(dbg, "firm.be.spilldaemel");
371 }