4e588b717282cf5631b20df670e505344c08e3f2
[libfirm] / be / bespillbelady.c
1 /**
2  * Author:      Daniel Grund
3  * Date:                20.09.2005
4  * Copyright:   (c) Universitaet Karlsruhe
5  * Licence:     This file protected by GPL -  GNU GENERAL PUBLIC LICENSE.
6  *
7  * NOTE: Comments my be (partially) wrong, since there was a major bug
8  *       (spilling of phis, prespill) whose fixing changed a lot.
9  */
10 #ifdef HAVE_CONFIG_H
11 #include "config.h"
12 #endif
13
14 #ifdef HAVE_ALLOCA_H
15 #include <alloca.h>
16 #endif
17
18 #ifdef HAVE_MALLOC_H
19 #include <malloc.h>
20 #endif
21
22 #include "obst.h"
23 #include "set.h"
24 #include "pset.h"
25 #include "irgraph.h"
26 #include "irnode.h"
27 #include "irmode.h"
28 #include "irgwalk.h"
29 #include "iredges_t.h"
30 #include "ircons_t.h"
31
32 #include "beutil.h"
33 #include "bearch.h"
34 #include "bespillbelady.h"
35 #include "beuses_t.h"
36 #include "besched_t.h"
37 #include "beirgmod.h"
38 #include "belive_t.h"
39 #include "benode_t.h"
40 #include "bechordal_t.h"
41
42 #define DBG_SPILL   1
43 #define DBG_WSETS   2
44 #define DBG_FIX     4
45 #define DBG_DECIDE  8
46 #define DBG_START  16
47 #define DBG_SLOTS  32
48 #define DBG_TRACE  64
49 #define DEBUG_LVL 0 //(DBG_START | DBG_DECIDE | DBG_WSETS | DBG_FIX | DBG_SPILL)
50 static firm_dbg_module_t *dbg = NULL;
51
52 #define MIN(a,b) (((a)<(b))?(a):(b))
53 #undef SINGLE_START_PROJS
54
55 typedef struct _workset_t workset_t;
56
57 typedef struct _belady_env_t {
58         struct obstack ob;
59         const be_node_factory_t *factory;
60         const arch_env_t *arch;
61         const arch_register_class_t *cls;
62         int n_regs;                     /** number of regs in this reg-class */
63
64         workset_t *ws;          /**< the main workset used while processing a block. ob-allocated */
65         be_uses_t *uses;        /**< env for the next-use magic */
66         ir_node *instr;         /**< current instruction */
67         unsigned instr_nr;      /**< current instruction number (relative to block start) */
68         pset *used;                     /**< holds the values used (so far) in the current BB */
69
70         spill_env_t *senv;      /* see bespill.h */
71         pset *reloads;          /**< all reload nodes placed */
72 } belady_env_t;
73
74 struct _workset_t {
75         belady_env_t *bel;
76         int i;                          /**< used for iteration TODO remove this form the struct */
77         int len;                        /**< current length */
78         loc_t vals[1];          /**< inlined array of the values/distances in this working set */
79 };
80
81 typedef struct _block_info_t {
82         workset_t *ws_start, *ws_end;
83 } block_info_t;
84
85 /**
86  * Alloc a new workset on obstack @p ob with maximum size @p max
87  */
88 static INLINE workset_t *new_workset(struct obstack *ob, belady_env_t *bel) {
89         workset_t *res;
90         size_t size = sizeof(*res) + (bel->n_regs-1)*sizeof(res->vals[0]);
91         res = obstack_alloc(ob, size);
92         memset(res, 0, size);
93         res->bel = bel;
94         return res;
95 }
96
97 /**
98  * Alloc a new instance on obstack and make it equal to @param ws
99  */
100 static INLINE workset_t *workset_clone(struct obstack *ob, workset_t *ws) {
101         workset_t *res;
102         size_t size = sizeof(*res) + (ws->bel->n_regs-1)*sizeof(res->vals[0]);
103         res = obstack_alloc(ob, size);
104         memcpy(res, ws, size);
105         return res;
106 }
107
108 /**
109  * Do NOT alloc anything. Make @param tgt equal to @param src.
110  * returns @param tgt for convinience
111  */
112 static INLINE workset_t *workset_copy(workset_t *tgt, workset_t *src) {
113         size_t size = sizeof(*src) + (src->bel->n_regs-1)*sizeof(src->vals[0]);
114         memcpy(tgt, src, size);
115         return tgt;
116 }
117
118 /**
119  * Overwrites the current content array of @param ws with the
120  * @param count locations given at memory @param locs.
121  * Set the length of @param ws to count.
122  */
123 #define workset_bulk_fill(ws, count, locs) memcpy(&(ws)->vals[0], locs, ((ws)->len=count)*sizeof(locs[0]));
124
125
126 /**
127  * Inserts the value @p val into the workset, iff it is not
128  * already contained. The workset must not be full.
129  */
130 static INLINE void workset_insert(workset_t *ws, ir_node *val) {
131         int i;
132         /* check for current regclass */
133         if (arch_get_irn_reg_class(ws->bel->arch, val, -1) != ws->bel->cls) {
134                 DBG((dbg, DBG_DECIDE, "Dropped %+F\n", val));
135                 return;
136         }
137
138         /* check if val is already contained */
139         for(i=0; i<ws->len; ++i)
140                 if (ws->vals[i].irn == val)
141                         return;
142
143         /* insert val */
144         assert(ws->len < ws->bel->n_regs && "Workset already full!");
145         ws->vals[ws->len++].irn = val;
146 }
147
148 /**
149  * Inserts all values in array @p vals of length @p cnt
150  * into the workset. There must be enough space for the
151  * entries.
152  */
153 static INLINE void workset_bulk_insert(workset_t *ws, int cnt, ir_node **vals) {
154         int i, o;
155
156         for(o=0; o<cnt; ++o) {
157                 ir_node *val = vals[o];
158                 DBG((dbg, DBG_TRACE, "Bulk insert %+F\n", val));
159                 /* check for current regclass */
160                 if (arch_get_irn_reg_class(ws->bel->arch, val, -1) != ws->bel->cls) {
161                         DBG((dbg, DBG_TRACE, "Wrong reg class\n"));
162                         goto no_insert;
163                 }
164
165                 /* check if val is already contained */
166                 for(i=0; i<ws->len; ++i)
167                         if (ws->vals[i].irn == val) {
168                                 DBG((dbg, DBG_TRACE, "Already contained\n"));
169                                 goto no_insert;
170                         }
171
172                 /* insert val */
173                 assert(ws->len < ws->bel->n_regs && "Workset does not have enough room!");
174                 ws->vals[ws->len++].irn = val;
175                 DBG((dbg, DBG_TRACE, "Inserted\n"));
176
177 no_insert:
178                 /*epsilon statement :)*/;
179         }
180 }
181
182 /**
183  * Removes all entries from this workset
184  */
185 #define workset_clear(ws) (ws)->len = 0;
186
187 /**
188  * Removes the value @p val from the workset if present.
189  */
190 static INLINE void workset_remove(workset_t *ws, ir_node *val) {
191         int i;
192         for(i=0; i<ws->len; ++i)
193                 if (ws->vals[i].irn == val) {
194                         ws->vals[i] = ws->vals[--ws->len];
195                         return;
196                 }
197 }
198
199 static INLINE int workset_contains(const workset_t *ws, const ir_node *val) {
200         int i;
201         for(i=0; i<ws->len; ++i)
202                 if (ws->vals[i].irn == val)
203                         return 1;
204         return 0;
205 }
206
207 #define workset_foreach(ws, v)  for(ws->i=0; \
208                                                                         v=(ws->i < ws->len) ? ws->vals[ws->i].irn : NULL, ws->i < ws->len; \
209                                                                         ws->i++)
210
211 #define workset_set_time(ws, i, t) (ws)->vals[i].time=t
212 #define workset_set_length(ws, length) (ws)->len = length
213 #define workset_get_length(ws) ((ws)->len)
214 #define workset_get_val(ws, i) ((ws)->vals[i].irn)
215 #define workset_sort(ws) qsort((ws)->vals, (ws)->len, sizeof((ws)->vals[0]), loc_compare);
216
217
218 static int is_mem_phi(const ir_node *irn, void *data) {
219         workset_t *sws;
220         ir_node *blk = get_nodes_block(irn);
221
222         DBG((dbg, DBG_SPILL, "Is %+F a mem-phi?\n", irn));
223         sws = ((block_info_t *) get_irn_link(blk))->ws_start;
224         DBG((dbg, DBG_SPILL, "  %d\n", !workset_contains(sws, irn)));
225         return !workset_contains(sws, irn);
226 }
227
228 /**
229  * Collects all values live-in at block @p blk and all phi results in this block.
230  * Then it adds the best values (at most n_regs) to the blocks start_workset.
231  * The phis among the remaining values get spilled: Introduce psudo-copies of
232  *  their args to break interference and make it possible to spill them to the
233  *  same spill slot.
234  */
235 static void compute_block_start_info(ir_node *blk, void *env) {
236         belady_env_t *bel = env;
237         block_info_t *blk_info;
238         ir_node *irn, *first;
239         irn_live_t *li;
240         int i, count, ws_count;
241         loc_t loc, *starters;
242         ir_graph *irg = get_irn_irg(blk);
243         struct obstack ob;
244
245         obstack_init(&ob);
246
247         /* Get all values living at the block start */
248         DBG((dbg, DBG_START, "Living at start of %+F:\n", blk));
249         first = sched_first(blk);
250         count = 0;
251         sched_foreach(blk, irn)
252                 if (is_Phi(irn) && arch_get_irn_reg_class(bel->arch, irn, -1) == bel->cls) {
253                         loc.irn = irn;
254                         loc.time = be_get_next_use(bel->uses, first, 0, irn, 0);
255                         obstack_grow(&ob, &loc, sizeof(loc));
256                         DBG((dbg, DBG_START, "    %+F:\n", irn));
257                         count++;
258                 } else
259                         break;
260
261         live_foreach(blk, li)
262                 if (live_is_in(li) && arch_get_irn_reg_class(bel->arch, li->irn, -1) == bel->cls) {
263                         loc.irn = (ir_node *)li->irn;
264                         loc.time = be_get_next_use(bel->uses, first, 0, li->irn, 0);
265                         obstack_grow(&ob, &loc, sizeof(loc));
266                         DBG((dbg, DBG_START, "    %+F:\n", irn));
267                         count++;
268                 }
269         starters = obstack_finish(&ob);
270
271         /* Sort all values */
272         qsort(starters, count, sizeof(starters[0]), loc_compare);
273
274         /* Create the start workset for this block. Copy the best ones from starters */
275         blk_info = obstack_alloc(&bel->ob, sizeof(*blk_info));
276         set_irn_link(blk, blk_info);
277
278         ws_count = MIN(count, bel->n_regs);
279         blk_info->ws_start = new_workset(&bel->ob, bel);
280         workset_bulk_fill(blk_info->ws_start, ws_count, starters);
281
282         /* Spill the phis among the remaining values */
283         for (i=ws_count; i<count; ++i) {
284                 int o, max;
285
286                 irn = starters[i].irn;
287                 if (!is_Phi(irn) || get_nodes_block(irn) != blk)
288                         continue;
289
290                 DBG((dbg, DBG_START, "For %+F:\n", irn));
291
292                 for (max=get_irn_arity(irn), o=0; o<max; ++o) {
293                         ir_node *arg = get_irn_n(irn, o);
294                         ir_node *pred_block = get_Block_cfgpred_block(get_nodes_block(irn), o);
295                         ir_node *cpy = new_Copy(bel->factory, bel->cls, irg, pred_block, arg);
296                         DBG((dbg, DBG_START, "    place a %+F of %+F in %+F\n", cpy, arg, pred_block));
297                         sched_add_before(pred_block, cpy);
298                         set_irn_n(irn, o, cpy);
299                 }
300         }
301
302         obstack_free(&ob, NULL);
303 }
304
305 /**
306  * Performs the actions neccessary to grant the request that:
307  * - new_vals can be held in registers
308  * - as few as possible other values are disposed
309  * - the worst values get disposed
310  *
311  * @p is_usage indicates that the values in new_vals are used (not defined)
312  * In this case reloads must be performed
313  */
314 static void displace(belady_env_t *bel, workset_t *new_vals, int is_usage) {
315         ir_node *val;
316         int i, len, max_allowed, demand;
317         workset_t *ws = bel->ws;
318         ir_node **to_insert = alloca(bel->n_regs * sizeof(*to_insert));
319
320         /*
321          * 1. Identify the number of needed slots and the values to reload
322          */
323         demand = 0;
324         workset_foreach(new_vals, val) {
325                 /* mark value as used */
326                 if (is_usage)
327                         pset_insert_ptr(bel->used, val);
328
329                 if (!workset_contains(ws, val)) {
330                         DBG((dbg, DBG_DECIDE, "    insert %+F\n", val));
331                         to_insert[demand++] = val;
332                         if (is_usage)
333                                 be_add_reload(bel->senv, val, bel->instr);
334                 } else
335                         DBG((dbg, DBG_DECIDE, "    skip %+F\n", val));
336         }
337         DBG((dbg, DBG_DECIDE, "    demand = %d\n", demand));
338
339
340         /*
341          * 2. Make room for at least 'demand' slots
342          */
343         len = workset_get_length(ws);
344         max_allowed = bel->n_regs - demand;
345
346         /* Only make more free room if we do not have enough */
347         if (len > max_allowed) {
348                 /* get current next-use distance */
349                 for (i=0; i<ws->len; ++i)
350                         workset_set_time(ws, i, be_get_next_use(bel->uses, bel->instr, bel->instr_nr, workset_get_val(ws, i), !is_usage));
351
352                 /* sort entries by increasing nextuse-distance*/
353                 workset_sort(ws);
354
355                 /* Logic for not needed live-ins: If a value is disposed
356                    before its first usage, remove it from start workset */
357                 for (i=max_allowed; i<ws->len; ++i) {
358                         ir_node *irn = ws->vals[i].irn;
359                         if (!pset_find_ptr(bel->used, irn)) {
360                                 ir_node *curr_bb = get_nodes_block(bel->instr);
361                                 workset_t *ws_start = ((block_info_t *) get_irn_link(curr_bb))->ws_start;
362                                 workset_remove(ws_start, irn);
363
364                                 DBG((dbg, DBG_DECIDE, "    dispose %+F dumb\n", irn));
365                         } else
366                                 DBG((dbg, DBG_DECIDE, "    dispose %+F\n", irn));
367                 }
368
369                 /* kill the last 'demand' entries in the array */
370                 workset_set_length(ws, max_allowed);
371         }
372
373         /*
374          * 3. Insert the new values into the workset
375          */
376         workset_bulk_insert(bel->ws, demand, to_insert);
377 }
378
379 /**
380  * For the given block @p blk, decide for each values
381  * whether it is used from a register or is reloaded
382  * before the use.
383  */
384 static void belady(ir_node *blk, void *env) {
385         belady_env_t *bel = env;
386         workset_t *new_vals;
387         ir_node *irn;
388 #ifdef SINGLE_START_PROJS
389         ir_node *start_blk = get_irg_start_block(get_irn_irg(blk));
390 #endif
391         block_info_t *blk_info = get_irn_link(blk);
392
393         DBG((dbg, DBG_DECIDE, "\n"));
394         DBG((dbg, DBG_DECIDE, "Decide for %+F\n", blk));
395
396         workset_copy(bel->ws, blk_info->ws_start);
397         DBG((dbg, DBG_WSETS, "Initial start workset for %+F:\n", blk));
398         workset_foreach(bel->ws, irn)
399                 DBG((dbg, DBG_WSETS, "  %+F\n", irn));
400
401         /* process the block from start to end */
402         DBG((dbg, DBG_WSETS, "Processing...\n"));
403         bel->used = pset_new_ptr(32);
404         bel->instr_nr = 0;
405         new_vals = new_workset(&bel->ob, bel);
406         sched_foreach(blk, irn) {
407                 assert(workset_get_length(bel->ws) <= bel->n_regs && "Too much values in workset!");
408
409
410 #ifdef SINGLE_START_PROJS
411                 if (is_Phi(irn) ||
412                         (is_Proj(irn) && blk!=start_blk) ||
413                         (get_irn_mode(irn) == mode_T && blk==start_blk)) {
414                         DBG((dbg, DBG_DECIDE, "  ...%+F skipped\n", irn));
415                         continue;
416                 }
417 #else
418                 /* projs are handled with the tuple value.
419                  * Phis are no real instr (see insert_starters)
420                  * instr_nr does not increase */
421                 if (is_Proj(irn) || is_Phi(irn)) {
422                         DBG((dbg, DBG_DECIDE, "  ...%+F skipped\n", irn));
423                         continue;
424                 }
425 #endif
426                 DBG((dbg, DBG_DECIDE, "  ...%+F\n", irn));
427
428                 /* set instruction in the workset */
429                 bel->instr = irn;
430
431                 /* allocate all values _used_ by this instruction */
432                 workset_clear(new_vals);
433                 workset_bulk_insert(new_vals, get_irn_arity(irn)+1, get_irn_in(irn));
434                 displace(bel, new_vals, 1);
435
436                 /* allocate all values _defined_ by this instruction */
437                 workset_clear(new_vals);
438                 if (get_irn_mode(irn) == mode_T) { /* special handling for tuples and projs */
439                         ir_node *proj;
440                         for(proj=sched_next(irn); is_Proj(proj); proj=sched_next(proj))
441                                 workset_insert(new_vals, proj);
442                 } else {
443                         workset_insert(new_vals, irn);
444                 }
445                 displace(bel, new_vals, 0);
446
447                 bel->instr_nr++;
448         }
449         del_pset(bel->used);
450
451         /* Remember end-workset for this block */
452         blk_info->ws_end = workset_clone(&bel->ob, bel->ws);
453         DBG((dbg, DBG_WSETS, "Start workset for %+F:\n", blk));
454         workset_foreach(blk_info->ws_start, irn)
455                 DBG((dbg, DBG_WSETS, "  %+F\n", irn));
456         DBG((dbg, DBG_WSETS, "End workset for %+F:\n", blk));
457         workset_foreach(blk_info->ws_end, irn)
458                 DBG((dbg, DBG_WSETS, "  %+F\n", irn));
459 }
460
461 /**
462  * 'decide' is block-local and makes assumptions
463  * about the set of live-ins. Thus we must adapt the
464  * live-outs to the live-ins at each block-border.
465  */
466 static void fix_block_borders(ir_node *blk, void *env) {
467         workset_t *wsb;
468         belady_env_t *bel = env;
469         int i, max;
470
471         DBG((dbg, DBG_FIX, "\n"));
472         DBG((dbg, DBG_FIX, "Fixing %+F\n", blk));
473
474         wsb = ((block_info_t *)get_irn_link(blk))->ws_start;
475
476         /* process all pred blocks */
477         for (i=0, max=get_irn_arity(blk); i<max; ++i) {
478                 ir_node *irnb, *irnp, *pred = get_Block_cfgpred_block(blk, i);
479                 workset_t *wsp = ((block_info_t *)get_irn_link(pred))->ws_end;
480
481                 DBG((dbg, DBG_FIX, "  Pred %+F\n", pred));
482
483                 workset_foreach(wsb, irnb) {
484                         /* if irnb is a phi of the current block we reload
485                          * the corresponding argument, else irnb itself */
486                         if(is_Phi(irnb) && blk == get_nodes_block(irnb))
487                                 irnb = get_irn_n(irnb, i);
488
489                         /* Unknowns are available everywhere */
490                         if(get_irn_opcode(irnb) == iro_Unknown)
491                                 continue;
492
493                         /* check if irnb is in a register at end of pred */
494                         workset_foreach(wsp, irnp)
495                                 if (irnb == irnp)
496                                         goto next_value;
497
498                         /* irnb is in memory at the end of pred, so we have to reload it */
499                         DBG((dbg, DBG_FIX, "    reload %+F\n", irnb));
500                         be_add_reload_on_edge(bel->senv, irnb, blk, i);
501
502 next_value:
503                         /*epsilon statement :)*/;
504                 }
505         }
506 }
507
508 /**
509  * Removes all used reloads from bel->reloads.
510  * The remaining nodes in bel->reloads will be removed from the graph.
511  */
512 static void rescue_used_reloads_and_remove_copies(ir_node *irn, void *env) {
513         pset *rlds = (pset *)env;
514         if (pset_find_ptr(rlds, irn))
515                 pset_remove_ptr(rlds, irn);
516
517
518         /* remove copies introduced for phi-spills */
519         if (be_is_Copy(irn)) {
520                 ir_node *src, *spill;
521                 assert(get_irn_n_edges(irn) == 1 && "This is not a copy introduced in 'compute_block_start_info()'. Who created it?");
522
523                 spill = get_irn_edge(get_irn_irg(irn), irn, 0)->src;
524                 assert(be_is_Spill(spill) && "This is not a copy introduced in 'compute_block_start_info()'. Who created it?");
525
526                 src = get_irn_n(irn, 0);
527                 set_irn_n(spill, 0, src);
528         }
529 }
530
531 /**
532  * Finds all unused reloads and remove them from the schedule
533  * Also removes spills if they are not used anymore after removing reloads
534  */
535 static void remove_copies_and_unused_reloads(ir_graph *irg, belady_env_t *bel) {
536         ir_node *irn;
537
538         irg_walk_graph(irg, rescue_used_reloads_and_remove_copies, NULL, bel->reloads);
539         for(irn = pset_first(bel->reloads); irn; irn = pset_next(bel->reloads)) {
540                 ir_node *spill;
541                 DBG((dbg, DBG_SPILL, "Removing %+F before %+F in %+F\n", irn, sched_next(irn), get_nodes_block(irn)));
542
543                 spill = get_irn_n(irn, 0);
544
545                 /* remove reload */
546                 set_irn_n(irn, 0, new_Bad());
547                 sched_remove(irn);
548
549                 /* if spill not used anymore, remove it too
550                  * test of regclass is necessary since spill may be a phi-M */
551                 if (get_irn_n_edges(spill) == 0 && bel->cls == arch_get_irn_reg_class(bel->arch, spill, -1)) {
552                         set_irn_n(spill, 0, new_Bad());
553                         sched_remove(spill);
554                 }
555         }
556 }
557
558 void be_spill_belady(const be_chordal_env_t *chordal_env) {
559         belady_env_t bel;
560
561         dbg = firm_dbg_register("ir.be.spillbelady");
562         firm_dbg_set_mask(dbg, DEBUG_LVL);
563
564         /* init belady env */
565         obstack_init(&bel.ob);
566         bel.factory = chordal_env->main_env->node_factory;
567         bel.arch    = chordal_env->main_env->arch_env;
568         bel.cls     = chordal_env->cls;
569         bel.n_regs  = arch_register_class_n_regs(bel.cls);
570         bel.ws      = new_workset(&bel.ob, &bel);
571         bel.uses    = be_begin_uses(chordal_env->irg, chordal_env->main_env->arch_env, bel.cls);
572         bel.senv    = be_new_spill_env(dbg, chordal_env, is_mem_phi, NULL);
573         bel.reloads = pset_new_ptr_default();
574
575         /* do the work */
576         irg_block_walk_graph(chordal_env->irg, compute_block_start_info, NULL, &bel);
577         irg_block_walk_graph(chordal_env->irg, belady, NULL, &bel);
578         irg_block_walk_graph(chordal_env->irg, fix_block_borders, NULL, &bel);
579         be_insert_spills_reloads(bel.senv, bel.reloads);
580         remove_copies_and_unused_reloads(chordal_env->irg, &bel);
581
582
583         /* clean up */
584         del_pset(bel.reloads);
585         be_delete_spill_env(bel.senv);
586         be_end_uses(bel.uses);
587         obstack_free(&bel.ob, NULL);
588 }