- dominance frontier now uses lists instead of sets per block. This should speed...
[libfirm] / ir / be / bespill.c
1 /*
2  * Author:      Daniel Grund, Sebastian Hack, Matthias Braun
3  * Date:                29.09.2005
4  * Copyright:   (c) Universitaet Karlsruhe
5  * Licence:     This file protected by GPL -  GNU GENERAL PUBLIC LICENSE.
6  * CVS-Id:      $Id$
7  */
8 #ifdef HAVE_CONFIG_H
9 #include "config.h"
10 #endif
11
12 #include <stdlib.h>
13
14 #include "pset.h"
15 #include "irnode_t.h"
16 #include "ircons_t.h"
17 #include "iredges_t.h"
18 #include "irbackedge_t.h"
19 #include "irprintf.h"
20 #include "ident_t.h"
21 #include "type_t.h"
22 #include "entity_t.h"
23 #include "debug.h"
24 #include "irgwalk.h"
25 #include "array.h"
26 #include "pdeq.h"
27 #include "unionfind.h"
28 #include "execfreq.h"
29
30 #include "belive_t.h"
31 #include "besched_t.h"
32 #include "bespill.h"
33 #include "belive_t.h"
34 #include "benode_t.h"
35 #include "bechordal_t.h"
36 #include "bejavacoal.h"
37 #include "benodesets.h"
38 #include "bespilloptions.h"
39 #include "bestatevent.h"
40
41 // only rematerialise when costs are less than REMAT_COST_LIMIT
42 // TODO determine a good value here...
43 #define REMAT_COST_LIMIT        10
44
45 typedef struct _reloader_t reloader_t;
46
47 struct _reloader_t {
48         reloader_t *next;
49         ir_node    *reloader;
50         ir_node    *rematted_node;
51         int        allow_remat;     /**< the node may be rematted instead of reloaded if global remat option is on */
52 };
53
54 typedef struct _spill_info_t {
55         /** the value that should get spilled */
56         ir_node *spilled_node;
57         /** list of places where the value should get reloaded */
58         reloader_t *reloaders;
59
60         /** the spill node, or a PhiM node */
61         ir_node *spill;
62         /** if we had the value of a phi spilled before but not the phi itself then
63          * this field contains the spill for the phi value */
64         ir_node *old_spill;
65
66         /** the register class in which the reload should be placed */
67         const arch_register_class_t *reload_cls;
68 } spill_info_t;
69
70 struct _spill_env_t {
71         const arch_env_t *arch_env;
72         ir_graph *irg;
73         struct obstack obst;
74         be_irg_t *birg;
75         int spill_cost;     /**< the cost of a single spill node */
76         int reload_cost;    /**< the cost of a reload node */
77         set *spills;        /**< all spill_info_t's, which must be placed */
78         pset *mem_phis;     /**< set of all special spilled phis. allocated and freed separately */
79
80         DEBUG_ONLY(firm_dbg_module_t *dbg;)
81 };
82
83 /**
84  * Compare two spill infos.
85  */
86 static int cmp_spillinfo(const void *x, const void *y, size_t size) {
87         const spill_info_t *xx = x;
88         const spill_info_t *yy = y;
89         return xx->spilled_node != yy->spilled_node;
90 }
91
92 /**
93  * Returns spill info for a specific value (returns NULL if the info doesn't
94  * exist yet)
95  */
96 static spill_info_t *find_spillinfo(const spill_env_t *env, ir_node *value) {
97         spill_info_t info;
98         int hash = nodeset_hash(value);
99
100         info.spilled_node = value;
101
102         return set_find(env->spills, &info, sizeof(info), hash);
103 }
104
105 /**
106  * Returns spill info for a specific value (the value that is to be spilled)
107  */
108 static spill_info_t *get_spillinfo(const spill_env_t *env, ir_node *value) {
109         spill_info_t info, *res;
110         int hash = nodeset_hash(value);
111
112         info.spilled_node = value;
113         res = set_find(env->spills, &info, sizeof(info), hash);
114
115         if (res == NULL) {
116                 info.reloaders = NULL;
117                 info.spill = NULL;
118                 info.old_spill = NULL;
119                 info.reload_cls = NULL;
120                 res = set_insert(env->spills, &info, sizeof(info), hash);
121         }
122
123         return res;
124 }
125
126 DEBUG_ONLY(
127 /* Sets the debug module of a spill environment. */
128 void be_set_spill_env_dbg_module(spill_env_t *env, firm_dbg_module_t *dbg) {
129         env->dbg = dbg;
130 }
131 )
132
133 /* Creates a new spill environment. */
134 spill_env_t *be_new_spill_env(be_irg_t *birg) {
135         spill_env_t *env        = xmalloc(sizeof(env[0]));
136         env->spills                     = new_set(cmp_spillinfo, 1024);
137         env->irg            = be_get_birg_irg(birg);
138         env->birg           = birg;
139         env->arch_env       = birg->main_env->arch_env;
140         env->mem_phis           = pset_new_ptr_default();
141         // TODO, ask backend about costs..., or even ask backend whether we should
142         // rematerialize...
143         env->spill_cost     = 8;
144         env->reload_cost    = 5;
145         obstack_init(&env->obst);
146         return env;
147 }
148
149 /* Deletes a spill environment. */
150 void be_delete_spill_env(spill_env_t *env) {
151         del_set(env->spills);
152         del_pset(env->mem_phis);
153         obstack_free(&env->obst, NULL);
154         free(env);
155 }
156
157 /*
158  *  ____  _                  ____      _                 _
159  * |  _ \| | __ _  ___ ___  |  _ \ ___| | ___   __ _  __| |___
160  * | |_) | |/ _` |/ __/ _ \ | |_) / _ \ |/ _ \ / _` |/ _` / __|
161  * |  __/| | (_| | (_|  __/ |  _ <  __/ | (_) | (_| | (_| \__ \
162  * |_|   |_|\__,_|\___\___| |_| \_\___|_|\___/ \__,_|\__,_|___/
163  *
164  */
165
166 void be_add_remat(spill_env_t *env, ir_node *to_spill, ir_node *before, ir_node *rematted_node) {
167         spill_info_t *spill_info;
168         reloader_t *reloader;
169
170         spill_info = get_spillinfo(env, to_spill);
171
172         /* add the remat information */
173         reloader                = obstack_alloc(&env->obst, sizeof(reloader[0]));
174         reloader->next          = spill_info->reloaders;
175         reloader->reloader      = before;
176         reloader->rematted_node = rematted_node;
177         reloader->allow_remat   = 1;
178
179         spill_info->reloaders  = reloader;
180 }
181
182 void be_add_reload(spill_env_t *env, ir_node *to_spill, ir_node *before,
183                 const arch_register_class_t *reload_cls, int allow_remat)
184 {
185         spill_info_t *info;
186         reloader_t *rel;
187
188         info = get_spillinfo(env, to_spill);
189
190         if (is_Phi(to_spill)) {
191                 int i, arity;
192
193                 /* create spillinfos for the phi arguments */
194                 for (i = 0, arity = get_irn_arity(to_spill); i < arity; ++i) {
195                         ir_node *arg = get_irn_n(to_spill, i);
196                         get_spillinfo(env, arg);
197                 }
198
199 #if 1
200                 // hackery... sometimes the morgan algo spilled the value of a phi,
201                 // the belady algo decides later to spill the whole phi, then sees the
202                 // spill node and adds a reload for that spill node, problem is the
203                 // reload gets attach to that same spill (and is totally unnecessary)
204                 if (info->old_spill != NULL &&
205                         (before == info->old_spill || value_dominates(before, info->old_spill)))
206                 {
207                         printf("spilledphi hack was needed...\n");
208                         before = sched_next(info->old_spill);
209                 }
210 #endif
211         }
212
213         /* put reload into list */
214         rel                = obstack_alloc(&env->obst, sizeof(rel[0]));
215         rel->next          = info->reloaders;
216         rel->reloader      = before;
217         rel->rematted_node = NULL;
218         rel->allow_remat   = allow_remat;
219
220         info->reloaders  = rel;
221         assert(info->reload_cls == NULL || info->reload_cls == reload_cls);
222         info->reload_cls = reload_cls;
223 }
224
225 static ir_node *get_reload_insertion_point(ir_node *block, int pos) {
226         ir_node *predblock, *last;
227
228         /* simply add the reload to the beginning of the block if we only have 1 predecessor
229          * (we don't need to check for phis as there can't be any in a block with only 1 pred)
230          */
231         if(get_Block_n_cfgpreds(block) == 1) {
232                 assert(!is_Phi(sched_first(block)));
233                 return sched_first(block);
234         }
235
236         /* We have to reload the value in pred-block */
237         predblock = get_Block_cfgpred_block(block, pos);
238         last = sched_last(predblock);
239
240         /* we might have projs and keepanys behind the jump... */
241         while(is_Proj(last) || be_is_Keep(last)) {
242                 last = sched_prev(last);
243                 assert(!sched_is_end(last));
244         }
245
246         if(!is_cfop(last)) {
247                 ir_graph *irg = get_irn_irg(block);
248                 ir_node *startblock = get_irg_start_block(irg);
249
250                 last = sched_next(last);
251                 // last node must be a cfop, only exception is the start block
252                 assert(last     == startblock);
253         }
254
255         // add the reload before the (cond-)jump
256         return last;
257 }
258
259 void be_add_reload_on_edge(spill_env_t *env, ir_node *to_spill, ir_node *block, int pos,
260                 const arch_register_class_t *reload_cls, int allow_remat)
261 {
262         ir_node *before = get_reload_insertion_point(block, pos);
263         be_add_reload(env, to_spill, before, reload_cls, allow_remat);
264 }
265
266 void be_spill_phi(spill_env_t *env, ir_node *node) {
267         spill_info_t* spill;
268         int i, arity;
269
270         assert(is_Phi(node));
271
272         pset_insert_ptr(env->mem_phis, node);
273
274         // create spillinfos for the phi arguments
275         spill = get_spillinfo(env, node);
276         for(i = 0, arity = get_irn_arity(node); i < arity; ++i) {
277                 ir_node *arg = get_irn_n(node, i);
278                 get_spillinfo(env, arg);
279         }
280
281         // if we had a spill for the phi value before, then remove this spill from
282         // schedule, as we will remove it in the insert spill/reload phase
283         if(spill->spill != NULL && !is_Phi(spill->spill)) {
284                 assert(spill->old_spill == NULL);
285                 spill->old_spill = spill->spill;
286                 spill->spill = NULL;
287         }
288 }
289
290 /*
291  *   ____                _         ____        _ _ _
292  *  / ___|_ __ ___  __ _| |_ ___  / ___| _ __ (_) | |___
293  * | |   | '__/ _ \/ _` | __/ _ \ \___ \| '_ \| | | / __|
294  * | |___| | |  __/ (_| | ||  __/  ___) | |_) | | | \__ \
295  *  \____|_|  \___|\__,_|\__\___| |____/| .__/|_|_|_|___/
296  *                                      |_|
297  */
298
299 /**
300  * Schedules a node after an instruction. (That is the place after all projs and phis
301  * that are scheduled after the instruction)
302  * This function also skips phi nodes at the beginning of a block
303  */
304 static void sched_add_after_insn(ir_node *sched_after, ir_node *node) {
305         ir_node *next = sched_next(sched_after);
306         while(is_Proj(next) || is_Phi(next)) {
307                 next = sched_next(next);
308         }
309         assert(next != NULL);
310
311         if(sched_is_end(next)) {
312                 sched_add_after(sched_last(get_nodes_block(sched_after)), node);
313         } else {
314                 sched_add_before(next, node);
315         }
316 }
317
318 /**
319  * Creates a spill.
320  *
321  * @param senv      the spill environment
322  * @param irn       the node that should be spilled
323  * @param ctx_irn   an user of the spilled node
324  *
325  * @return a be_Spill node
326  */
327 static void spill_irn(spill_env_t *env, spill_info_t *spillinfo) {
328         ir_node *to_spill = spillinfo->spilled_node;
329
330         DBG((env->dbg, LEVEL_1, "%+F\n", to_spill));
331
332         /* Trying to spill an already spilled value, no need for a new spill
333          * node then, we can simply connect to the same one for this reload
334          *
335          * (although rematerialization code should handle most of these cases
336          * this can still happen when spilling Phis)
337          */
338         if(be_is_Reload(to_spill)) {
339                 spillinfo->spill = get_irn_n(to_spill, be_pos_Reload_mem);
340                 return;
341         }
342
343         if (arch_irn_is(env->arch_env, to_spill, dont_spill)) {
344                 assert(0 && "Attempt to spill a node marked 'dont_spill'");
345         }
346
347         spillinfo->spill = be_spill(env->arch_env, to_spill);
348         sched_add_after_insn(to_spill, spillinfo->spill);
349 }
350
351 static void spill_node(spill_env_t *env, spill_info_t *spillinfo);
352
353 /**
354  * If the first usage of a Phi result would be out of memory
355  * there is no sense in allocating a register for it.
356  * Thus we spill it and all its operands to the same spill slot.
357  * Therefore the phi/dataB becomes a phi/Memory
358  *
359  * @param senv      the spill environment
360  * @param phi       the Phi node that should be spilled
361  * @param ctx_irn   an user of the spilled node
362  */
363 static void spill_phi(spill_env_t *env, spill_info_t *spillinfo) {
364         ir_node *phi = spillinfo->spilled_node;
365         int i;
366         int arity = get_irn_arity(phi);
367         ir_node     *block    = get_nodes_block(phi);
368         ir_node     **ins;
369
370         assert(is_Phi(phi));
371
372         /* build a new PhiM */
373         ins = alloca(sizeof(ir_node*) * arity);
374         for(i = 0; i < arity; ++i) {
375                 ins[i] = get_irg_bad(env->irg);
376         }
377         spillinfo->spill = new_r_Phi(env->irg, block, arity, ins, mode_M);
378
379         for(i = 0; i < arity; ++i) {
380                 ir_node *arg = get_irn_n(phi, i);
381                 spill_info_t *arg_info = get_spillinfo(env, arg);
382
383                 spill_node(env, arg_info);
384
385                 set_irn_n(spillinfo->spill, i, arg_info->spill);
386         }
387
388         // rewire reloads from old_spill to phi
389         if(spillinfo->old_spill != NULL) {
390                 const ir_edge_t *edge, *next;
391                 ir_node *old_spill = spillinfo->old_spill;
392
393                 foreach_out_edge_safe(old_spill, edge, next) {
394                         ir_node* reload = get_edge_src_irn(edge);
395                         assert(be_is_Reload(reload) || is_Phi(reload));
396                         set_irn_n(reload, get_edge_src_pos(edge), spillinfo->spill);
397                 }
398                 set_irn_n(old_spill, be_pos_Spill_val, new_Bad());
399                 //sched_remove(old_spill);
400                 spillinfo->old_spill = NULL;
401         }
402 }
403
404 /**
405  * Spill a node.
406  *
407  * @param senv      the spill environment
408  * @param to_spill  the node that should be spilled
409  */
410 static void spill_node(spill_env_t *env, spill_info_t *spillinfo) {
411         ir_node *to_spill;
412
413         // the node should be tagged for spilling already...
414         if(spillinfo->spill != NULL)
415                 return;
416
417         to_spill = spillinfo->spilled_node;
418         if (is_Phi(to_spill) && pset_find_ptr(env->mem_phis, spillinfo->spilled_node)) {
419                 spill_phi(env, spillinfo);
420         } else {
421                 spill_irn(env, spillinfo);
422         }
423 }
424
425 /*
426  *
427  *  ____                      _            _       _ _
428  * |  _ \ ___ _ __ ___   __ _| |_ ___ _ __(_) __ _| (_)_______
429  * | |_) / _ \ '_ ` _ \ / _` | __/ _ \ '__| |/ _` | | |_  / _ \
430  * |  _ <  __/ | | | | | (_| | ||  __/ |  | | (_| | | |/ /  __/
431  * |_| \_\___|_| |_| |_|\__,_|\__\___|_|  |_|\__,_|_|_/___\___|
432  *
433  */
434
435 /**
436  * Tests whether value @p arg is available before node @p reloader
437  * @returns 1 if value is available, 0 otherwise
438  */
439 static int is_value_available(spill_env_t *env, ir_node *arg, ir_node *reloader) {
440         if(is_Unknown(arg) || arg == new_NoMem())
441                 return 1;
442
443         if(be_is_Spill(arg))
444                 return 1;
445
446         if(arg == get_irg_frame(env->irg))
447                 return 1;
448
449         // hack for now (happens when command should be inserted at end of block)
450         if(is_Block(reloader)) {
451                 return 0;
452         }
453
454         /*
455          * Ignore registers are always available
456          */
457         if(arch_irn_is(env->arch_env, arg, ignore)) {
458                 return 1;
459         }
460
461 #if 0
462         /* the following test does not work while spilling,
463          * because the liveness info is not adapted yet to the effects of the
464          * additional spills/reloads.
465          */
466
467         /* we want to remat before the insn reloader
468          * thus an arguments is alive if
469          *   - it interferes with the reloaders result
470          *   - or it is (last-) used by reloader itself
471          */
472         if (values_interfere(env->birg->lv, reloader, arg)) {
473                 return 1;
474         }
475
476         arity = get_irn_arity(reloader);
477         for (i = 0; i < arity; ++i) {
478                 ir_node *rel_arg = get_irn_n(reloader, i);
479                 if (rel_arg == arg)
480                         return 1;
481         }
482 #endif
483
484         return 0;
485 }
486
487 /**
488  * Checks whether the node can principally be rematerialized
489  */
490 static int is_remat_node(spill_env_t *env, ir_node *node) {
491         const arch_env_t *arch_env = env->arch_env;
492
493         assert(!be_is_Spill(node));
494
495         if(arch_irn_is(arch_env, node, rematerializable)) {
496                 return 1;
497         }
498
499         if(be_is_StackParam(node))
500                 return 1;
501
502         return 0;
503 }
504
505 /**
506  * Check if a node is rematerializable. This tests for the following conditions:
507  *
508  * - The node itself is rematerializable
509  * - All arguments of the node are available or also rematerialisable
510  * - The costs for the rematerialisation operation is less or equal a limit
511  *
512  * Returns the costs needed for rematerialisation or something
513  * > REMAT_COST_LIMIT if remat is not possible.
514  */
515 static int check_remat_conditions_costs(spill_env_t *env, ir_node *spilled, ir_node *reloader, int parentcosts) {
516         int i, arity;
517         int argremats;
518         int costs = 0;
519
520         if(!is_remat_node(env, spilled))
521                 return REMAT_COST_LIMIT;
522
523         if(be_is_Reload(spilled)) {
524                 costs += 2;
525         } else {
526                 costs += arch_get_op_estimated_cost(env->arch_env, spilled);
527         }
528         if(parentcosts + costs >= REMAT_COST_LIMIT) {
529                 return REMAT_COST_LIMIT;
530         }
531
532         argremats = 0;
533         for(i = 0, arity = get_irn_arity(spilled); i < arity; ++i) {
534                 ir_node *arg = get_irn_n(spilled, i);
535
536                 if(is_value_available(env, arg, reloader))
537                         continue;
538
539                 // we have to rematerialize the argument as well...
540                 if(argremats >= 1) {
541                         /* we only support rematerializing 1 argument at the moment,
542                          * so that we don't have to care about register pressure
543                          */
544                         return REMAT_COST_LIMIT;
545                 }
546                 argremats++;
547
548                 costs += check_remat_conditions_costs(env, arg, reloader, parentcosts + costs);
549                 if(parentcosts + costs >= REMAT_COST_LIMIT)
550                         return REMAT_COST_LIMIT;
551         }
552
553         return costs;
554 }
555
556 static int check_remat_conditions(spill_env_t *env, ir_node *spilled, ir_node *reloader) {
557         int costs = check_remat_conditions_costs(env, spilled, reloader, 0);
558
559         return costs < REMAT_COST_LIMIT;
560 }
561
562 /**
563  * Re-materialize a node.
564  *
565  * @param senv      the spill environment
566  * @param spilled   the node that was spilled
567  * @param reloader  a irn that requires a reload
568  */
569 static ir_node *do_remat(spill_env_t *env, ir_node *spilled, ir_node *reloader) {
570         int i, arity;
571         ir_node *res;
572         ir_node *bl;
573         ir_node **ins;
574
575         if(is_Block(reloader)) {
576                 bl = reloader;
577         } else {
578                 bl = get_nodes_block(reloader);
579         }
580
581         ins = alloca(get_irn_arity(spilled) * sizeof(ins[0]));
582         for(i = 0, arity = get_irn_arity(spilled); i < arity; ++i) {
583                 ir_node *arg = get_irn_n(spilled, i);
584
585                 if(is_value_available(env, arg, reloader)) {
586                         ins[i] = arg;
587                 } else {
588                         ins[i] = do_remat(env, arg, reloader);
589                 }
590         }
591
592         /* create a copy of the node */
593         res = new_ir_node(get_irn_dbg_info(spilled), env->irg, bl,
594                 get_irn_op(spilled),
595                 get_irn_mode(spilled),
596                 get_irn_arity(spilled),
597                 ins);
598         copy_node_attr(spilled, res);
599         new_backedge_info(res);
600         sched_reset(res);
601
602         DBG((env->dbg, LEVEL_1, "Insert remat %+F of %+F before reloader %+F\n", res, spilled, reloader));
603
604         /* insert in schedule */
605         sched_add_before(reloader, res);
606
607         return res;
608 }
609
610 int be_get_reload_costs(spill_env_t *env, ir_node *to_spill, ir_node *before) {
611         spill_info_t *spill_info;
612
613         if(be_do_remats) {
614                 // is the node rematerializable?
615                 int costs = check_remat_conditions_costs(env, to_spill, before, 0);
616                 if(costs < REMAT_COST_LIMIT)
617                         return costs;
618         }
619
620         // do we already have a spill?
621         spill_info = find_spillinfo(env, to_spill);
622         if(spill_info != NULL && spill_info->spill != NULL)
623                 return env->reload_cost;
624
625         return env->spill_cost + env->reload_cost;
626 }
627
628 int be_get_reload_costs_on_edge(spill_env_t *env, ir_node *to_spill, ir_node *block, int pos) {
629         ir_node *before = get_reload_insertion_point(block, pos);
630         return be_get_reload_costs(env, to_spill, before);
631 }
632
633 /*
634  *  ___                     _     ____      _                 _
635  * |_ _|_ __  ___  ___ _ __| |_  |  _ \ ___| | ___   __ _  __| |___
636  *  | || '_ \/ __|/ _ \ '__| __| | |_) / _ \ |/ _ \ / _` |/ _` / __|
637  *  | || | | \__ \  __/ |  | |_  |  _ <  __/ | (_) | (_| | (_| \__ \
638  * |___|_| |_|___/\___|_|   \__| |_| \_\___|_|\___/ \__,_|\__,_|___/
639  *
640  */
641
642 void be_insert_spills_reloads(spill_env_t *env) {
643         const arch_env_t *arch_env = env->arch_env;
644         int              remats    = 0;
645         int              reloads   = 0;
646         int              spills    = 0;
647         spill_info_t     *si;
648
649         /* process each spilled node */
650         for (si = set_first(env->spills); si; si = set_next(env->spills)) {
651                 reloader_t *rld;
652                 ir_mode    *mode   = get_irn_mode(si->spilled_node);
653                 pset       *values = pset_new_ptr(16);
654
655                 /* go through all reloads for this spill */
656                 for (rld = si->reloaders; rld; rld = rld->next) {
657                         ir_node *new_val;
658
659                         if (rld->rematted_node != NULL) {
660                                 new_val = rld->rematted_node;
661                                 remats++;
662                                 sched_add_before(rld->reloader, new_val);
663                         }
664                         else if (be_do_remats && rld->allow_remat && check_remat_conditions(env, si->spilled_node, rld->reloader)) {
665                                 new_val = do_remat(env, si->spilled_node, rld->reloader);
666                                 remats++;
667                         }
668                         else {
669                                 /* make sure we have a spill */
670                                 if (si->spill == NULL) {
671                                         spill_node(env, si);
672                                         spills++;
673                                 }
674
675                                 /* create a reload */
676                                 new_val = be_reload(arch_env, si->reload_cls, rld->reloader, mode, si->spill);
677                                 reloads++;
678                         }
679
680                         DBG((env->dbg, LEVEL_1, " %+F of %+F before %+F\n", new_val, si->spilled_node, rld->reloader));
681                         pset_insert_ptr(values, new_val);
682                 }
683
684                 if (pset_count(values) > 0) {
685                         /* introduce copies, rewire the uses */
686                         pset_insert_ptr(values, si->spilled_node);
687                         be_ssa_constr_set_ignore(env->birg->dom_front, env->birg->lv, values, env->mem_phis);
688                 }
689
690                 del_pset(values);
691
692                 si->reloaders = NULL;
693         }
694
695 #ifdef FIRM_STATISTICS
696         if (be_stat_ev_is_active()) {
697                 be_stat_ev("spill_spills", spills);
698                 be_stat_ev("spill_reloads", reloads);
699                 be_stat_ev("spill_remats", remats);
700         }
701 #endif /* FIRM_STATISTICS */
702
703         be_remove_dead_nodes_from_schedule(env->irg);
704         //be_liveness_recompute(env->birg->lv);
705         be_invalidate_liveness(env->birg);
706 }