Remove entity_usage_state attribute
[libfirm] / ir / ana / irlivechk.c
1 /*
2  * Copyright (C) 1995-2007 Inria Rhone-Alpes.  All right reserved.
3  *
4  * This file is part of libFirm.
5  *
6  * This file may be distributed and/or modified under the terms of the
7  * GNU General Public License version 2 as published by the Free Software
8  * Foundation and appearing in the file LICENSE.GPL included in the
9  * packaging of this file.
10  *
11  * Licensees holding valid libFirm Professional Edition licenses may use
12  * this file in accordance with the libFirm Commercial License.
13  * Agreement provided with the Software.
14  *
15  * This file is provided AS IS with NO WARRANTY OF ANY KIND, INCLUDING THE
16  * WARRANTY OF DESIGN, MERCHANTABILITY AND FITNESS FOR A PARTICULAR
17  * PURPOSE.
18  */
19
20 /**
21  * @file    livechk.c
22  * @date    21.04.2007
23  * @author  Sebastian Hack
24  * @version $Id$
25  * @brief
26  *
27  * Liveness checks as developed by Benoit Boissinot, Fabrice Rastello and myself.
28  *
29  * The speciality here is, that nothing has to be recomputed if new nodes are created
30  * or old ones deleted.
31  *
32  * This algo has one core routine check_live_end_internal() which performs the liveness check.
33  * It only relies on the precomputation done in the constructor, which in turn needs:
34  * - out edges
35  * - the dominance tree
36  * - data obtained from a depth-first-search
37  *
38  * The precomputation remains valid as long as the CFG is not altered.
39  */
40 #include <config.h>
41
42 #include <stdio.h>
43
44 #include "irgraph_t.h"
45 #include "irnode_t.h"
46 #include "irphase_t.h"
47 #include "iredges_t.h"
48
49 #include "irprintf.h"
50 #include "irdom.h"
51 #include "irdump.h"
52
53 #include "dfs_t.h"
54 #include "bitset.h"
55 #include "util.h"
56
57 #include "irlivechk.h"
58
59 #include "statev.h"
60
61 typedef struct bl_info_t {
62         const ir_node *block;      /**< The block. */
63
64         int be_tgt_calc : 1;
65         int id : 31;               /**< a tight number for the block.
66                                                                  we're just reusing the pre num from
67                                                                  the DFS. */
68         bitset_t *red_reachable;   /**< Holds all id's if blocks reachable
69                                                                  in the CFG modulo back edges. */
70
71         bitset_t *be_tgt_reach;    /**< target blocks of back edges whose
72                                                                  sources are reachable from this block
73                                                                  in the reduced graph. */
74 } bl_info_t;
75
76 #define get_block_info(lv, bl) ((bl_info_t *) phase_get_irn_data(&(lv)->ph, bl))
77
78 struct lv_chk_t {
79         ir_phase     ph;
80         const dfs_t *dfs;
81         int          n_blocks;
82         bitset_t    *back_edge_src;
83         bitset_t    *back_edge_tgt;
84         bl_info_t  **map;
85         DEBUG_ONLY(firm_dbg_module_t *dbg;)
86 };
87
88 static void *init_block_data(ir_phase *ph, const ir_node *irn)
89 {
90         lv_chk_t *lv      = firm_container_of(ph, lv_chk_t, ph);
91         bl_info_t *bi     = (bl_info_t*) phase_alloc(ph, sizeof(bi[0]));
92
93         bi->id            = get_Block_dom_tree_pre_num(irn);
94         bi->block         = irn;
95         bi->red_reachable = bitset_obstack_alloc(phase_obst(ph), lv->n_blocks);
96         bi->be_tgt_reach  = bitset_obstack_alloc(phase_obst(ph), lv->n_blocks);
97         bi->be_tgt_calc   = 0;
98         return bi;
99 }
100
101 /**
102  * Filter function to select all nodes for which liveness is computed.
103  * @param irn A node.
104  * @return    1 if the node shall be considered in liveness, 0 if not.
105  */
106 static inline int is_liveness_node(const ir_node *irn)
107 {
108         switch (get_irn_opcode(irn)) {
109         case iro_Block:
110         case iro_Bad:
111         case iro_End:
112         case iro_Anchor:
113                 return 0;
114         default:
115                 break;
116         }
117
118         return 1;
119 }
120
121 /**
122  * Compute the transitive closure on the reduced graph.
123  * The reduced graph is the original graph without back edges.
124  * Since that is a DAG, a reverse post order of the graph gives a toposort
125  * which is ideally suited to compute the transitive closure.
126  * Note also, that the DFS tree of the reduced graph is the same than the one
127  * of the original graph. This saves us computing a new reverse post order.
128  * We also can re-use the DFS tree of the original graph.
129  */
130 static void red_trans_closure(lv_chk_t *lv)
131 {
132         int i, n;
133
134         for (i = 0, n = dfs_get_n_nodes(lv->dfs); i < n; ++i) {
135                 const ir_node *bl = (const ir_node*) dfs_get_post_num_node(lv->dfs, i);
136                 bl_info_t *bi = get_block_info(lv, bl);
137
138                 const ir_edge_t *edge;
139
140                 bitset_set(bi->red_reachable, bi->id);
141                 foreach_block_succ (bl, edge) {
142                         ir_node *succ = get_edge_src_irn(edge);
143                         bl_info_t *si = get_block_info(lv, succ);
144                         dfs_edge_kind_t kind = dfs_get_edge_kind(lv->dfs, bl, succ);
145
146                         /*
147                          * if the successor is no back edge, include all reachable
148                          * blocks from there into the reachable set of the current node
149                          */
150                         if (kind != DFS_EDGE_BACK) {
151                                 assert(dfs_get_post_num(lv->dfs, bl) > dfs_get_post_num(lv->dfs, succ));
152                                 bitset_or(bi->red_reachable, si->red_reachable);
153                         }
154
155                         /* mark the block as a back edge src and succ as back edge tgt. */
156                         else {
157                                 bitset_set(lv->back_edge_src, bi->id);
158                                 bitset_set(lv->back_edge_tgt, si->id);
159                         }
160                 }
161
162         }
163
164 }
165
166 static void compute_back_edge_chain(lv_chk_t *lv, const ir_node *bl)
167 {
168         bitset_t *tmp = bitset_alloca(lv->n_blocks);
169         bl_info_t *bi = get_block_info(lv, bl);
170
171         size_t elm;
172
173         DBG((lv->dbg, LEVEL_2, "computing T_%d\n", bi->id));
174
175         /* put all back edge sources reachable (reduced) from here in tmp */
176         bitset_copy(tmp, bi->red_reachable);
177         bitset_set(tmp, bi->id);
178         bitset_and(tmp, lv->back_edge_src);
179         bi->be_tgt_calc = 1;
180
181         DBG((lv->dbg, LEVEL_2, "\treachable be src: %B\n", tmp));
182
183         /* iterate over them ... */
184         bitset_foreach(tmp, elm) {
185                 bl_info_t *si = lv->map[elm];
186                 const ir_edge_t *edge;
187
188                 /* and find back edge targets which are not reduced reachable from bl */
189                 foreach_block_succ (si->block, edge) {
190                         ir_node *tgt         = get_edge_src_irn(edge);
191                         bl_info_t *ti        = get_block_info(lv, tgt);
192                         dfs_edge_kind_t kind = dfs_get_edge_kind(lv->dfs, si->block, tgt);
193
194                         if (kind == DFS_EDGE_BACK && !bitset_is_set(bi->red_reachable, ti->id)) {
195                                 if (!ti->be_tgt_calc)
196                                         compute_back_edge_chain(lv, tgt);
197                                 bitset_set(bi->be_tgt_reach, ti->id);
198                                 bitset_or(bi->be_tgt_reach, ti->be_tgt_reach);
199                         }
200                 }
201                 bitset_clear(bi->be_tgt_reach, bi->id);
202         }
203 }
204
205
206 static inline void compute_back_edge_chains(lv_chk_t *lv)
207 {
208         size_t elm;
209         int i, n;
210
211         DBG((lv->dbg, LEVEL_2, "back edge sources: %B\n", lv->back_edge_src));
212         bitset_foreach(lv->back_edge_src, elm) {
213                 compute_back_edge_chain(lv, lv->map[elm]->block);
214         }
215
216         for (i = 0, n = dfs_get_n_nodes(lv->dfs); i < n; ++i) {
217                 const ir_node *bl = (const ir_node*) dfs_get_post_num_node(lv->dfs, i);
218                 bl_info_t *bi     = get_block_info(lv, bl);
219
220                 const ir_edge_t *edge;
221
222                 if (!bitset_is_set(lv->back_edge_tgt, bi->id)) {
223                         foreach_block_succ (bl, edge) {
224                                 ir_node *succ = get_edge_src_irn(edge);
225                                 bl_info_t *si = get_block_info(lv, succ);
226                                 dfs_edge_kind_t kind = dfs_get_edge_kind(lv->dfs, bl, succ);
227
228                                 if (kind != DFS_EDGE_BACK) {
229                                         assert(dfs_get_post_num(lv->dfs, bl) > dfs_get_post_num(lv->dfs, succ));
230                                         bitset_or(bi->be_tgt_reach, si->be_tgt_reach);
231                                 }
232                         }
233                 }
234         }
235
236         for (i = 0, n = dfs_get_n_nodes(lv->dfs); i < n; ++i) {
237                 const ir_node *bl = (const ir_node*) dfs_get_post_num_node(lv->dfs, i);
238                 bl_info_t *bi     = get_block_info(lv, bl);
239                 bitset_set(bi->be_tgt_reach, bi->id);
240         }
241 }
242
243 lv_chk_t *lv_chk_new(ir_graph *irg, const dfs_t *dfs)
244 {
245         lv_chk_t *res = XMALLOC(lv_chk_t);
246         struct obstack *obst;
247         int i;
248
249         assure_doms(irg);
250
251         stat_ev_tim_push();
252         phase_init(&res->ph, irg, init_block_data);
253         obst = phase_obst(&res->ph);
254
255         FIRM_DBG_REGISTER(res->dbg, "ir.ana.lvchk");
256
257         res->dfs           = dfs;
258         res->n_blocks      = dfs_get_n_nodes(res->dfs);
259         res->back_edge_src = bitset_obstack_alloc(obst, res->n_blocks);
260         res->back_edge_tgt = bitset_obstack_alloc(obst, res->n_blocks);
261         res->map           = OALLOCNZ(obst, bl_info_t*, res->n_blocks);
262
263         /* fill the map which maps pre_num to block infos */
264         for (i = res->n_blocks - 1; i >= 0; --i) {
265                 ir_node *irn  = (ir_node *) dfs_get_pre_num_node(res->dfs, i);
266                 bl_info_t *bi = (bl_info_t*) phase_get_or_set_irn_data(&res->ph, irn);
267                 assert(bi->id < res->n_blocks);
268                 assert(res->map[bi->id] == NULL);
269                 res->map[bi->id] = bi;
270         }
271
272         /* first of all, compute the transitive closure of the CFG *without* back edges */
273         red_trans_closure(res);
274
275         /* compute back edge chains */
276         compute_back_edge_chains(res);
277
278 #ifndef NDEBUG
279         DBG((res->dbg, LEVEL_1, "liveness chk in %+F\n", irg));
280         for (i = res->n_blocks - 1; i >= 0; --i) {
281                 const ir_node *irn = (const ir_node*) dfs_get_pre_num_node(res->dfs, i);
282                 bl_info_t *bi      = get_block_info(res, irn);
283                 DBG((res->dbg, LEVEL_1, "lv_chk for %d -> %+F\n", i, irn));
284                 DBG((res->dbg, LEVEL_1, "\tred reach: %B\n", bi->red_reachable));
285                 DBG((res->dbg, LEVEL_1, "\ttgt reach: %B\n", bi->be_tgt_reach));
286         }
287 #endif
288
289         DBG((res->dbg, LEVEL_1, "back edge src: %B\n", res->back_edge_src));
290         DBG((res->dbg, LEVEL_1, "back edge tgt: %B\n", res->back_edge_tgt));
291
292         stat_ev_tim_pop("lv_chk_cons_time");
293         return res;
294 }
295
296 void lv_chk_free(lv_chk_t *lv)
297 {
298         phase_deinit(&lv->ph);
299         xfree(lv);
300 }
301
302 /**
303  * Check a nodes liveness situation of a block.
304  * This routine considers both cases, the live in and end/out case.
305  *
306  * @param lv   The liveness check environment.
307  * @param bl   The block under investigation.
308  * @param var  The node to check for.
309  * @return     A bitmask of lv_chk_state_XXX fields.
310  */
311 unsigned lv_chk_bl_xxx(const lv_chk_t *lv, const ir_node *bl, const ir_node *var)
312 {
313         int res  = 0;
314         ir_node *def_bl;
315         stat_ev_cnt_decl(uses);
316         stat_ev_cnt_decl(iter);
317
318         assert(is_Block(bl) && "can only check for liveness in a block");
319
320         /* If the variable ist no liveness related var, bail out. */
321         if (!is_liveness_node(var))
322                 return 0;
323
324         stat_ev_ctx_push_fmt("lv_chk", "%u", get_irn_idx(var));
325         stat_ev_tim_push();
326
327         /* If there is no dominance relation, go out, too */
328         def_bl = get_nodes_block(var);
329         if (!block_dominates(def_bl, bl)) {
330                 stat_ev("lv_chk_no_dom");
331                 goto end;
332         }
333
334         /*
335          * If the block in question is the same as the definition block,
336          * the algorithm is simple. Just check for uses not inside this block.
337          */
338         if (def_bl == bl) {
339                 const ir_edge_t *edge;
340
341                 stat_ev("lv_chk_def_block");
342                 DBG((lv->dbg, LEVEL_2, "lv check same block %+F in %+F\n", var, bl));
343                 foreach_out_edge (var, edge) {
344                         ir_node *use    = get_edge_src_irn(edge);
345                         ir_node *use_bl;
346
347                         if (!is_liveness_node(use))
348                                 continue;
349
350                         stat_ev_cnt_inc(uses);
351                         use_bl = get_nodes_block(use);
352                         if (is_Phi(use)) {
353                                 int pos = get_edge_src_pos(edge);
354                                 use_bl  = get_Block_cfgpred_block(use_bl, pos);
355
356                                 if (use_bl == bl) {
357                                         DBG((lv->dbg, LEVEL_2, "\tphi %+F in succ %+F,%d -> live end\n", use, use_bl, pos));
358                                         res |= lv_chk_state_end;
359                                 }
360                         }
361
362                         if (use_bl != def_bl) {
363                                 res = lv_chk_state_end | lv_chk_state_out;
364                                 goto end;
365                         }
366                 }
367
368                 goto end;
369         }
370
371         /*
372          * this is the more complicated case.
373          * We try to gather as much information as possible during looking
374          * at the uses.
375          *
376          * Note that we know for sure that bl != def_bl. That is sometimes
377          * silently exploited below.
378          */
379         else {
380                 bl_info_t *def = get_block_info(lv, def_bl);
381                 bl_info_t *bli = get_block_info(lv, bl);
382                 bitset_t *uses = bitset_alloca(lv->n_blocks);
383                 bitset_t *Tq;
384
385                 size_t i;
386                 unsigned min_dom, max_dom;
387                 const ir_edge_t *edge;
388
389                 /* if the block has no DFS info, it cannot be reached.
390                  * This can happen in functions with endless loops.
391                  * we then go out, since nothing is live there.
392                  *
393                  * TODO: Is that right?
394                  */
395                 if (!bli)
396                         goto end;
397
398                 (void) def;
399                 DBG((lv->dbg, LEVEL_2, "lv check %+F (def in %+F #%d) in different block %+F #%d\n",
400                                         var, def_bl, def->id, bl, bli->id));
401
402                 foreach_out_edge (var, edge) {
403                         ir_node *user = get_edge_src_irn(edge);
404                         int mask      = lv_chk_state_in;
405
406                         ir_node *use_bl;
407                         bl_info_t *bi;
408
409                         /* if the user is no liveness node, the use does not count */
410                         if (!is_liveness_node(user))
411                                 continue;
412
413                         stat_ev_cnt_inc(uses);
414
415                         /* if the user is a phi, the use is in the predecessor
416                          * furthermore, prepare a mask so that in the case where
417                          * bl (the block in question) coincides with a use, it
418                          * can be marked live_end there. */
419                         use_bl = get_nodes_block(user);
420                         if (is_Phi(user)) {
421                                 int pos = get_edge_src_pos(edge);
422                                 use_bl  = get_Block_cfgpred_block(use_bl, pos);
423                                 mask   |= lv_chk_state_end;
424                         }
425
426
427                         /* if the use block coincides with the query block, we
428                          * already gather a little liveness information.
429                          * The variable is surely live there, since bl != def_bl
430                          * (that case is treated above). */
431                         if (use_bl == bl)
432                                 res |= mask;
433
434                         bi = get_block_info(lv, use_bl);
435
436                         if (bi)
437                                 bitset_set(uses, bi->id);
438                 }
439
440                 /* get the dominance range which really matters. all uses outside
441                  * the definition's dominance range are not to consider. note,
442                  * that the definition itself is also not considered. The case
443                  * where bl == def_bl is considered above. */
444                 min_dom = get_Block_dom_tree_pre_num(def_bl) + 1;
445                 max_dom = get_Block_dom_max_subtree_pre_num(def_bl);
446
447                 DBG((lv->dbg, LEVEL_2, "\tuses: %B\n", uses));
448
449                 /* prepare a set with all reachable back edge targets.
450                  * this will determine our "looking points" from where
451                  * we will search/find the calculated uses. */
452                 Tq = bli->be_tgt_reach;
453
454                 /* now, visit all viewing points in the temporary bitset lying
455                  * in the dominance range of the variable. Note that for reducible
456                  * flow-graphs the first iteration is sufficient and the loop
457                  * will be left. */
458                 DBG((lv->dbg, LEVEL_2, "\tbe tgt reach: %B, dom span: [%d, %d]\n", Tq, min_dom, max_dom));
459                 i = bitset_next_set(Tq, min_dom);
460                 while (i <= max_dom) {
461                         bl_info_t *ti = lv->map[i];
462                         int use_in_current_block = bitset_is_set(uses, ti->id);
463
464                         stat_ev_cnt_inc(iter);
465
466                         /*
467                          * This is somewhat tricky. Since this routine handles both, live in
468                          * and end/out we have to handle all the border cases correctly.
469                          * Each node is in its own red_reachable set (see calculation
470                          * function above). That means, that in the case where bl == t, the
471                          * intersection check of uses and reachability below will always
472                          * find an intersection, namely t.
473                          *
474                          * However, if a block contains a use and the variable is dead
475                          * afterwards, it is not live end/out at that block. Besides
476                          * back-edge target. If a var is live-in at a back-edge target it
477                          * is also live out/end there since the variable is live in the
478                          * underlying loop. So in the case where t == bl and that is not
479                          * a back-edge target, we have to remove that use from consideration
480                          * to determine if the var is live out/end there.
481                          *
482                          * Note that the live in information has been calculated by the
483                          * uses iteration above.
484                          */
485                         if (ti == bli && !bitset_is_set(lv->back_edge_tgt, ti->id)) {
486                                 DBG((lv->dbg, LEVEL_2, "\tlooking not from a back edge target and q == t. removing use: %d\n", ti->id));
487                                 bitset_clear(uses, ti->id);
488                         }
489
490                         /* If we can reach a use, the variable is live there and we say goodbye */
491                         DBG((lv->dbg, LEVEL_2, "\tlooking from %d: seeing %B\n", ti->id, ti->red_reachable));
492                         if (bitset_intersect(ti->red_reachable, uses)) {
493                                 res |= lv_chk_state_in | lv_chk_state_out | lv_chk_state_end;
494                                 goto end;
495                         }
496
497                         /*
498                          * if we deleted a use do to the commentary above, we have to
499                          * re-add it since it might be visible from further view points
500                          * (we only need that in the non-reducible case).
501                          */
502                         if (use_in_current_block)
503                                 bitset_set(uses, ti->id);
504
505                         i = bitset_next_set(Tq, get_Block_dom_max_subtree_pre_num(ti->block) + 1);
506                 }
507
508         }
509
510 end:
511         stat_ev_tim_pop("lv_chk_query_time");
512         stat_ev_cnt_done(uses, "lv_chk_uses");
513         stat_ev_cnt_done(iter, "lv_chk_iter");
514         stat_ev_ctx_pop("lv_chk");
515
516         return res;
517 }