Moved functions from opt_confirms.h into official header, do edgjfe can use them.
[libfirm] / ir / opt / jumpthreading.c
1 /*
2  * Copyright (C) 1995-2010 University of Karlsruhe.  All right reserved.
3  *
4  * This file is part of libFirm.
5  *
6  * This file may be distributed and/or modified under the terms of the
7  * GNU General Public License version 2 as published by the Free Software
8  * Foundation and appearing in the file LICENSE.GPL included in the
9  * packaging of this file.
10  *
11  * Licensees holding valid libFirm Professional Edition licenses may use
12  * this file in accordance with the libFirm Commercial License.
13  * Agreement provided with the Software.
14  *
15  * This file is provided AS IS with NO WARRANTY OF ANY KIND, INCLUDING THE
16  * WARRANTY OF DESIGN, MERCHANTABILITY AND FITNESS FOR A PARTICULAR
17  * PURPOSE.
18  */
19
20 /**
21  * @file
22  * @brief   Path-Sensitive Jump Threading
23  * @date    10. Sep. 2006
24  * @author  Christoph Mallon, Matthias Braun
25  * @version $Id$
26  */
27 #include "config.h"
28
29 #include "iroptimize.h"
30
31 #include <assert.h>
32 #include "array_t.h"
33 #include "debug.h"
34 #include "ircons.h"
35 #include "irgmod.h"
36 #include "irgopt.h"
37 #include "irgwalk.h"
38 #include "irnode.h"
39 #include "irnode_t.h"
40 #include "iredges.h"
41 #include "iredges_t.h"
42 #include "irtools.h"
43 #include "irgraph.h"
44 #include "tv.h"
45 #include "iroptimize.h"
46 #include "iropt_dbg.h"
47 #include "irpass.h"
48 #include "vrp.h"
49
50 #undef AVOID_PHIB
51
52 DEBUG_ONLY(static firm_dbg_module_t *dbg);
53
54 /**
55  * Add the new predecessor x to node node, which is either a Block or a Phi
56  */
57 static void add_pred(ir_node* node, ir_node* x)
58 {
59         ir_node** ins;
60         int n;
61         int i;
62
63         assert(is_Block(node) || is_Phi(node));
64
65         n = get_irn_arity(node);
66         NEW_ARR_A(ir_node*, ins, n + 1);
67         for (i = 0; i < n; i++)
68                 ins[i] = get_irn_n(node, i);
69         ins[n] = x;
70         set_irn_in(node, n + 1, ins);
71 }
72
73 static ir_node *ssa_second_def;
74 static ir_node *ssa_second_def_block;
75
76 static ir_node *search_def_and_create_phis(ir_node *block, ir_mode *mode,
77                                            int first)
78 {
79         int i;
80         int n_cfgpreds;
81         ir_graph *irg;
82         ir_node *phi;
83         ir_node **in;
84         ir_node *dummy;
85
86         /* This is needed because we create bads sometimes */
87         if (is_Bad(block)) {
88                 ir_graph *irg = get_irn_irg(block);
89                 return new_r_Bad(irg);
90         }
91
92         /* the other defs can't be marked for cases where a user of the original
93          * value is in the same block as the alternative definition.
94          * In this case we mustn't use the alternative definition.
95          * So we keep a flag that indicated wether we walked at least 1 block
96          * away and may use the alternative definition */
97         if (block == ssa_second_def_block && !first) {
98                 return ssa_second_def;
99         }
100
101         /* already processed this block? */
102         if (irn_visited(block)) {
103                 ir_node *value = (ir_node*) get_irn_link(block);
104                 return value;
105         }
106
107         irg = get_irn_irg(block);
108         assert(block != get_irg_start_block(irg));
109
110         /* a Block with only 1 predecessor needs no Phi */
111         n_cfgpreds = get_Block_n_cfgpreds(block);
112         if (n_cfgpreds == 1) {
113                 ir_node *pred_block = get_Block_cfgpred_block(block, 0);
114                 ir_node *value      = search_def_and_create_phis(pred_block, mode, 0);
115
116                 set_irn_link(block, value);
117                 mark_irn_visited(block);
118                 return value;
119         }
120
121         /* create a new Phi */
122         NEW_ARR_A(ir_node*, in, n_cfgpreds);
123         dummy = new_r_Dummy(irg, mode);
124         for (i = 0; i < n_cfgpreds; ++i)
125                 in[i] = dummy;
126
127         phi = new_r_Phi(block, n_cfgpreds, in, mode);
128         set_irn_link(block, phi);
129         mark_irn_visited(block);
130
131         /* set Phi predecessors */
132         for (i = 0; i < n_cfgpreds; ++i) {
133                 ir_node *pred_block = get_Block_cfgpred_block(block, i);
134                 ir_node *pred_val   = search_def_and_create_phis(pred_block, mode, 0);
135
136                 set_irn_n(phi, i, pred_val);
137         }
138
139         return phi;
140 }
141
142 /**
143  * Given a set of values this function constructs SSA-form for the users of the
144  * first value (the users are determined through the out-edges of the value).
145  * Uses the irn_visited flags. Works without using the dominance tree.
146  */
147 static void construct_ssa(ir_node *orig_block, ir_node *orig_val,
148                           ir_node *second_block, ir_node *second_val)
149 {
150         ir_graph *irg;
151         ir_mode *mode;
152         const ir_edge_t *edge;
153         const ir_edge_t *next;
154
155         /* no need to do anything */
156         if (orig_val == second_val)
157                 return;
158
159         irg = get_irn_irg(orig_val);
160         inc_irg_visited(irg);
161
162         mode = get_irn_mode(orig_val);
163         set_irn_link(orig_block, orig_val);
164         mark_irn_visited(orig_block);
165
166         ssa_second_def_block = second_block;
167         ssa_second_def       = second_val;
168
169         /* Only fix the users of the first, i.e. the original node */
170         foreach_out_edge_safe(orig_val, edge, next) {
171                 ir_node *user = get_edge_src_irn(edge);
172                 int j = get_edge_src_pos(edge);
173                 ir_node *user_block = get_nodes_block(user);
174                 ir_node *newval;
175
176                 /* ignore keeps */
177                 if (is_End(user))
178                         continue;
179
180                 DB((dbg, LEVEL_3, ">>> Fixing user %+F (pred %d == %+F)\n", user, j, get_irn_n(user, j)));
181
182                 if (is_Phi(user)) {
183                         ir_node *pred_block = get_Block_cfgpred_block(user_block, j);
184                         newval = search_def_and_create_phis(pred_block, mode, 1);
185                 } else {
186                         newval = search_def_and_create_phis(user_block, mode, 1);
187                 }
188
189                 /* don't fix newly created Phis from the SSA construction */
190                 if (newval != user) {
191                         DB((dbg, LEVEL_4, ">>>> Setting input %d of %+F to %+F\n", j, user, newval));
192                         set_irn_n(user, j, newval);
193                 }
194         }
195 }
196
197 static void split_critical_edge(ir_node *block, int pos)
198 {
199         ir_graph *irg = get_irn_irg(block);
200         ir_node *in[1];
201         ir_node *new_block;
202         ir_node *new_jmp;
203
204         in[0] = get_Block_cfgpred(block, pos);
205         new_block = new_r_Block(irg, 1, in);
206         new_jmp = new_r_Jmp(new_block);
207         set_Block_cfgpred(block, pos, new_jmp);
208 }
209
210 typedef struct jumpthreading_env_t {
211         ir_node       *true_block;
212         ir_node       *cmp;        /**< The Compare node that might be partial evaluated */
213         pn_Cmp         pnc;        /**< The Compare mode of the Compare node. */
214         ir_node       *cnst;
215         ir_tarval     *tv;
216         ir_visited_t   visited_nr;
217
218         ir_node       *cnst_pred;   /**< the block before the constant */
219         int            cnst_pos;    /**< the pos to the constant block (needed to
220                                           kill that edge later) */
221 } jumpthreading_env_t;
222
223 static ir_node *copy_and_fix_node(const jumpthreading_env_t *env,
224                                   ir_node *block, ir_node *copy_block, int j,
225                                   ir_node *node)
226 {
227         int      i, arity;
228         ir_node *copy;
229
230         /* we can evaluate Phis right now, all other nodes get copied */
231         if (is_Phi(node)) {
232                 copy = get_Phi_pred(node, j);
233                 /* we might have to evaluate a Phi-cascade */
234                 if (get_irn_visited(copy) >= env->visited_nr) {
235                         copy = get_irn_link(copy);
236                 }
237         } else {
238                 copy = exact_copy(node);
239                 set_nodes_block(copy, copy_block);
240
241                 assert(get_irn_mode(copy) != mode_X);
242
243                 arity = get_irn_arity(copy);
244                 for (i = 0; i < arity; ++i) {
245                         ir_node *pred     = get_irn_n(copy, i);
246                         ir_node *new_pred;
247
248                         if (get_nodes_block(pred) != block)
249                                 continue;
250
251                         if (get_irn_visited(pred) >= env->visited_nr) {
252                                 new_pred = get_irn_link(pred);
253                         } else {
254                                 new_pred = copy_and_fix_node(env, block, copy_block, j, pred);
255                         }
256                         DB((dbg, LEVEL_2, ">> Set Pred of %+F to %+F\n", copy, new_pred));
257                         set_irn_n(copy, i, new_pred);
258                 }
259         }
260
261         set_irn_link(node, copy);
262         set_irn_visited(node, env->visited_nr);
263
264         return copy;
265 }
266
267 static void copy_and_fix(const jumpthreading_env_t *env, ir_node *block,
268                          ir_node *copy_block, int j)
269 {
270         const ir_edge_t *edge;
271
272         /* Look at all nodes in the cond_block and copy them into pred */
273         foreach_out_edge(block, edge) {
274                 ir_node *node = get_edge_src_irn(edge);
275                 ir_node *copy;
276                 ir_mode *mode;
277
278                 /* ignore control flow */
279                 mode = get_irn_mode(node);
280                 if (mode == mode_X || is_Cond(node))
281                         continue;
282 #ifdef AVOID_PHIB
283                 /* we may not copy mode_b nodes, because this could produce Phi with
284                  * mode_bs which can't be handled in all backends. Instead we duplicate
285                  * the node and move it to its users */
286                 if (mode == mode_b) {
287                         const ir_edge_t *edge, *next;
288                         ir_node *pred;
289                         int      pn;
290
291                         assert(is_Proj(node));
292
293                         pred = get_Proj_pred(node);
294                         pn   = get_Proj_proj(node);
295
296                         foreach_out_edge_safe(node, edge, next) {
297                                 ir_node *cmp_copy;
298                                 ir_node *user       = get_edge_src_irn(edge);
299                                 int pos             = get_edge_src_pos(edge);
300                                 ir_node *user_block = get_nodes_block(user);
301
302                                 if (user_block == block)
303                                         continue;
304
305                                 cmp_copy = exact_copy(pred);
306                                 set_nodes_block(cmp_copy, user_block);
307                                 copy = new_r_Proj(cmp_copy, mode_b, pn);
308                                 set_irn_n(user, pos, copy);
309                         }
310                         continue;
311                 }
312 #endif
313
314                 copy = copy_and_fix_node(env, block, copy_block, j, node);
315
316                 /* we might hit values in blocks that have already been processed by a
317                  * recursive find_phi_with_const() call */
318                 assert(get_irn_visited(copy) <= env->visited_nr);
319                 if (get_irn_visited(copy) >= env->visited_nr) {
320                         ir_node *prev_copy = get_irn_link(copy);
321                         if (prev_copy != NULL)
322                                 set_irn_link(node, prev_copy);
323                 }
324         }
325
326         /* fix data-flow (and reconstruct SSA if needed) */
327         foreach_out_edge(block, edge) {
328                 ir_node *node = get_edge_src_irn(edge);
329                 ir_node *copy_node;
330                 ir_mode *mode;
331
332                 mode = get_irn_mode(node);
333                 if (mode == mode_X || is_Cond(node))
334                         continue;
335 #ifdef AVOID_PHIB
336                 if (mode == mode_b)
337                         continue;
338 #endif
339
340                 DB((dbg, LEVEL_2, ">> Fixing users of %+F\n", node));
341
342                 copy_node = get_irn_link(node);
343                 construct_ssa(block, node, copy_block, copy_node);
344         }
345 }
346
347 /**
348  * returns whether the cmp evaluates to true or false, or can't be evaluated!
349  * 1: true, 0: false, -1: can't evaluate
350  *
351  * @param pnc       the compare mode of the Compare
352  * @param tv_left   the left tarval
353  * @param tv_right  the right tarval
354  */
355 static int eval_cmp_tv(pn_Cmp pnc, ir_tarval *tv_left, ir_tarval *tv_right)
356 {
357         pn_Cmp cmp_result = tarval_cmp(tv_left, tv_right);
358
359         /* does the compare evaluate to true? */
360         if (cmp_result == pn_Cmp_False)
361                 return -1;
362         if ((cmp_result & pnc) != cmp_result)
363                 return 0;
364
365         return 1;
366 }
367
368 /**
369  * returns whether the cmp evaluates to true or false according to vrp
370  * information , or can't be evaluated!
371  * 1: true, 0: false, -1: can't evaluate
372  *
373  * @param pnc       the compare mode of the Compare
374  * @param left   the left node
375  * @param right  the right node
376  */
377 static int eval_cmp_vrp(pn_Cmp pnc, ir_node *left, ir_node *right)
378 {
379         pn_Cmp cmp_result = vrp_cmp(left, right);
380         /* does the compare evaluate to true? */
381         if (cmp_result == pn_Cmp_False) {
382                 return -1;
383         }
384         if ((cmp_result & pnc) != cmp_result) {
385                 if ((cmp_result & pnc) != 0) {
386                         return -1;
387                 }
388                 return 0;
389         }
390         return 1;
391 }
392 /**
393  * returns whether the cmp evaluates to true or false, or can't be evaluated!
394  * 1: true, 0: false, -1: can't evaluate
395  *
396  * @param env      the environment
397  * @param cand     the candidate node, either a Const or a Confirm
398  */
399 static int eval_cmp(jumpthreading_env_t *env, ir_node *cand)
400 {
401         if (is_Const(cand)) {
402                 ir_tarval *tv_cand   = get_Const_tarval(cand);
403                 ir_tarval *tv_cmp    = get_Const_tarval(env->cnst);
404
405                 return eval_cmp_tv(env->pnc, tv_cand, tv_cmp);
406         } else { /* a Confirm */
407                 ir_tarval *res = computed_value_Cmp_Confirm(env->cmp, cand, env->cnst, env->pnc);
408
409                 if (res == tarval_bad)
410                         return -1;
411                 return res == tarval_b_true;
412         }
413 }
414
415 /**
416  * Check for Const or Confirm with Const.
417  */
418 static int is_Const_or_Confirm(const ir_node *node)
419 {
420         if (is_Confirm(node))
421                 node = get_Confirm_bound(node);
422         return is_Const(node);
423 }
424
425 /**
426  * get the tarval of a Const or Confirm with
427  */
428 static ir_tarval *get_Const_or_Confirm_tarval(const ir_node *node)
429 {
430         if (is_Confirm(node)) {
431                 if (get_Confirm_bound(node))
432                         node = get_Confirm_bound(node);
433         }
434         return get_Const_tarval(node);
435 }
436
437 static ir_node *find_const_or_confirm(jumpthreading_env_t *env, ir_node *jump,
438                                       ir_node *value)
439 {
440         ir_node *block = get_nodes_block(jump);
441
442         if (irn_visited_else_mark(value))
443                 return NULL;
444
445         if (is_Const_or_Confirm(value)) {
446                 if (eval_cmp(env, value) <= 0) {
447                         return NULL;
448                 }
449
450                 DB((
451                         dbg, LEVEL_1,
452                         "> Found jump threading candidate %+F->%+F\n",
453                         env->true_block, block
454                 ));
455
456                 /* adjust true_block to point directly towards our jump */
457                 add_pred(env->true_block, jump);
458
459                 split_critical_edge(env->true_block, 0);
460
461                 /* we need a bigger visited nr when going back */
462                 env->visited_nr++;
463
464                 return block;
465         }
466
467         if (is_Phi(value)) {
468                 int i, arity;
469
470                 /* the Phi has to be in the same Block as the Jmp */
471                 if (get_nodes_block(value) != block) {
472                         return NULL;
473                 }
474
475                 arity = get_irn_arity(value);
476                 for (i = 0; i < arity; ++i) {
477                         ir_node *copy_block;
478                         ir_node *phi_pred = get_Phi_pred(value, i);
479                         ir_node *cfgpred  = get_Block_cfgpred(block, i);
480
481                         copy_block = find_const_or_confirm(env, cfgpred, phi_pred);
482                         if (copy_block == NULL)
483                                 continue;
484
485                         /* copy duplicated nodes in copy_block and fix SSA */
486                         copy_and_fix(env, block, copy_block, i);
487
488                         if (copy_block == get_nodes_block(cfgpred)) {
489                                 env->cnst_pred = block;
490                                 env->cnst_pos  = i;
491                         }
492
493                         /* return now as we can't process more possibilities in 1 run */
494                         return copy_block;
495                 }
496         }
497
498         return NULL;
499 }
500
501 static ir_node *find_candidate(jumpthreading_env_t *env, ir_node *jump,
502                                ir_node *value)
503 {
504         ir_node *block = get_nodes_block(jump);
505
506         if (irn_visited_else_mark(value)) {
507                 return NULL;
508         }
509
510         if (is_Const_or_Confirm(value)) {
511                 ir_tarval *tv = get_Const_or_Confirm_tarval(value);
512
513                 if (tv != env->tv)
514                         return NULL;
515
516                 DB((
517                         dbg, LEVEL_1,
518                         "> Found jump threading candidate %+F->%+F\n",
519                         env->true_block, block
520                 ));
521
522                 /* adjust true_block to point directly towards our jump */
523                 add_pred(env->true_block, jump);
524
525                 split_critical_edge(env->true_block, 0);
526
527                 /* we need a bigger visited nr when going back */
528                 env->visited_nr++;
529
530                 return block;
531         }
532         if (is_Phi(value)) {
533                 int i, arity;
534
535                 /* the Phi has to be in the same Block as the Jmp */
536                 if (get_nodes_block(value) != block)
537                         return NULL;
538
539                 arity = get_irn_arity(value);
540                 for (i = 0; i < arity; ++i) {
541                         ir_node *copy_block;
542                         ir_node *phi_pred = get_Phi_pred(value, i);
543                         ir_node *cfgpred  = get_Block_cfgpred(block, i);
544
545                         copy_block = find_candidate(env, cfgpred, phi_pred);
546                         if (copy_block == NULL)
547                                 continue;
548
549                         /* copy duplicated nodes in copy_block and fix SSA */
550                         copy_and_fix(env, block, copy_block, i);
551
552                         if (copy_block == get_nodes_block(cfgpred)) {
553                                 env->cnst_pred = block;
554                                 env->cnst_pos  = i;
555                         }
556
557                         /* return now as we can't process more possibilities in 1 run */
558                         return copy_block;
559                 }
560         }
561         if (is_Proj(value)) {
562                 ir_node *left;
563                 ir_node *right;
564                 int      pnc;
565                 ir_node *cmp = get_Proj_pred(value);
566                 if (!is_Cmp(cmp))
567                         return NULL;
568
569                 left  = get_Cmp_left(cmp);
570                 right = get_Cmp_right(cmp);
571                 pnc   = get_Proj_proj(value);
572
573                 /* we assume that the constant is on the right side, swap left/right
574                  * if needed */
575                 if (is_Const(left)) {
576                         ir_node *t = left;
577                         left       = right;
578                         right      = t;
579
580                         pnc        = get_inversed_pnc(pnc);
581                 }
582
583                 if (!is_Const(right))
584                         return 0;
585
586                 if (get_nodes_block(left) != block) {
587                         return 0;
588                 }
589
590                 /* negate condition when we're looking for the false block */
591                 if (env->tv == tarval_b_false) {
592                         pnc = get_negated_pnc(pnc, get_irn_mode(right));
593                 }
594
595                 /* (recursively) look if a pred of a Phi is a constant or a Confirm */
596                 env->cmp  = cmp;
597                 env->pnc  = pnc;
598                 env->cnst = right;
599
600                 return find_const_or_confirm(env, jump, left);
601         }
602
603         return NULL;
604 }
605
606 /**
607  * Block-walker: searches for the following construct
608  *
609  *  Const or Phi with constants
610  *           |
611  *          Cmp
612  *           |
613  *         Cond
614  *          /
615  *       ProjX
616  *        /
617  *     Block
618  */
619 static void thread_jumps(ir_node* block, void* data)
620 {
621         jumpthreading_env_t env;
622         int *changed = data;
623         ir_node *selector;
624         ir_node *projx;
625         ir_node *cond;
626         ir_node *copy_block;
627         int      selector_evaluated;
628         const ir_edge_t *edge, *next;
629         ir_graph *irg;
630         ir_node *bad;
631         size_t   cnst_pos;
632
633         if (get_Block_n_cfgpreds(block) != 1)
634                 return;
635
636         projx = get_Block_cfgpred(block, 0);
637         if (!is_Proj(projx))
638                 return;
639         assert(get_irn_mode(projx) == mode_X);
640
641         cond = get_Proj_pred(projx);
642         if (!is_Cond(cond))
643                 return;
644
645         selector = get_Cond_selector(cond);
646         /* TODO handle switch Conds */
647         if (get_irn_mode(selector) != mode_b)
648                 return;
649
650         /* handle cases that can be immediately evaluated */
651         selector_evaluated = -1;
652         if (is_Proj(selector)) {
653                 ir_node *cmp = get_Proj_pred(selector);
654                 if (is_Cmp(cmp)) {
655                         ir_node *left  = get_Cmp_left(cmp);
656                         ir_node *right = get_Cmp_right(cmp);
657                         if (is_Const(left) && is_Const(right)) {
658                                 int        pnc      = get_Proj_proj(selector);
659                                 ir_tarval *tv_left  = get_Const_tarval(left);
660                                 ir_tarval *tv_right = get_Const_tarval(right);
661
662                                 selector_evaluated = eval_cmp_tv(pnc, tv_left, tv_right);
663                         }
664                         if (selector_evaluated < 0) {
665                                 /* This is only the case if the predecessor nodes are not
666                                  * constant or the comparison could not be evaluated.
667                                  * Try with VRP information now.
668                                  */
669                                 int pnc = get_Proj_proj(selector);
670
671                                 selector_evaluated = eval_cmp_vrp(pnc, left, right);
672                         }
673                 }
674         } else if (is_Const_or_Confirm(selector)) {
675                 ir_tarval *tv = get_Const_or_Confirm_tarval(selector);
676                 if (tv == tarval_b_true) {
677                         selector_evaluated = 1;
678                 } else {
679                         assert(tv == tarval_b_false);
680                         selector_evaluated = 0;
681                 }
682         }
683
684         env.cnst_pred = NULL;
685         if (get_Proj_proj(projx) == pn_Cond_false) {
686                 env.tv = tarval_b_false;
687                 if (selector_evaluated >= 0)
688                         selector_evaluated = !selector_evaluated;
689         } else {
690                 env.tv = tarval_b_true;
691         }
692
693         if (selector_evaluated == 0) {
694                 ir_graph *irg = get_irn_irg(block);
695                 bad = new_r_Bad(irg);
696                 exchange(projx, bad);
697                 *changed = 1;
698                 return;
699         } else if (selector_evaluated == 1) {
700                 dbg_info *dbgi = get_irn_dbg_info(selector);
701                 ir_node  *jmp  = new_rd_Jmp(dbgi, get_nodes_block(projx));
702                 DBG_OPT_JUMPTHREADING(projx, jmp);
703                 exchange(projx, jmp);
704                 *changed = 1;
705                 return;
706         }
707
708         /* (recursively) look if a pred of a Phi is a constant or a Confirm */
709         env.true_block = block;
710         irg = get_irn_irg(block);
711         inc_irg_visited(irg);
712         env.visited_nr = get_irg_visited(irg);
713
714         copy_block = find_candidate(&env, projx, selector);
715         if (copy_block == NULL)
716                 return;
717
718         /* we have to remove the edge towards the pred as the pred now
719          * jumps into the true_block. We also have to shorten Phis
720          * in our block because of this */
721         bad      = new_r_Bad(irg);
722         cnst_pos = env.cnst_pos;
723
724         /* shorten Phis */
725         foreach_out_edge_safe(env.cnst_pred, edge, next) {
726                 ir_node *node = get_edge_src_irn(edge);
727
728                 if (is_Phi(node))
729                         set_Phi_pred(node, cnst_pos, bad);
730         }
731
732         set_Block_cfgpred(env.cnst_pred, cnst_pos, bad);
733
734         /* the graph is changed now */
735         *changed = 1;
736 }
737
738 void opt_jumpthreading(ir_graph* irg)
739 {
740         int changed, rerun;
741
742         FIRM_DBG_REGISTER(dbg, "firm.opt.jumpthreading");
743
744         DB((dbg, LEVEL_1, "===> Performing jumpthreading on %+F\n", irg));
745
746         remove_critical_cf_edges(irg);
747
748         edges_assure(irg);
749         ir_reserve_resources(irg, IR_RESOURCE_IRN_LINK | IR_RESOURCE_IRN_VISITED);
750
751         changed = 0;
752         do {
753                 rerun = 0;
754                 irg_block_walk_graph(irg, thread_jumps, NULL, &rerun);
755                 changed |= rerun;
756         } while (rerun);
757
758         ir_free_resources(irg, IR_RESOURCE_IRN_LINK | IR_RESOURCE_IRN_VISITED);
759
760         if (changed) {
761                 /* control flow changed, some blocks may become dead */
762                 set_irg_outs_inconsistent(irg);
763                 set_irg_doms_inconsistent(irg);
764                 set_irg_extblk_inconsistent(irg);
765                 set_irg_loopinfo_inconsistent(irg);
766                 set_irg_entity_usage_state(irg, ir_entity_usage_not_computed);
767
768                 /* Dead code might be created. Optimize it away as it is dangerous
769                  * to call optimize_df() an dead code. */
770                 optimize_cf(irg);
771         }
772 }
773
774 /* Creates an ir_graph pass for opt_jumpthreading. */
775 ir_graph_pass_t *opt_jumpthreading_pass(const char *name)
776 {
777         return def_graph_pass(name ? name : "jumpthreading", opt_jumpthreading);
778 }  /* opt_jumpthreading_pass */